在BIRCH聚類算法原理中,我們對(duì)BIRCH聚類算法的原理做了總結(jié),本文就對(duì)scikit-learn中BIRCH算法的使用做一個(gè)總結(jié)。
1. scikit-learn之BIRCH類
在scikit-learn中,BIRCH類實(shí)現(xiàn)了原理篇里講到的基于特征樹CF Tree的聚類。因此要使用BIRCH來(lái)聚類,關(guān)鍵是對(duì)CF Tree結(jié)構(gòu)參數(shù)的處理。
在CF Tree中,幾個(gè)關(guān)鍵的參數(shù)為內(nèi)部節(jié)點(diǎn)的最大CF數(shù)B, 葉子節(jié)點(diǎn)的最大CF數(shù)L, 葉節(jié)點(diǎn)每個(gè)CF的最大樣本半徑閾值T。這三個(gè)參數(shù)定了,CF Tree的結(jié)構(gòu)也基本確定了,最后的聚類效果也基本確定??梢哉f(shuō)BIRCH的調(diào)參就是調(diào)試B,L和T。
至于類別數(shù)K,此時(shí)反而是可選的,不輸入K,則BIRCH會(huì)對(duì)CF Tree里各葉子節(jié)點(diǎn)CF中樣本的情況自己決定類別數(shù)K值,如果輸入K值,則BIRCH會(huì)CF Tree里各葉子節(jié)點(diǎn)CF進(jìn)行合并,直到類別數(shù)為K。
2. BIRCH類參數(shù)
在scikit-learn中,BIRCH類的重要參數(shù)不多,下面一并講解。
1) threshold:即葉節(jié)點(diǎn)每個(gè)CF的最大樣本半徑閾值T,它決定了每個(gè)CF里所有樣本形成的超球體的半徑閾值。一般來(lái)說(shuō)threshold越小,則CF Tree的建立階段的規(guī)模會(huì)越大,即BIRCH算法第一階段所花的時(shí)間和內(nèi)存會(huì)越多。但是選擇多大以達(dá)到聚類效果則需要通過(guò)調(diào)參決定。默認(rèn)值是0.5.如果樣本的方差較大,則一般需要增大這個(gè)默認(rèn)值。
延伸閱讀
- ssh框架 2016-09-30
- 阿里移動(dòng)安全 [無(wú)線安全]玩轉(zhuǎn)無(wú)線電——不安全的藍(lán)牙鎖 2017-07-26
- 消息隊(duì)列NetMQ 原理分析4-Socket、Session、Option和Pipe 2024-03-26
- Selective Search for Object Recognition 論文筆記【圖片目標(biāo)分割】 2017-07-26
- 詞向量-LRWE模型-更好地識(shí)別反義詞同義詞 2017-07-26
- 從棧不平衡問(wèn)題 理解 calling convention 2017-07-26
- php imagemagick 處理 圖片剪切、壓縮、合并、插入文本、背景色透明 2017-07-26
- Swift實(shí)現(xiàn)JSON轉(zhuǎn)Model - HandyJSON使用講解 2017-07-26
- 阿里移動(dòng)安全 Android端惡意鎖屏勒索應(yīng)用分析 2017-07-26
- 集合結(jié)合數(shù)據(jù)結(jié)構(gòu)來(lái)看看(二) 2017-07-26