BIRCH聚類算法原理中,我們對(duì)BIRCH聚類算法的原理做了總結(jié),本文就對(duì)scikit-learn中BIRCH算法的使用做一個(gè)總結(jié)。

1. scikit-learn之BIRCH類

    在scikit-learn中,BIRCH類實(shí)現(xiàn)了原理篇里講到的基于特征樹CF Tree的聚類。因此要使用BIRCH來(lái)聚類,關(guān)鍵是對(duì)CF Tree結(jié)構(gòu)參數(shù)的處理。

    在CF Tree中,幾個(gè)關(guān)鍵的參數(shù)為內(nèi)部節(jié)點(diǎn)的最大CF數(shù)B, 葉子節(jié)點(diǎn)的最大CF數(shù)L, 葉節(jié)點(diǎn)每個(gè)CF的最大樣本半徑閾值T。這三個(gè)參數(shù)定了,CF Tree的結(jié)構(gòu)也基本確定了,最后的聚類效果也基本確定??梢哉f(shuō)BIRCH的調(diào)參就是調(diào)試B,L和T。

    至于類別數(shù)K,此時(shí)反而是可選的,不輸入K,則BIRCH會(huì)對(duì)CF Tree里各葉子節(jié)點(diǎn)CF中樣本的情況自己決定類別數(shù)K值,如果輸入K值,則BIRCH會(huì)CF Tree里各葉子節(jié)點(diǎn)CF進(jìn)行合并,直到類別數(shù)為K。

2. BIRCH類參數(shù)

    在scikit-learn中,BIRCH類的重要參數(shù)不多,下面一并講解。

    1) threshold:即葉節(jié)點(diǎn)每個(gè)CF的最大樣本半徑閾值T,它決定了每個(gè)CF里所有樣本形成的超球體的半徑閾值。一般來(lái)說(shuō)threshold越小,則CF Tree的建立階段的規(guī)模會(huì)越大,即BIRCH算法第一階段所花的時(shí)間和內(nèi)存會(huì)越多。但是選擇多大以達(dá)到聚類效果則需要通過(guò)調(diào)參決定。默認(rèn)值是0.5.如果樣本的方差較大,則一般需要增大這個(gè)默認(rèn)值。

延伸閱讀

學(xué)習(xí)是年輕人改變自己的最好方式-Java培訓(xùn),做最負(fù)責(zé)任的教育,學(xué)習(xí)改變命運(yùn),軟件學(xué)習(xí),再就業(yè),大學(xué)生如何就業(yè),幫大學(xué)生找到好工作,lphotoshop培訓(xùn),電腦培訓(xùn),電腦維修培訓(xùn),移動(dòng)軟件開發(fā)培訓(xùn),網(wǎng)站設(shè)計(jì)培訓(xùn),網(wǎng)站建設(shè)培訓(xùn)學(xué)習(xí)是年輕人改變自己的最好方式