1. 對(duì)scikit-learn中LDA類概述
在scikit-learn中, LDA類是sklearn.discriminant_analysis.LinearDiscriminantAnalysis。那既可以用于分類又可以用于降維。當(dāng)然,應(yīng)用場(chǎng)景最多的還是降維。和PCA類似,LDA降維基本也不用調(diào)參,只需要指定降維到的維數(shù)即可。
2. LinearDiscriminantAnalysis類概述
我們這里對(duì)LinearDiscriminantAnalysis類的參數(shù)做一個(gè)基本的總結(jié)。
1)solver : 即求LDA超平面特征矩陣使用的方法??梢赃x擇的方法有奇異值分解"svd",最小二乘"lsqr"和特征分解"eigen"。一般來(lái)說(shuō)特征數(shù)非常多的時(shí)候推薦使用svd,而特征數(shù)不多的時(shí)候推薦使用eigen。主要注意的是,如果使用svd,則不能指定正則化參數(shù)shrinkage進(jìn)行正則化。默認(rèn)值是svd
2)shrinkage:正則化參數(shù),可以增強(qiáng)LDA分類的泛化能力。如果僅僅只是為了降維,則一般可以忽略這個(gè)參數(shù)。默認(rèn)是None,即不進(jìn)行正則化。可以選擇"auto",讓算法自己決定是否正則化。當(dāng)然我們也可以選擇不同的[0,1]之間的值進(jìn)行交叉驗(yàn)證調(diào)參。注意shrinkage只在solver為最小二乘"lsqr"和特征分解"eigen"時(shí)有效。
3)priors :類別權(quán)重,可以在做分類模型時(shí)指定不同類別的權(quán)重,進(jìn)而影響分類模型建立。降維時(shí)一般不需要關(guān)注這個(gè)參數(shù)。
4)
延伸閱讀
學(xué)習(xí)是年輕人改變自己的最好方式