1. 對(duì)scikit-learn中LDA類概述

    在scikit-learn中, LDA類是sklearn.discriminant_analysis.LinearDiscriminantAnalysis。那既可以用于分類又可以用于降維。當(dāng)然,應(yīng)用場(chǎng)景最多的還是降維。和PCA類似,LDA降維基本也不用調(diào)參,只需要指定降維到的維數(shù)即可。

2. LinearDiscriminantAnalysis類概述

    我們這里對(duì)LinearDiscriminantAnalysis類的參數(shù)做一個(gè)基本的總結(jié)。

    1)solver : 即求LDA超平面特征矩陣使用的方法??梢赃x擇的方法有奇異值分解"svd",最小二乘"lsqr"和特征分解"eigen"。一般來(lái)說(shuō)特征數(shù)非常多的時(shí)候推薦使用svd,而特征數(shù)不多的時(shí)候推薦使用eigen。主要注意的是,如果使用svd,則不能指定正則化參數(shù)shrinkage進(jìn)行正則化。默認(rèn)值是svd

    2)shrinkage:正則化參數(shù),可以增強(qiáng)LDA分類的泛化能力。如果僅僅只是為了降維,則一般可以忽略這個(gè)參數(shù)。默認(rèn)是None,即不進(jìn)行正則化。可以選擇"auto",讓算法自己決定是否正則化。當(dāng)然我們也可以選擇不同的[0,1]之間的值進(jìn)行交叉驗(yàn)證調(diào)參。注意shrinkage只在solver為最小二乘"lsqr"和特征分解"eigen"時(shí)有效。

    3)priors :類別權(quán)重,可以在做分類模型時(shí)指定不同類別的權(quán)重,進(jìn)而影響分類模型建立。降維時(shí)一般不需要關(guān)注這個(gè)參數(shù)。

    4)

延伸閱讀

學(xué)習(xí)是年輕人改變自己的最好方式-Java培訓(xùn),做最負(fù)責(zé)任的教育,學(xué)習(xí)改變命運(yùn),軟件學(xué)習(xí),再就業(yè),大學(xué)生如何就業(yè),幫大學(xué)生找到好工作,lphotoshop培訓(xùn),電腦培訓(xùn),電腦維修培訓(xùn),移動(dòng)軟件開(kāi)發(fā)培訓(xùn),網(wǎng)站設(shè)計(jì)培訓(xùn),網(wǎng)站建設(shè)培訓(xùn)學(xué)習(xí)是年輕人改變自己的最好方式