在深度神經(jīng)網(wǎng)絡(luò)(DNN)反向傳播算法(BP)中,我們對DNN的前向反向傳播算法的使用做了總結(jié)。里面使用的損失函數(shù)是均方差,而激活函數(shù)是Sigmoid。實際上DNN可以使用的損失函數(shù)和激活函數(shù)不少。這些損失函數(shù)和激活函數(shù)如何選擇呢?下面我們就對DNN損失函數(shù)和激活函數(shù)的選擇做一個總結(jié)。

1. 均方差損失函數(shù)+Sigmoid激活函數(shù)的問題

    在講反向傳播算法時,我們用均方差損失函數(shù)和Sigmoid激活函數(shù)做了實例,首先我們就來看看均方差+Sigmoid的組合有什么問題。

    首先我們回顧下Sigmoid激活函數(shù)的表達(dá)式為:

σ

延伸閱讀

學(xué)習(xí)是年輕人改變自己的最好方式-Java培訓(xùn),做最負(fù)責(zé)任的教育,學(xué)習(xí)改變命運,軟件學(xué)習(xí),再就業(yè),大學(xué)生如何就業(yè),幫大學(xué)生找到好工作,lphotoshop培訓(xùn),電腦培訓(xùn),電腦維修培訓(xùn),移動軟件開發(fā)培訓(xùn),網(wǎng)站設(shè)計培訓(xùn),網(wǎng)站建設(shè)培訓(xùn)學(xué)習(xí)是年輕人改變自己的最好方式