經(jīng)網(wǎng)絡(luò)模型之AlexNet的一些總結(jié)
說明: 這個(gè)屬于個(gè)人的一些理解,有錯(cuò)誤的地方,還希望給予教育哈~
此處以caffe官方提供的AlexNet為例.
目錄:
1.背景
2.框架介紹
3.步驟詳細(xì)說明
5.參考文獻(xiàn)
背景:
AlexNet是在2012年被發(fā)表的一個(gè)金典之作,并在當(dāng)年取得了ImageNet最好成績(jī),也是在那年之后,更多的更深的神經(jīng)網(wǎng)路被提出,比如優(yōu)秀的vgg,GoogleLeNet.
其官方提供的數(shù)據(jù)模型,準(zhǔn)確率達(dá)到57.1%,top 1-5 達(dá)到80.2%. 這項(xiàng)對(duì)于傳統(tǒng)的機(jī)器學(xué)習(xí)分類算法而言,已經(jīng)相當(dāng)?shù)某錾?
框架介紹:
AlexNet的結(jié)構(gòu)模型如下:
如上圖所示,上圖采用是兩臺(tái)GPU服務(wù)器,所有會(huì)看到兩個(gè)流程圖,我們這里以一臺(tái)CPU服務(wù)器為例做描述.該模型一共分為八層,5個(gè)卷基層,,以及3個(gè)全連接層,在每一個(gè)卷積層中包含了激勵(lì)函數(shù)RELU以及局部響應(yīng)歸一化(LRN)處理,然后在經(jīng)過降采樣(pool處理),下面我們來逐一的對(duì)每一層進(jìn)行分析下吧.
3. 詳細(xì)介紹:
1. 對(duì)于conv1層,如下
layer { name: "conv1