經(jīng)網(wǎng)絡(luò)模型之AlexNet的一些總結(jié)

說明: 這個(gè)屬于個(gè)人的一些理解,有錯(cuò)誤的地方,還希望給予教育哈~

 

此處以caffe官方提供的AlexNet為例.

目錄:

1.背景

2.框架介紹

3.步驟詳細(xì)說明

5.參考文獻(xiàn)

 

背景:

AlexNet是在2012年被發(fā)表的一個(gè)金典之作,并在當(dāng)年取得了ImageNet最好成績(jī),也是在那年之后,更多的更深的神經(jīng)網(wǎng)路被提出,比如優(yōu)秀的vgg,GoogleLeNet.

其官方提供的數(shù)據(jù)模型,準(zhǔn)確率達(dá)到57.1%,top 1-5 達(dá)到80.2%. 這項(xiàng)對(duì)于傳統(tǒng)的機(jī)器學(xué)習(xí)分類算法而言,已經(jīng)相當(dāng)?shù)某錾?

 

框架介紹:

AlexNet的結(jié)構(gòu)模型如下:

如上圖所示,上圖采用是兩臺(tái)GPU服務(wù)器,所有會(huì)看到兩個(gè)流程圖,我們這里以一臺(tái)CPU服務(wù)器為例做描述.該模型一共分為八層,5個(gè)卷基層,,以及3個(gè)全連接層,在每一個(gè)卷積層中包含了激勵(lì)函數(shù)RELU以及局部響應(yīng)歸一化(LRN)處理,然后在經(jīng)過降采樣(pool處理),下面我們來逐一的對(duì)每一層進(jìn)行分析下吧.

3. 詳細(xì)介紹:

1. 對(duì)于conv1層,如下

復(fù)制代碼
layer {
  name: "conv1
        		

網(wǎng)友評(píng)論