經(jīng)網(wǎng)絡(luò)模型之AlexNet的一些總結(jié)

說明: 這個屬于個人的一些理解,有錯誤的地方,還希望給予教育哈~

 

此處以caffe官方提供的AlexNet為例.

目錄:

1.背景

2.框架介紹

3.步驟詳細(xì)說明

5.參考文獻(xiàn)

 

背景:

AlexNet是在2012年被發(fā)表的一個金典之作,并在當(dāng)年取得了ImageNet最好成績,也是在那年之后,更多的更深的神經(jīng)網(wǎng)路被提出,比如優(yōu)秀的vgg,GoogleLeNet.

其官方提供的數(shù)據(jù)模型,準(zhǔn)確率達(dá)到57.1%,top 1-5 達(dá)到80.2%. 這項對于傳統(tǒng)的機器學(xué)習(xí)分類算法而言,已經(jīng)相當(dāng)?shù)某錾?

 

框架介紹:

AlexNet的結(jié)構(gòu)模型如下:

如上圖所示,上圖采用是兩臺GPU服務(wù)器,所有會看到兩個流程圖,我們這里以一臺CPU服務(wù)器為例做描述.該模型一共分為八層,5個卷基層,,以及3個全連接層,在每一個卷積層中包含了激勵函數(shù)RELU以及局部響應(yīng)歸一化(LRN)處理,然后在經(jīng)過降采樣(pool處理),下面我們來逐一的對每一層進(jìn)行分析下吧.

3. 詳細(xì)介紹:

1. 對于conv1層,如下

我想了解如何學(xué)習(xí)

姓名:
手機:
留言: