前言:
接著上一篇文章提到的RCNN網(wǎng)絡物體檢測,這個網(wǎng)絡成功的引入了CNN卷積網(wǎng)絡來進行特征提取,但是存在一個問題,就是對需要進行特征提取圖片大小有嚴格的限制。當時面對這種問題,rg大神采用的是對分割出的2000多個候選區(qū)域,進行切割或者縮放形變處理到固定大小,這樣雖然滿足了CNN對圖片大小的要求,確造成圖片的信息缺失或者變形,會降低圖片識別的正確率. 如下圖所示:
正文:
何凱明大神在看到RCNN模型,分析了CNN模型的特點后:由卷積部分和全連接兩部分構成,而對于卷積部分而言,比如任意圖片大小(w,h),任意的卷積核size(a,b),默認步長為1,我們都會得到卷積之后的特征圖F(w-a+1,h-b+1),所以這部分對圖片大小沒有要求,有要求的地方在全連接層(如下圖),全連接層的神經(jīng)元設定之后是固定的(如圖 Input layer 神經(jīng)元個數(shù)),而每一個都對應者一個特征,rg大神在進入CNN前對圖片進行warp處理,就是為了卷積之后的特征數(shù),能夠和了全連接層的神經(jīng)元個數(shù)相等.
但是何大神覺得,事情還可以更有趣,他提出將特征數(shù)據(jù)(特征圖)進一步處理,然后拼湊成和神經(jīng)元個數(shù)相同的特征數(shù),這樣就可以不用warp圖片大小也可以獲得相同數(shù)量的特征,那么他是咋樣處理這特征圖的呢?