国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

深度學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)研究概述

2020-05-18 02:44:46胡韜
科技視界 2020年9期
關(guān)鍵詞:池化層池化神經(jīng)元

胡韜

摘 要

卷積神經(jīng)網(wǎng)絡(luò)是深度學(xué)習(xí)算法中一個重要組成部分,在深度學(xué)習(xí)圖像識別技術(shù)的應(yīng)用中起到了關(guān)鍵作用,本文先闡述了卷積神經(jīng)網(wǎng)絡(luò)的基本概念和結(jié)構(gòu),然后介紹和對比了幾種經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò),并論述了發(fā)展方向。

關(guān)鍵詞

卷積神經(jīng)網(wǎng)絡(luò);輸入層;卷積層;全連接層;輸出層;AlexNet

中圖分類號: TP183 ? ? ? ? ? ? ? ? 文獻標(biāo)識碼: A

DOI:10.19694/j.cnki.issn2095-2457.2020.09.058

1 卷積神經(jīng)網(wǎng)絡(luò)的基本概念

卷積神經(jīng)網(wǎng)絡(luò)基于傳統(tǒng)的人工神經(jīng)網(wǎng)絡(luò),它類似于傳統(tǒng)的全連接神經(jīng)網(wǎng)絡(luò),但也有自己的不同之處,卷積神經(jīng)網(wǎng)絡(luò)把圖片轉(zhuǎn)換成二維矩陣格式的數(shù)據(jù),輸入數(shù)據(jù),網(wǎng)絡(luò)的各層都以二維矩陣的方式處理數(shù)據(jù),這樣的數(shù)據(jù)處理方式適用于二維矩陣格式的數(shù)字圖像,相較于傳統(tǒng)的人工神經(jīng)網(wǎng)絡(luò),它能更快更好地把特征值從圖像數(shù)據(jù)中提取出來。

2 卷積神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)

卷積神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)由以下幾個部分組成:輸入層(input),卷積層(convolution),池化層(pooling),全連接層(full-connection)和輸出層(output),如圖1所示。

2.1 輸入層

在輸入層中,主要進行輸入數(shù)據(jù)處理,有兩種常用的方法:去均值:把數(shù)據(jù)的各個維度均中心化為0。歸一化:調(diào)整輸入數(shù)據(jù)到相同的范圍之間,以避免數(shù)據(jù)之間的差距過大而造成的干擾。

2.2 卷積層

卷積層中對數(shù)據(jù)進行卷積運算,卷積運算的主要目的是增強原數(shù)據(jù)的特征信息,并減少噪音。卷積運算一共有三個步驟:

(1)求點積:如圖2,將5x5輸入矩陣中3x3深藍色區(qū)域中每個元素分別與其對應(yīng)位置的權(quán)值(紅色數(shù)字)相乘,然后再相加,所得到的值作為3x3輸出矩陣(綠色的)的第一個元素。

(2)滑動窗口:如圖3,將3x3權(quán)值矩陣向右移動一個格(即步長為1)。

(3)重復(fù)操作:同樣地,將此時深色區(qū)域內(nèi)每個元素分別與對應(yīng)的權(quán)值相乘然后再相加,所得到的值作為輸出矩陣的第二個元素;重復(fù)上述“求點積-滑動窗口”操作,直至得到輸出矩陣所有值。卷積核在2維輸入數(shù)據(jù)上“滑動”,對當(dāng)前輸入部分的元素進行矩陣乘法,然后將結(jié)果匯為單個輸出像素值,重復(fù)這個過程直到遍歷整張圖像,這個過程就叫作卷積,這個權(quán)值矩陣即卷積核,卷積操作后的圖像稱為特征圖。

2.3 池化層

在卷積層之后常常緊接著一個降采樣層,主要目的是減小矩陣的長和寬以及減少輸入矩陣的參數(shù)。計算圖像一個區(qū)域上的某個特定特征的平均值或最大值,這種聚合操作就叫作池化。常用的池化方法有兩種:

(1)均值池化:對池化區(qū)域內(nèi)的像素點取均值,這種方法常用于獲取背景信息,因為得到的特征數(shù)據(jù)對背景信息更敏感。

(2)最大池化: 如圖4,對池化區(qū)域內(nèi)所有像素點取最大值,這種方法常用于獲取紋理特征信息,因為得到的特征數(shù)據(jù)對紋理特征信息更加敏感。卷積層的作用是獲取上一層的局部特征,而池化的作用是合并相似的特征,目的是降維。

2.4 全連接層

類似于傳統(tǒng)的神經(jīng)網(wǎng)絡(luò),全連接層的作用是連接所有的神經(jīng)元,向下一層神經(jīng)元傳遞數(shù)據(jù),上一層的每個神經(jīng)元和下一層的神經(jīng)元都相互連接,因為用到了所有局部特征,所以叫全連接層。全連接層一般跟在所有的卷積層和池化層之后,在輸出層之前,對數(shù)據(jù)進行分類。

2.5 輸出層

輸出層一般在全連接層之后,輸出層通過全連接層的激活函數(shù)輸出各個圖像類別的概率。

2.6 激活函數(shù)

激活函數(shù)的作用是選擇性地對神經(jīng)元節(jié)點進行特征增強或減弱,增強激活有用的目標(biāo)特征,減弱無用的特征,從而可以解決非線性問題。常見的激活函數(shù)有Sigmoid函數(shù)、Tanh函數(shù)、ReLu函數(shù)和Softmax函數(shù)等。Sigmoid函數(shù)在傳統(tǒng)的全連接神經(jīng)網(wǎng)絡(luò)中用得較多,ReLu函數(shù)和Softmax函數(shù)在卷積神經(jīng)網(wǎng)絡(luò)中常用。Sigmoid函數(shù)的數(shù)學(xué)模型如下:

3 經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)模型

在卷積神經(jīng)網(wǎng)絡(luò)發(fā)展的歷程中,有不少經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)模型有著突出的表現(xiàn),有的在卷積神經(jīng)網(wǎng)絡(luò)的發(fā)展歷程中有重要意義。

AlexNet是一個經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)模型,它采用了兩種方法了避免過擬合,第一種方法是Dropout,即以一定的概率(比如0.6)將神經(jīng)元的輸出設(shè)置為0,每一個樣本嘗試了一種新的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),每種神經(jīng)網(wǎng)絡(luò)的權(quán)重共享,降低了神經(jīng)元復(fù)雜相互依賴的關(guān)系。但AlexNet也有缺點,其收斂所需要的迭代次數(shù)增加了一倍左右。第二種方法是數(shù)據(jù)增強,即對樣本圖像進行縮放、隨機裁剪、水平翻轉(zhuǎn)、上下翻轉(zhuǎn)改變對比度和白化處理等。

在AlexNet之后,隨后又出現(xiàn)了多種卷積神經(jīng)網(wǎng)絡(luò)模型,其中有VGGNet,GoogleNet模型等。VGGNet是加深版本的AlexNet,VGGNet有VGG16和VGG19兩種,分別是16層和19層的卷積神經(jīng)網(wǎng)絡(luò)模型。而GoogleNet的深度比VGGNet更深,達到了22層,同時在網(wǎng)絡(luò)不同深度增加了損失函數(shù)來避免反向傳播梯度消失,GoogLeNet的一大重要的特點就是使用了Inception模塊,在Inception 出現(xiàn)之前,大部分流行卷積神經(jīng)網(wǎng)絡(luò)僅僅是不斷增加卷積層和池化層,使網(wǎng)絡(luò)越來越深,以此希望能夠得到更好的性能,而Inception模塊在3x3卷積層和5x5卷積層之外還增加了1x1卷積層,1x1卷積層起到了降維的作用,同時使得網(wǎng)絡(luò)的寬度和深度都擴大了。這些模型呈現(xiàn)的趨勢是網(wǎng)絡(luò)的深度和寬度不斷擴大,并且模型準(zhǔn)確率也越來越高,收斂所需要的時間也越來越短。

4 結(jié)語

本文從三個不同方面綜述了卷積神經(jīng)網(wǎng)絡(luò),分別為:卷積神經(jīng)網(wǎng)絡(luò)的基本概念、卷積神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)和經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)。卷積神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)主要包含以下幾個部分:輸入層、卷積層、池化層、全連接層、輸出層和激活函數(shù),本文詳細闡述了每個部分的原理和功能。最后介紹了一些經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò),對比了它們之間的優(yōu)缺點并闡述了每種網(wǎng)絡(luò)的特點以及重要意義。

參考文獻

[1]田啟川,王滿麗.深度學(xué)習(xí)算法研究進展[J].計算機工程與應(yīng)用.2016.4.

[2]張亞倩.卷積神經(jīng)網(wǎng)絡(luò)研究綜述[J].信息通信.2018.11.

[3]黃友文,萬超倫.基于深度學(xué)習(xí)的人體行為識別算法[J].人工智能.2018.10.

[4]俞頌華.卷積神經(jīng)網(wǎng)絡(luò)的發(fā)展和應(yīng)用綜述[J].信息通信.2019.2.

[5]Simonyan K,Zisserman A.Very deep convolutional networks for large-scale image recognition[J].arXiv preprint arXiv:1409.1556,2014.

[6]Zhang Pengfei,Lan Cuiling,Xing Junliang.View Adaptive Neural Networks for High Performance Skeleton-Based Human Action Recognition[C].IEEE.2019.

猜你喜歡
池化層池化神經(jīng)元
基于緊湊型雙線性網(wǎng)絡(luò)的野生茵識別方法研究
無線電工程(2024年8期)2024-09-16 00:00:00
基于Sobel算子的池化算法設(shè)計
卷積神經(jīng)網(wǎng)絡(luò)中的自適應(yīng)加權(quán)池化
《從光子到神經(jīng)元》書評
自然雜志(2021年6期)2021-12-23 08:24:46
卷積神經(jīng)網(wǎng)絡(luò)模型研究分析*
基于卷積神經(jīng)網(wǎng)絡(luò)的紙幣分類與點鈔
基于深度學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)的人體行為識別研究
科技傳播(2020年6期)2020-05-25 11:07:46
基于卷積神經(jīng)網(wǎng)絡(luò)和池化算法的表情識別研究
基于全卷積神經(jīng)網(wǎng)絡(luò)的SAR圖像目標(biāo)分類*
躍動的神經(jīng)元——波蘭Brain Embassy聯(lián)合辦公
大渡口区| 泾阳县| 南川市| 新乡县| 长泰县| 宣城市| 长岭县| 双城市| 忻城县| 宿松县| 靖远县| 枣庄市| 吉木萨尔县| 平安县| 西乌珠穆沁旗| 柞水县| 白朗县| 石林| 伊川县| 温州市| 额济纳旗| 北京市| 东乡族自治县| 正宁县| 湘乡市| 宜昌市| 安丘市| 肇源县| 沙坪坝区| 偏关县| 嘉鱼县| 镇原县| 榆社县| 德兴市| 武清区| 平阳县| 寿宁县| 扬州市| 饶河县| 温泉县| 平利县|