人工神經(jīng)網(wǎng)絡(luò)(ANN)是一個(gè)高效的計(jì)算系統(tǒng),其核心主題是從生物神經(jīng)網(wǎng)絡(luò)的類比中借鑒的。 神經(jīng)網(wǎng)絡(luò)是機(jī)器學(xué)習(xí)的一種模型。 在二十世紀(jì)八十年代中期和九十年代初期,神經(jīng)網(wǎng)絡(luò)中有很多重要的架構(gòu)改進(jìn)。 在本章中,您將學(xué)習(xí)更多關(guān)于深度學(xué)習(xí)的知識(shí),這是AI的一種方法。
深度學(xué)習(xí)是作為該領(lǐng)域的一個(gè)重要競(jìng)爭(zhēng)者,從十年來爆炸性的計(jì)算增長中浮現(xiàn)出來的。 因此,深度學(xué)習(xí)是一種特殊的機(jī)器學(xué)習(xí),其算法受人腦結(jié)構(gòu)和功能的啟發(fā)。
深度學(xué)習(xí)是目前最強(qiáng)大的機(jī)器學(xué)習(xí)技術(shù)。 這是非常強(qiáng)大的,因?yàn)樗麄儗W(xué)習(xí)如何解決問題的同時(shí)代表問題的最佳方式。下面給出了深度學(xué)習(xí)和機(jī)器學(xué)習(xí)的比較 -
數(shù)據(jù)依賴性
第一點(diǎn)不同是基于DL和ML在數(shù)據(jù)規(guī)模增加時(shí)的性能。當(dāng)數(shù)據(jù)量很大時(shí),深度學(xué)習(xí)算法表現(xiàn)非常好。
機(jī)器依賴性
深度學(xué)習(xí)算法需要高端機(jī)器才能完美運(yùn)行。 另一方面,機(jī)器學(xué)習(xí)算法也可以用于低端機(jī)器。
特征提取
深度學(xué)習(xí)算法可以提取高級(jí)功能,并嘗試從相同的方面學(xué)習(xí)。 另一方面,專家需要識(shí)別機(jī)器學(xué)習(xí)提取的大部分特征。
執(zhí)行時(shí)間
執(zhí)行時(shí)間取決于算法中使用的眾多參數(shù)。 深度學(xué)習(xí)比機(jī)器學(xué)習(xí)算法具有更多參數(shù)。 因此,DL算法的執(zhí)行時(shí)間,特別是訓(xùn)練時(shí)間,遠(yuǎn)遠(yuǎn)超過ML算法。 但是DL算法的測(cè)試時(shí)間少于ML算法。
解決問題的方法
深度學(xué)習(xí)解決了端到端的問題,而機(jī)器學(xué)習(xí)使用傳統(tǒng)的解決問題的方法,即將問題分解成多個(gè)部分。
卷積神經(jīng)網(wǎng)絡(luò)與普通神經(jīng)網(wǎng)絡(luò)相同,因?yàn)樗鼈円灿删哂锌蓪W(xué)習(xí)的權(quán)重和偏差的神經(jīng)元組成。 普通的神經(jīng)網(wǎng)絡(luò)忽略了輸入數(shù)據(jù)的結(jié)構(gòu),所有的數(shù)據(jù)在送入網(wǎng)絡(luò)之前都被轉(zhuǎn)換為一維數(shù)組。 該過程適合常規(guī)數(shù)據(jù),但是如果數(shù)據(jù)包含圖像,則該過程可能很麻煩。
CNN很容易解決這個(gè)問題。 它在處理圖像時(shí)考慮了圖像的二維結(jié)構(gòu),這使得它們可以提取特定于圖像的屬性。 這樣,CNN的主要目標(biāo)就是從輸入層中的原始圖像數(shù)據(jù)到輸出層中的正確類。 普通神經(jīng)網(wǎng)絡(luò)和CNN之間唯一的區(qū)別在于處理輸入數(shù)據(jù)和圖層類型。
CNN的體系結(jié)構(gòu)概述
在架構(gòu)上,普通的神經(jīng)網(wǎng)絡(luò)接收輸入并通過一系列隱藏層轉(zhuǎn)換它。 在神經(jīng)元的幫助下,每層都連接到另一層。 普通神經(jīng)網(wǎng)絡(luò)的主要缺點(diǎn)是它們不能很好地?cái)U(kuò)展到完整的圖像。
CNN的體系結(jié)構(gòu)具有三維排列的神經(jīng)元,稱為寬度,高度和深度。 當(dāng)前圖層中的每個(gè)神經(jīng)元都連接到前一圖層的一小部分輸出。 它類似于在輸入圖像上疊加一個(gè)`