国产精品电影_久久视频免费_欧美日韩国产激情_成年人视频免费在线播放_日本久久亚洲电影_久久都是精品_66av99_九色精品美女在线_蜜臀a∨国产成人精品_冲田杏梨av在线_欧美精品在线一区二区三区_麻豆mv在线看

神經(jīng)網(wǎng)絡(luò)如何學(xué)習(xí)的?

人工智能 深度學(xué)習(xí)
毫無疑問,神經(jīng)網(wǎng)絡(luò)是目前使用的最流行的機(jī)器學(xué)習(xí)技術(shù)。所以我認(rèn)為了解神經(jīng)網(wǎng)絡(luò)如何學(xué)習(xí)是一件非常有意義的事。

像下山一樣,找到損失函數(shù)的最低點(diǎn)。

 

[[336501]]

毫無疑問,神經(jīng)網(wǎng)絡(luò)是目前使用的最流行的機(jī)器學(xué)習(xí)技術(shù)。所以我認(rèn)為了解神經(jīng)網(wǎng)絡(luò)如何學(xué)習(xí)是一件非常有意義的事。

為了能夠理解神經(jīng)網(wǎng)絡(luò)是如何進(jìn)行學(xué)習(xí)的,讓我們先看看下面的圖片:

 

神經(jīng)網(wǎng)絡(luò)如何學(xué)習(xí)的?

如果我們把每一層的輸入和輸出值表示為向量,把權(quán)重表示為矩陣,把誤差表示為向量,那么我們就得到了上述的一個(gè)神經(jīng)網(wǎng)絡(luò)的視圖,它只是一系列向量函數(shù)的應(yīng)用。也就是說,函數(shù)將向量作為輸入,對(duì)它們進(jìn)行一些轉(zhuǎn)換,然后把變換后的向量輸出。在上圖中,每條線代表一個(gè)函數(shù),它可以是一個(gè)矩陣乘法加上一個(gè)誤差向量,也可以是一個(gè)激活函數(shù)。這些圓表示這些函數(shù)作用的向量。

例如,我們從輸入向量開始,然后將其輸入到第一個(gè)函數(shù)中,該函數(shù)用來計(jì)算其各分量的線性組合,然后我們將獲得的向量作為輸出。然后把這個(gè)向量作為激活函數(shù)的輸入,如此類推,直到我們到達(dá)序列中的最后一個(gè)函數(shù)。最后一個(gè)函數(shù)的輸出就是神經(jīng)網(wǎng)絡(luò)的預(yù)測(cè)值。

到目前為止,我們已經(jīng)討論過神經(jīng)網(wǎng)絡(luò)是如何得到輸出的,這正是我們感興趣的內(nèi)容。我們知道神經(jīng)網(wǎng)絡(luò)只是將它的輸入向量傳遞給一系列函數(shù)。但是這些函數(shù)要依賴于一些參數(shù):權(quán)重和誤差。

神經(jīng)網(wǎng)絡(luò)如何通過學(xué)習(xí)得到這些參數(shù)來獲得好的預(yù)測(cè)呢?

讓我們回想一下神經(jīng)網(wǎng)絡(luò)實(shí)際上是什么:實(shí)際上它只是一個(gè)函數(shù),是由一個(gè)個(gè)小函數(shù)按順序排列組成的大函數(shù)。這個(gè)函數(shù)有一組參數(shù),在一開始,我們并不知道這些參數(shù)應(yīng)該是什么,我們僅僅是隨機(jī)初始化它們。因此在一開始神經(jīng)網(wǎng)絡(luò)會(huì)給我們一些隨機(jī)的值。那么我們?nèi)绾胃倪M(jìn)他們呢?在嘗試改進(jìn)它們之前,我們首先需要一種評(píng)估神經(jīng)網(wǎng)絡(luò)性能的方法。如果我們沒有辦法衡量模型的好壞,那么我們應(yīng)該如何改進(jìn)模型的性能?

為此,我們需要設(shè)計(jì)一個(gè)函數(shù),這個(gè)函數(shù)將神經(jīng)網(wǎng)絡(luò)的預(yù)測(cè)值和數(shù)據(jù)集中的真實(shí)標(biāo)簽作為輸入,將一個(gè)代表神經(jīng)網(wǎng)絡(luò)性能的數(shù)字作為輸出。然后我們就可以將學(xué)習(xí)問題轉(zhuǎn)化為求函數(shù)的最小值或最大值的優(yōu)化問題。在機(jī)器學(xué)習(xí)領(lǐng)域,這個(gè)函數(shù)通常是用來衡量我們的預(yù)測(cè)有多糟糕,因此被稱為損失函數(shù)。我們的問題就變成了找到使這個(gè)損失函數(shù)最小化的神經(jīng)網(wǎng)絡(luò)參數(shù)。

隨機(jī)梯度下降算法

你可能很擅長(zhǎng)從微積分中求函數(shù)的最小值。對(duì)于這種問題,通常取函數(shù)的梯度,令其等于0,求出所有的解(也稱為臨界點(diǎn)),然后從中選擇使函數(shù)值最小的那一個(gè)。這就是全局最小值。我們能做同樣的事情來最小化我們的損失函數(shù)嗎?事實(shí)上是行不通的,主要的問題是神經(jīng)網(wǎng)絡(luò)的損失函數(shù)并不像微積分課本中常見的那樣簡(jiǎn)潔明了。它是一個(gè)極其復(fù)雜的函數(shù),有數(shù)千個(gè)、幾十萬(wàn)個(gè)甚至數(shù)百萬(wàn)個(gè)參數(shù)。有時(shí)甚至不可能找到一個(gè)解決問題的收斂解。這個(gè)問題通常是通過迭代的方法來解決的,這些方法并不試圖找到一個(gè)直接的解,而是從一個(gè)隨機(jī)的解開始,并在每次迭代中嘗試改進(jìn)一點(diǎn)。最終,經(jīng)過大量的迭代,我們將得到一個(gè)相當(dāng)好的解決方案。

其中一種迭代方法是梯度下降法。你可能知道,一個(gè)函數(shù)的梯度給出了最陡的上升方向,如果我們?nèi)√荻鹊呢?fù)值,它會(huì)給我們最陡下降的方向,也就是我們可以在這個(gè)方向上最快地達(dá)到最小值。因此,在每一次迭代(也可以將其稱作一次訓(xùn)練輪次)時(shí),我們計(jì)算損失函數(shù)的梯度,并從舊參數(shù)中減去它(乘以一個(gè)稱為學(xué)習(xí)率的因子)以得到神經(jīng)網(wǎng)絡(luò)的新參數(shù)。

 

神經(jīng)網(wǎng)絡(luò)如何學(xué)習(xí)的?

其中θ(theta)表示包含神經(jīng)網(wǎng)絡(luò)所有參數(shù)的向量。

在標(biāo)準(zhǔn)梯度下降法中,梯度是將整個(gè)數(shù)據(jù)集考慮進(jìn)來并進(jìn)行計(jì)算的。通常這是不可取的,因?yàn)樵撚?jì)算可能是昂貴的。在實(shí)踐中,數(shù)據(jù)集被隨機(jī)分成多個(gè)塊,這些塊被稱為批。對(duì)每個(gè)批進(jìn)行更新。這種方法就叫做隨機(jī)梯度下降。

上面的更新規(guī)則在每一步只考慮在當(dāng)前位置計(jì)算的梯度。這樣,在損失函數(shù)曲面上運(yùn)動(dòng)的點(diǎn)的軌跡對(duì)任何變動(dòng)都很敏感。有時(shí)我們可能想讓這條軌跡更穩(wěn)健。為此,我們使用了一個(gè)受物理學(xué)啟發(fā)的概念:動(dòng)量。我們的想法是,當(dāng)我們進(jìn)行更新時(shí),也考慮到以前的更新,這會(huì)累積成一個(gè)變量Δθ。如果在同一個(gè)方向上進(jìn)行更多的更新,那么我們將"更快"地朝這個(gè)方向前進(jìn),并且不會(huì)因?yàn)槿魏涡〉臄_動(dòng)而改變我們的軌跡。把它想象成速度。

 

神經(jīng)網(wǎng)絡(luò)如何學(xué)習(xí)的?

其中α是非負(fù)因子,它可以決定舊梯度到底可以貢獻(xiàn)多少值。當(dāng)它為0時(shí),我們不使用動(dòng)量。

反向傳播算法

我們?nèi)绾斡?jì)算梯度呢?回想一下神經(jīng)網(wǎng)絡(luò)和損失函數(shù),它們只是一個(gè)函數(shù)的組合。那么如何計(jì)算復(fù)合函數(shù)的偏導(dǎo)數(shù)呢?我們可以使用鏈?zhǔn)椒▌t。讓我們看看下面的圖片:

 

神經(jīng)網(wǎng)絡(luò)如何學(xué)習(xí)的?

如果我們要計(jì)算損失函數(shù)對(duì)第一層權(quán)重參數(shù)的偏導(dǎo)數(shù):我們首先讓第一個(gè)線性表達(dá)式對(duì)權(quán)重參數(shù)求偏導(dǎo),然后用這個(gè)結(jié)果乘上下一個(gè)函數(shù)(也就是激活函數(shù))關(guān)于它前面函數(shù)輸出內(nèi)容的偏導(dǎo)數(shù),一直執(zhí)行這個(gè)操作,直到我們乘上損失函數(shù)關(guān)于最后一個(gè)激活函數(shù)的偏導(dǎo)數(shù)。那如果我們想要計(jì)算對(duì)第二層的權(quán)重參數(shù)求的導(dǎo)數(shù)呢?我們必須做同樣的過程,但是這次我們從第二個(gè)線性組合函數(shù)對(duì)權(quán)重參數(shù)求導(dǎo)數(shù)開始,然后,我們要乘的其他項(xiàng)在計(jì)算第一層權(quán)重的導(dǎo)數(shù)時(shí)也出現(xiàn)了。所以,與其一遍又一遍地計(jì)算這些術(shù)語(yǔ),我們將從后向前計(jì)算,因此得名為反向傳播算法。

我們將首先計(jì)算出損失函數(shù)關(guān)于神經(jīng)網(wǎng)絡(luò)輸出層的偏導(dǎo)數(shù),然后通過保持導(dǎo)數(shù)的運(yùn)行乘積將這些導(dǎo)數(shù)反向傳播到第一層。需要注意的是,我們有兩種導(dǎo)數(shù):一種是函數(shù)關(guān)于它輸入內(nèi)容的導(dǎo)數(shù)。我們把它們乘以導(dǎo)數(shù)的乘積,目的是跟蹤神經(jīng)網(wǎng)絡(luò)從輸出層到當(dāng)前層神經(jīng)元節(jié)點(diǎn)的誤差。第二類導(dǎo)數(shù)是關(guān)于參數(shù)的,這類導(dǎo)數(shù)是我們用來優(yōu)化參數(shù)的。我們不把它與其它導(dǎo)數(shù)的乘積相乘,相反,我們將它們存儲(chǔ)為梯度的一部分,稍后我們將使用它來更新參數(shù)。

所以,在反向傳播時(shí),當(dāng)我們遇到?jīng)]有可學(xué)習(xí)參數(shù)的函數(shù)時(shí)(比如激活函數(shù)),我們只取第一種的導(dǎo)數(shù),只是為了反向傳播誤差。但是,當(dāng)我們遇到的函數(shù)有可學(xué)的參數(shù)(如線性組合,有權(quán)重和偏差),那么我們?nèi)∵@兩種導(dǎo)數(shù):第一種是用誤差傳播的輸入,第二種是加權(quán)和偏差,并將它們作為梯度的一部分來存儲(chǔ)。整個(gè)過程,我們從損失函數(shù)開始,直到我們到達(dá)第一層,在這一層我們沒有任何想要添加到梯度中的可學(xué)習(xí)參數(shù)。這就是反向傳播算法。

Softmax激活和交叉熵?fù)p失函數(shù)

分類任務(wù)中,最后一層常用的激活函數(shù)是softmax函數(shù)。

 

神經(jīng)網(wǎng)絡(luò)如何學(xué)習(xí)的?

softmax函數(shù)將其輸入向量轉(zhuǎn)換為概率分布。從上圖中可以看到softmax的輸出的向量元素都是正的,它們的和是1。當(dāng)我們使用softmax激活時(shí),我們?cè)谏窠?jīng)網(wǎng)絡(luò)最后一層創(chuàng)建與數(shù)據(jù)集中類數(shù)量相等的節(jié)點(diǎn),并且softmax激活函數(shù)將給出在可能的類上的概率分布。因此,神經(jīng)網(wǎng)絡(luò)的輸出將會(huì)把輸入向量屬于每一個(gè)可能類的概率輸出給我們,我們選擇概率最高的類作為神經(jīng)網(wǎng)絡(luò)的預(yù)測(cè)。

當(dāng)把softmax函數(shù)作為輸出層的激活函數(shù)時(shí),通常使用交叉熵?fù)p失作為損失函數(shù)。交叉熵?fù)p失衡量?jī)蓚€(gè)概率分布的相似程度。我們可以將輸入值x的真實(shí)標(biāo)簽表示為一個(gè)概率分布:其中真實(shí)類標(biāo)簽的概率為1,其他類標(biāo)簽的概率為0。標(biāo)簽的這種表示也被稱為一個(gè)熱編碼。然后我們用交叉熵來衡量網(wǎng)絡(luò)的預(yù)測(cè)概率分布與真實(shí)概率分布的接近程度。

 

神經(jīng)網(wǎng)絡(luò)如何學(xué)習(xí)的?

其中y是真標(biāo)簽的一個(gè)熱編碼,y hat是預(yù)測(cè)的概率分布,yi,yi hat是這些向量的元素。

如果預(yù)測(cè)的概率分布接近真實(shí)標(biāo)簽的一個(gè)熱編碼,那么損失函數(shù)的值將接近于0。否則如果它們相差很大,損失函數(shù)的值可能會(huì)無限大。

均方誤差損失函數(shù)

softmax激活和交叉熵?fù)p失主要用于分類任務(wù),而神經(jīng)網(wǎng)絡(luò)只需在最后一層使用適當(dāng)?shù)膿p失函數(shù)和激活函數(shù)就可以很容易地適應(yīng)回歸任務(wù)。例如,如果我們沒有類標(biāo)簽作為依據(jù),我們有一個(gè)我們想要近似的數(shù)字列表,我們可以使用均方誤差(簡(jiǎn)稱MSE)損失函數(shù)。通常,當(dāng)我們使用MSE損失函數(shù)時(shí),我們?cè)谧詈笠粚邮褂蒙矸菁せ?即f(x)=x)。

 

神經(jīng)網(wǎng)絡(luò)如何學(xué)習(xí)的?

綜上所述,神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)過程只不過是一個(gè)優(yōu)化問題:我們要找到使損失函數(shù)最小化的參數(shù)。但這不是一件容易的事,有很多關(guān)于優(yōu)化技術(shù)的書。而且,除了優(yōu)化之外,對(duì)于給定的任務(wù)選擇哪種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)也會(huì)出現(xiàn)問題。

我希望這篇文章對(duì)你有幫助,并十分感謝你的閱讀。

 

責(zé)任編輯:未麗燕 來源: 今日頭條
相關(guān)推薦

2018-03-22 13:34:59

TensorFlow神經(jīng)網(wǎng)絡(luò)

2023-04-19 10:17:35

機(jī)器學(xué)習(xí)深度學(xué)習(xí)

2021-03-29 09:02:24

深度學(xué)習(xí)預(yù)測(cè)間隔

2018-07-03 16:10:04

神經(jīng)網(wǎng)絡(luò)生物神經(jīng)網(wǎng)絡(luò)人工神經(jīng)網(wǎng)絡(luò)

2016-12-27 14:24:57

課程筆記神經(jīng)網(wǎng)絡(luò)

2025-02-25 14:13:31

2017-07-27 10:46:44

神經(jīng)網(wǎng)絡(luò)機(jī)器學(xué)習(xí)強(qiáng)化學(xué)習(xí)

2017-04-26 08:31:10

神經(jīng)網(wǎng)絡(luò)自然語(yǔ)言PyTorch

2023-05-12 14:58:50

Java神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)

2018-04-08 11:20:43

深度學(xué)習(xí)

2018-10-18 10:27:15

機(jī)器學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)python

2022-02-15 23:38:22

Python機(jī)器學(xué)習(xí)算法

2024-08-22 08:21:10

算法神經(jīng)網(wǎng)絡(luò)參數(shù)

2025-02-24 08:00:00

機(jī)器學(xué)習(xí)ML架構(gòu)

2018-08-13 09:00:00

人工智能機(jī)器學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

2023-06-18 23:00:39

神經(jīng)網(wǎng)絡(luò)損失函數(shù)隨機(jī)變量

2025-09-16 07:04:00

2019-06-06 09:00:02

卷積神經(jīng)網(wǎng)絡(luò)CNNAI

2023-02-28 08:00:00

深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)人工智能

2017-09-10 07:07:32

神經(jīng)網(wǎng)絡(luò)數(shù)據(jù)集可視化
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)

亚洲福利在线视频| 亚洲国产sm捆绑调教视频| 成人久久网站| 免费黄色在线网站| 热久久天天拍国产| 国产精品久久精品日日| 久久精品国产亚洲| 成年女人18级毛片毛片免费| 卡通欧美亚洲| 国产不卡免费视频| 亚洲欧美国产精品专区久久 | 久久伊人精品一区二区三区| 91免费视频黄| 98精品视频| 久久久久国产精品嫩草影院| 欧美调教视频| 国产最新免费视频| 成年人在线免费观看| heyzo久久| 国产精品视频在线看| 欧美精品久久久久| 亚洲成人av免费看| 亚洲国产中文在线二区三区免| 成人亚洲一区二区一| www.久久久久久.com| 国产美女无遮挡网站| 久久久精品五月天| 欧美精品一区二区三区蜜桃视频| 欧美动漫一区二区| 国产无遮挡裸体视频在线观看| 久久精品国产一区二区三| 精品国产免费久久| 你懂的好爽在线观看| 国内精品久久久久久久97牛牛| 91久久精品一区二区三区| 国产在线精品一区二区中文| 欧美jizz18hd性欧美| 天天影视色香欲综合网老头| 精品一区久久久久久| av免费在线观看网址| 国产精品原创巨作av| 欧美成aaa人片免费看| 最新中文字幕av专区| 影音先锋一区| 91麻豆精品国产无毒不卡在线观看| 亚洲国产精品www| 91精品福利观看| 一区二区三区在线免费观看| 精品无人区一区二区三区竹菊| 婷婷激情综合| 欧美精品一区在线观看| 黄色网页在线看| www亚洲一区| 国产精品一区二区性色av| 在线免费黄色| 久久伊人中文字幕| 国产在线观看精品| 免费在线中文字幕| 国产精品伦一区| 九九热精品在线播放| 欧美国产91| 中文字幕亚洲欧美日韩高清| 含羞草激情视频| 男女视频一区二区| 青青草成人在线| 国产网友自拍视频导航网站在线观看| 91九色02白丝porn| 秋霞在线视频| 在线精品高清中文字幕| videoxxxx另类日本极品| 欧美日韩中文字幕| www.18av.com| 91亚洲人成网污www| 91在线短视频| 国产视频一区二| 日韩欧美123| 最近中文字幕mv免费高清在线| 国产一区二区调教| 91在线无精精品一区二区| 91成人在线| 国模叶桐国产精品一区| 污污的网站在线看| 亚洲欧美偷拍卡通变态| 亚洲最新免费视频| 成人免费观看av| www.999av| 国产电影一区在线| 成人性色av| 西野翔中文久久精品字幕| 国产一区二区动漫| 日本中文字幕在线播放| 综合电影一区二区三区| 久操手机在线视频| 国产农村妇女精品一二区| 国产精品69精品一区二区三区| 国产日韩电影| 8x拔播拔播x8国产精品| 日本综合视频| 欧美tickling挠脚心丨vk| 日韩资源在线| 亚洲欧洲综合另类| 免费av毛片在线看| 欧美日韩国产成人在线观看| 欧美巨大丰满猛性社交| 欧美福利一区二区| 日本一级在线观看| 在线观看国产成人av片| av在线不卡顿| 中国一级黄色录像| 精品福利在线视频| 亚洲欧洲二区| 欧美另类一区| 一区二区三区成人| 高清毛片aaaaaaaa**| 日韩一区二区高清| 中文av资源在线| 日本精品免费一区二区三区| 美女视频免费精品| 麻豆一区二区在线观看| 亚洲国产一区二区三区高清| 亚洲va欧美va在线观看| 成人av网站在线观看免费| 国产精品视频一二三四区| 亚洲大片在线观看| 国产精品亚洲欧美日韩一区在线 | 欧美精品一区三区| 狂野欧美一区| 先锋影音一区二区三区| 尹人成人综合网| 99aiav| 亚洲女与黑人做爰| 狠狠操在线视频| 岛国av一区二区三区| 头脑特工队2在线播放| 欧美日韩性生活视频| 99综合99| 欧美乱做爰xxxⅹ久久久| 欧美日韩国产高清一区二区| 手机av免费在线| 91久久国产综合久久蜜月精品| 国产精品国产馆在线真实露脸| 韩国精品视频在线观看| 久久99精品视频一区97| 看国产成人h片视频| 好操啊在线观看免费视频| 99爱精品视频| 美国一区二区三区在线播放 | 一区二区三区欧美| 精品网站aaa| 国产嫩草在线观看| 久久天天躁日日躁| 丰满少妇久久久久久久| 亚洲美女炮图| 久久久久久中文| 国产1区2区3区精品美女| 8x8ⅹ拨牐拨牐拨牐在线观看| 中文字幕欧美精品日韩中文字幕| 日日欢夜夜爽一区| www国产黄色| 日韩少妇与小伙激情| 国产宾馆实践打屁股91| 日韩性xxx| 欧美亚洲一级片| 亚洲综合自拍| 妞干网这里只有精品| 精品国产免费人成电影在线观看四季| 在线成人欧美| www久久日com| 大胆欧美人体视频| 国产亚洲制服色| 天堂中文在线8| 国产精品成人av性教育| 久久一区二区三区超碰国产精品| 牛牛热在线视频| 国产另类自拍| 久久综合色之久久综合| 国产一区二区久久久久| 亚欧激情乱码久久久久久久久| 欧美中文在线观看国产| 亚洲第一狼人社区| 亚洲第一在线| sm久久捆绑调教精品一区| 国产一区二区三区乱码| 久久久久久久久91| 亚洲成人av一区二区| 一区在线播放| 操人在线观看| 激情五月亚洲色图| 欧美一区二区三区四区高清| 日韩成人综合网| 精品欧美一区二区精品久久| 欧美一级精品在线| 丰满放荡岳乱妇91ww| 亚洲精品在线a| 中文在线一二区| 日韩久久久久久久| 亚洲综合精品自拍| 亚洲午夜久久久久久尤物| 91超碰在线免费| 黑森林精品导航|