国产chinesehdxxxx老太婆,办公室玩弄爆乳女秘hd,扒开腿狂躁女人爽出白浆 ,丁香婷婷激情俺也去俺来也,ww国产内射精品后入国产

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

長短時(shí)記憶網(wǎng)絡(luò)(LSTM)介紹

電子設(shè)計(jì) ? 來源:電子設(shè)計(jì) ? 作者:電子設(shè)計(jì) ? 2022-02-14 14:40 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

長短時(shí)記憶網(wǎng)絡(luò)

循環(huán)神經(jīng)網(wǎng)絡(luò)很難訓(xùn)練的原因?qū)е滤膶?shí)際應(yīng)用中很處理長距離的依賴。本文將介紹改進(jìn)后的循環(huán)神經(jīng)網(wǎng)絡(luò):長短時(shí)記憶網(wǎng)絡(luò)(Long Short Term Memory Network, LSTM),

原始RNN的隱藏層只有一個(gè)狀態(tài),即h,它對于短期的輸入非常敏感。那么如果我們再增加一個(gè)狀態(tài),即c,讓它來保存長期的狀態(tài),這就是長短時(shí)記憶網(wǎng)絡(luò)。

pIYBAGAISreAdMcwAAApJFPBAYY877.png

新增加的狀態(tài)c,稱為單元狀態(tài)。我們把上圖按照時(shí)間維度展開:

o4YBAGAISvWAckC2AABA0INGCCg320.png

可以看到在 t 時(shí)刻,LSTM的輸入有三個(gè):當(dāng)前時(shí)刻網(wǎng)絡(luò)的輸出值 xt 、上一時(shí)刻LSTM的輸出值 ht?1、以及上一時(shí)刻的單元狀態(tài) ct?1;LSTM的輸出有兩個(gè):當(dāng)前時(shí)刻LSTM輸出值 ht 、和當(dāng)前時(shí)刻的單元狀態(tài) xt 。注意 x、h、c 都是向量。

LSTM的關(guān)鍵,就是怎樣控制長期狀態(tài)c。在這里,LSTM的思路是使用三個(gè)控制開關(guān)。第一個(gè)開關(guān),負(fù)責(zé)控制繼續(xù)保存長期狀態(tài)c;第二個(gè)開關(guān),負(fù)責(zé)控制把即時(shí)狀態(tài)輸入到長期狀態(tài)c;第三個(gè)開關(guān),負(fù)責(zé)控制是否把長期狀態(tài)c作為當(dāng)前的LSTM的輸出。三個(gè)開關(guān)的作用如下圖所示:

o4YBAGAISzSAaVGLAABdnag0k6w525.png

接下來我們要描述一下,輸出h和單元狀態(tài)c的具體計(jì)算方法。

長短時(shí)記憶網(wǎng)絡(luò)的前向計(jì)算

我們引入“門(gate)”的概念。門實(shí)際上就是一層全連接層,它的輸入是一個(gè)向量,輸出是一個(gè)0到1之間的實(shí)數(shù)向量。假設(shè)W是門的權(quán)重向量,b是偏置項(xiàng),那么門可以表示為:

pIYBAGAIS3GAM73JAAAE1R52yfQ997.png

門的輸出是0到1之間的實(shí)數(shù)向量,用門向量的輸出向量按元素乘以我們需要控制的那個(gè)向量,當(dāng)門輸出為0時(shí),任何向量與之相乘都會得到0向量,這就相當(dāng)于啥都不能通過;輸出為1時(shí),任何向量與之相乘都不會有任何改變,這就相當(dāng)于啥都可以通過。因?yàn)棣遥ㄒ簿褪莝igmoid函數(shù))的值域是(0,1),所以門的狀態(tài)都是半開半閉的。

LSTM用兩個(gè)門來控制單元狀態(tài) c 的內(nèi)容,一個(gè)是遺忘門,它決定了上一時(shí)刻的單元狀態(tài) t?1 有多少保留到當(dāng)前時(shí)刻 ct ;另外一個(gè)是輸出門,他決定了當(dāng)前時(shí)刻網(wǎng)絡(luò)的輸入 xt 有多少保存到單元狀態(tài) ct 。LSTM用輸出門來控制單元狀態(tài) ct 有多少輸出到LSTM的當(dāng)前輸出值 ht 。LSTM用輸出門來控制單元狀態(tài) ct 有多少輸出到LSTM的當(dāng)前輸出值ht。

遺忘門的表達(dá)式是:

o4YBAGAIS6-AYA5JAAAIumgvVIE262.png

上式中,Wf 是遺忘門的權(quán)重矩陣,ht?1 , xt 表示把兩個(gè)向量連接成一個(gè)更長的向量,bf 是遺忘門的偏置項(xiàng),σ是sigmoid函數(shù)。如果輸入的維度是dx,隱藏層的維度是 dh,單元狀態(tài)的維度是 dc( d_c = d_h ),則遺忘門的權(quán)重矩陣 Wf維度是 dcx(dh + dx ) 。事實(shí)上,權(quán)重矩陣 Wf 都是兩個(gè)矩陣拼接而成的:一個(gè)是Wfh,它對應(yīng)著輸入項(xiàng) ht?1 ,其維度為 dcxdh;一個(gè)是Wfx,它對應(yīng)著輸入項(xiàng) xt ,其維度為dcxdx。Wf 可以寫為:

o4YBAGAIS-6AeeUqAAAL40brfDE660.png

下圖顯示了遺忘門的計(jì)算:

pIYBAGAITCyABllyAAAx2gXi2VE706.png

接下來看看輸入門:

o4YBAGAITIiAHl-MAAAHBHhgbW4336.png

上式中,Wi 是輸入門的權(quán)重矩陣,$b_i$是輸入門的偏置項(xiàng)。下圖表示了輸入門的計(jì)算:

o4YBAGAITMaAdJusAAAyyP2YpDE827.png

接下來,我們計(jì)算用于描述當(dāng)前輸入的單元狀態(tài)o4YBAGAITQOAJV-JAAABTWl_Do0900.png,它是根據(jù)上一次的輸出和本次輸入來計(jì)算的:

pIYBAGAITUCAbLH_AAAHg-93rGk067.png

下圖是o4YBAGAITQOAJV-JAAABTWl_Do0900.png的計(jì)算:

pIYBAGAITbyAS2F0AAA3Ixp84xY912.png

現(xiàn)在,我們計(jì)算當(dāng)前時(shí)刻的單元狀態(tài) ct。它是由上一次的單元狀態(tài) ct?1 按元素乘以遺忘門 ft ,再用當(dāng)前輸入的單元狀態(tài)o4YBAGAITQOAJV-JAAABTWl_Do0900.png按元素乘以輸入門 it ,再將兩個(gè)積加和產(chǎn)生的:

pIYBAGAITjmACK0WAAAFHe049mE332.png

符號O表示按元素乘。下圖是 ct 的計(jì)算:

o4YBAGAITneAe4ZGAABC5iL1jv8396.png

這樣,我們就把LSTM關(guān)于當(dāng)前的記憶o4YBAGAITQOAJV-JAAABTWl_Do0900.png和長期的記憶 ct?1 組合在一起,形成了新的單元狀態(tài) ct 。由于遺忘門的控制,它可以保存很久很久之前的信息,由于輸入門的控制,它又可以避免當(dāng)前無關(guān)緊要的內(nèi)容進(jìn)入記憶。下面,我們要看看輸出門,它控制了長期記憶對當(dāng)前輸出的影響:

o4YBAGAITvKAWwfGAAAG4I3NkQk500.png

下面表示輸出門的計(jì)算:

o4YBAGAITzCAeFFvAABFRWC5uO8185.png

LSTM最終的輸出,是由輸出門和單元狀態(tài)共同確定的:

pIYBAGAIT3SAbXpiAAAFYp4ak90425.png

下圖表示LSTM最終輸出的計(jì)算:

o4YBAGAIT7KARwrFAABL8irwcA4091.png

式1到式6就是LSTM前向計(jì)算的全部公式。至此,我們就把LSTM前向計(jì)算講完了。

長短時(shí)記憶網(wǎng)絡(luò)的訓(xùn)練

LSTM訓(xùn)練算法框架

LSTM的訓(xùn)練算法仍然是反向傳播算法,對于這個(gè)算法,我們已經(jīng)非常熟悉了。主要有下面三個(gè)步驟:

1、前向計(jì)算每個(gè)神經(jīng)元的輸出值,對于LSTM來說,即 ft、it、ct、ot、ht 五個(gè)向量的值。計(jì)算方法已經(jīng)在上一節(jié)中描述過了。

2、反向計(jì)算每個(gè)神經(jīng)元的誤差項(xiàng)δ值。與循環(huán)神經(jīng)網(wǎng)絡(luò)一樣,LSTM誤差項(xiàng)的反向傳播也是包括兩個(gè)方向:一個(gè)是沿時(shí)間的反向傳播,即從當(dāng)前t時(shí)刻開始,計(jì)算每個(gè)時(shí)刻的誤差項(xiàng);一個(gè)是將誤差項(xiàng)向上一層傳播。

3、根據(jù)相應(yīng)的誤差項(xiàng),計(jì)算每個(gè)權(quán)重的梯度。

作者:凌逆戰(zhàn)
來源:博客園
原文鏈接:https://www.cnblogs.com/LXP-Never/p/10398531.html

審核編輯:何安

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    RNN與LSTM模型的比較分析

    RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))與LSTM長短記憶網(wǎng)絡(luò))模型在深度學(xué)習(xí)領(lǐng)域都具有處理序列數(shù)據(jù)的能力,但它們在結(jié)構(gòu)、功能和應(yīng)用上存在顯著的差異。以下
    的頭像 發(fā)表于 11-15 10:05 ?2217次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)與其他機(jī)器學(xué)習(xí)算法的比較

    隨著人工智能技術(shù)的飛速發(fā)展,機(jī)器學(xué)習(xí)算法在各個(gè)領(lǐng)域中扮演著越來越重要的角色。長短記憶網(wǎng)絡(luò)LSTM)作為一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),
    的頭像 發(fā)表于 11-13 10:17 ?2134次閱讀

    深度學(xué)習(xí)框架中的LSTM神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)

    長短記憶LSTM網(wǎng)絡(luò)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),能夠?qū)W習(xí)長期依賴信息。與傳統(tǒng)的RNN相比,
    的頭像 發(fā)表于 11-13 10:16 ?1058次閱讀

    基于LSTM神經(jīng)網(wǎng)絡(luò)的情感分析方法

    情感分析是自然語言處理(NLP)領(lǐng)域的一項(xiàng)重要任務(wù),旨在識別和提取文本中的主觀信息,如情感傾向、情感強(qiáng)度等。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,基于LSTM長短記憶)神經(jīng)網(wǎng)絡(luò)的情感分析方法因其
    的頭像 發(fā)表于 11-13 10:15 ?1273次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)在圖像處理中的應(yīng)用

    長短記憶LSTM)神經(jīng)網(wǎng)絡(luò)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),它能夠?qū)W習(xí)長期依賴關(guān)系。雖然LSTM
    的頭像 發(fā)表于 11-13 10:12 ?1614次閱讀

    如何使用Python構(gòu)建LSTM神經(jīng)網(wǎng)絡(luò)模型

    構(gòu)建一個(gè)LSTM長短記憶)神經(jīng)網(wǎng)絡(luò)模型是一個(gè)涉及多個(gè)步驟的過程。以下是使用Python和Keras庫構(gòu)建LSTM模型的指南。 1. 安裝
    的頭像 發(fā)表于 11-13 10:10 ?1571次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的訓(xùn)練數(shù)據(jù)準(zhǔn)備方法

    LSTM(Long Short-Term Memory,長短記憶)神經(jīng)網(wǎng)絡(luò)的訓(xùn)練數(shù)據(jù)準(zhǔn)備方法是一個(gè)關(guān)鍵步驟,它直接影響到模型的性能和效果。以下是一些關(guān)于
    的頭像 發(fā)表于 11-13 10:08 ?2102次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)與工作機(jī)制

    LSTM(Long Short-Term Memory,長短記憶)神經(jīng)網(wǎng)絡(luò)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),設(shè)計(jì)用于解決長期依賴問題,特
    的頭像 發(fā)表于 11-13 10:05 ?1628次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)在語音識別中的應(yīng)用實(shí)例

    語音識別技術(shù)是人工智能領(lǐng)域的一個(gè)重要分支,它使計(jì)算機(jī)能夠理解和處理人類語言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,特別是長短記憶LSTM)神經(jīng)網(wǎng)絡(luò)的引入,語音識別的準(zhǔn)確性和效率得到了顯著提升。
    的頭像 發(fā)表于 11-13 10:03 ?1849次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的調(diào)參技巧

    長短時(shí)記憶網(wǎng)絡(luò)(Long Short-Term Memory, LSTM)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),它能夠?qū)W習(xí)長期依賴信息。在實(shí)際應(yīng)用中,
    的頭像 發(fā)表于 11-13 10:01 ?1852次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)RNN的區(qū)別

    在深度學(xué)習(xí)領(lǐng)域,循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)因其能夠處理序列數(shù)據(jù)而受到廣泛關(guān)注。然而,傳統(tǒng)RNN在處理長序列時(shí)存在梯度消失或梯度爆炸的問題。為了解決這一問題,LSTM長短記憶)神經(jīng)
    的頭像 發(fā)表于 11-13 09:58 ?1208次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點(diǎn)分析

    長短記憶(Long Short-Term Memory, LSTM)神經(jīng)網(wǎng)絡(luò)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),由Hochreiter和S
    的頭像 發(fā)表于 11-13 09:57 ?4816次閱讀

    使用LSTM神經(jīng)網(wǎng)絡(luò)處理自然語言處理任務(wù)

    自然語言處理(NLP)是人工智能領(lǐng)域的一個(gè)重要分支,它旨在使計(jì)算機(jī)能夠理解、解釋和生成人類語言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,特別是循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)及其變體——長短記憶LSTM
    的頭像 發(fā)表于 11-13 09:56 ?1157次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)在時(shí)間序列預(yù)測中的應(yīng)用

    時(shí)間序列預(yù)測是數(shù)據(jù)分析中的一個(gè)重要領(lǐng)域,它涉及到基于歷史數(shù)據(jù)預(yù)測未來值。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,長短記憶LSTM)神經(jīng)網(wǎng)絡(luò)因其在處理序列數(shù)據(jù)方面的優(yōu)勢而受到廣泛關(guān)注。
    的頭像 發(fā)表于 11-13 09:54 ?2037次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的基本原理 如何實(shí)現(xiàn)LSTM神經(jīng)網(wǎng)絡(luò)

    LSTM長短記憶)神經(jīng)網(wǎng)絡(luò)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),它能夠?qū)W習(xí)長期依賴信息。在處理序列數(shù)據(jù)時(shí),如時(shí)間序列分析、自然語言處理等,
    的頭像 發(fā)表于 11-13 09:53 ?1578次閱讀