

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、隨著科技不斷發(fā)展及理論基礎(chǔ)日益成熟,深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Network,DNN)目前已被廣泛應(yīng)用于眾多領(lǐng)域,并且為各自領(lǐng)域帶來(lái)突破性進(jìn)展。在自然語(yǔ)言處理(Natural Language Processing,NLP)方向,相較于傳統(tǒng)機(jī)器學(xué)習(xí)方法及概率模型,循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)在訓(xùn)練時(shí)序序列方面取得極佳效果,并迅速應(yīng)用于語(yǔ)音及自然語(yǔ)言理解等領(lǐng)域。同時(shí),多核處理器及深度
2、學(xué)習(xí)專用加速卡等高性能處理器的發(fā)展,進(jìn)一步推進(jìn)了基于神經(jīng)網(wǎng)絡(luò)模型的研究與應(yīng)用。本文主要基于GPU平臺(tái),對(duì)如何提升循環(huán)神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練準(zhǔn)確率及訓(xùn)練速度進(jìn)行研究,并針對(duì)此兩方面進(jìn)行算法設(shè)計(jì)及優(yōu)化,從而提升語(yǔ)音識(shí)別、機(jī)器翻譯模型等實(shí)際應(yīng)用訓(xùn)練效果。
本文主要工作內(nèi)容和成果包括:
(1)針對(duì)語(yǔ)音識(shí)別應(yīng)用及其模型,提升模型訓(xùn)練準(zhǔn)確率及訓(xùn)練速度。通過(guò)對(duì)其訓(xùn)練數(shù)據(jù)進(jìn)行重新組織,提升其模型訓(xùn)練速度;針對(duì)時(shí)序序列特征,改進(jìn)數(shù)據(jù)規(guī)范化
3、算法,減少數(shù)據(jù)漂移,達(dá)到均勻分布。在訓(xùn)練過(guò)程中,結(jié)合調(diào)整學(xué)習(xí)率、隱藏層神經(jīng)元數(shù)量和參數(shù)更新算法等調(diào)參方法,最終在相同訓(xùn)練階段內(nèi)提升訓(xùn)練準(zhǔn)確率。
(2)針對(duì)機(jī)器翻譯應(yīng)用及其模型,提升模型訓(xùn)練速度?;跈C(jī)器翻譯預(yù)測(cè)模型,通過(guò)對(duì)模型進(jìn)行并行算法優(yōu)化,充分利用計(jì)算資源,將原單句訓(xùn)練變?yōu)槎嗑溆?xùn)練,在保證翻譯質(zhì)量情況下,提升單句訓(xùn)練速度。
(3)提升基于GPU循環(huán)神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練速度。通過(guò)編寫高效CUDA計(jì)算內(nèi)核,提升計(jì)算效率;
4、通過(guò)改善GPU顯存重用率,增大單次訓(xùn)練樣本數(shù),充分利用計(jì)算資源,提升訓(xùn)練速度;基于GPU硬件計(jì)算單元,通過(guò)低比特量化方法對(duì)模型參數(shù)進(jìn)行量化存儲(chǔ),減小參數(shù)存儲(chǔ)規(guī)模,同時(shí)使用混合精度方法進(jìn)行微調(diào)訓(xùn)練,從而對(duì)模型進(jìn)行加速計(jì)算。
本文通過(guò)對(duì)循環(huán)神經(jīng)網(wǎng)絡(luò)及相關(guān)應(yīng)用模型結(jié)構(gòu)的深入理解,結(jié)合深度學(xué)習(xí)框架,基于GPU平臺(tái),設(shè)計(jì)并實(shí)現(xiàn)了循環(huán)神經(jīng)網(wǎng)絡(luò)優(yōu)化算法,同時(shí)充分利用硬件特性,有效提高了語(yǔ)音識(shí)別模型及機(jī)器翻譯模型訓(xùn)練準(zhǔn)確率及訓(xùn)練速度,為后續(xù)研
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 片上網(wǎng)絡(luò)模擬器在GPU平臺(tái)上的設(shè)計(jì)與優(yōu)化.pdf
- lstm神經(jīng)網(wǎng)絡(luò)在ios平臺(tái)上的實(shí)現(xiàn)
- LSTM神經(jīng)網(wǎng)絡(luò)在IOS平臺(tái)上的實(shí)現(xiàn).pdf
- 基于多GPU的多層神經(jīng)網(wǎng)絡(luò)并行加速訓(xùn)練算法的研究.pdf
- LSTM神經(jīng)網(wǎng)絡(luò)在Android平臺(tái)上的實(shí)現(xiàn).pdf
- 基于GPU的深度神經(jīng)網(wǎng)絡(luò)優(yōu)化方法研究.pdf
- 基于循環(huán)神經(jīng)網(wǎng)絡(luò)的語(yǔ)音識(shí)別方案的優(yōu)化與設(shè)計(jì).pdf
- 人工神經(jīng)網(wǎng)絡(luò)優(yōu)化算法研究.pdf
- 基于改進(jìn)蟻群優(yōu)化算法的神經(jīng)網(wǎng)絡(luò)訓(xùn)練的研究
- 多GPU環(huán)境下的卷積神經(jīng)網(wǎng)絡(luò)并行算法.pdf
- 復(fù)數(shù)值神經(jīng)網(wǎng)絡(luò)訓(xùn)練算法的研究與應(yīng)用.pdf
- 基于進(jìn)化算法的神經(jīng)網(wǎng)絡(luò)訓(xùn)練研究.pdf
- 基于循環(huán)遞推神經(jīng)網(wǎng)絡(luò)算法自適應(yīng)PID控制.pdf
- BP神經(jīng)網(wǎng)絡(luò)訓(xùn)練算法及其應(yīng)用研究.pdf
- 基于數(shù)據(jù)并行的BP神經(jīng)網(wǎng)絡(luò)訓(xùn)練算法.pdf
- 基于GPU的深度神經(jīng)網(wǎng)絡(luò)模型并行及優(yōu)化方法研究.pdf
- bp神經(jīng)網(wǎng)絡(luò)訓(xùn)練算法改進(jìn)初探【開題報(bào)告】
- 基于分布估計(jì)算法的BP神經(jīng)網(wǎng)絡(luò)優(yōu)化設(shè)計(jì).pdf
- 基于遺傳算法的前饋神經(jīng)網(wǎng)絡(luò)優(yōu)化設(shè)計(jì).pdf
- 非凸優(yōu)化問(wèn)題的神經(jīng)網(wǎng)絡(luò)優(yōu)化算法與應(yīng)用的研究.pdf
評(píng)論
0/150
提交評(píng)論