

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、隨著信息技術(shù)的高速發(fā)展和現(xiàn)代戰(zhàn)爭(zhēng)的需要,多傳感器信息融合作為一門(mén)新興交叉學(xué)科得到廣泛關(guān)注?;谛畔⑷诤霞夹g(shù)的目標(biāo)識(shí)別已成為國(guó)內(nèi)外研究的熱點(diǎn)。如何快速、準(zhǔn)確地對(duì)目標(biāo)進(jìn)行識(shí)別,是擺在眾多學(xué)者面前的一個(gè)重要研究課題。本文介紹了信息融合技術(shù)的基本理論,在此基礎(chǔ)上,重點(diǎn)對(duì)神經(jīng)網(wǎng)絡(luò)和證據(jù)理論進(jìn)行深入研究和分析,并將神經(jīng)網(wǎng)絡(luò)和證據(jù)理論相結(jié)合,以更好地解決目標(biāo)識(shí)別系統(tǒng)中所存在的問(wèn)題。
本文的主要研究?jī)?nèi)容及成果如下:
1.神經(jīng)網(wǎng)絡(luò)在目
2、標(biāo)識(shí)別領(lǐng)域得到了越來(lái)越廣泛地應(yīng)用,但是對(duì)復(fù)雜的傳感器系統(tǒng),單一神經(jīng)網(wǎng)絡(luò)會(huì)存在穩(wěn)定性差、收斂性差等問(wèn)題。為此,本文設(shè)計(jì)了基于神經(jīng)網(wǎng)絡(luò)組的目標(biāo)識(shí)別方法。通過(guò)對(duì)目標(biāo)特征適當(dāng)分組,建立相應(yīng)的多個(gè)子網(wǎng)絡(luò)并行組合的神經(jīng)網(wǎng)絡(luò)組,有效利用傳感器提供的冗余信息,提高目標(biāo)識(shí)別率。仿真結(jié)果表明,利用神經(jīng)網(wǎng)絡(luò)組不但能夠提高目標(biāo)的識(shí)別精度,而且還減少了網(wǎng)絡(luò)訓(xùn)練時(shí)間。
2.證據(jù)理論作為一種有效處理不確定信息的推理方法,在多傳感器信息融合中得到了廣泛應(yīng)用,
3、然而,由于證據(jù)理論難以處理證據(jù)沖突的情況,也就限制了其應(yīng)用范圍。本文設(shè)計(jì)了一種新的基于證據(jù)權(quán)值的組合方法。當(dāng)證據(jù)相互沖突時(shí),該方法通過(guò)給各組證據(jù)賦予不同的權(quán)值來(lái)調(diào)整概率分配函數(shù),然后用D-S組合規(guī)則進(jìn)行融合。仿真結(jié)果表明,新方法可以有效提高目標(biāo)判定的可靠性。
3.針對(duì)當(dāng)前目標(biāo)識(shí)別系統(tǒng)中常用的信息融合方法識(shí)別率較低、運(yùn)行速度慢、穩(wěn)定性差等問(wèn)題,本文設(shè)計(jì)了一種聯(lián)合神經(jīng)網(wǎng)絡(luò)組與證據(jù)理論的信息融合方法,稱(chēng)為GNN-DS算法。該算法的主
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于多源信息融合的空間目標(biāo)識(shí)別方法研究.pdf
- 基于數(shù)據(jù)融合的運(yùn)動(dòng)目標(biāo)識(shí)別方法研究.pdf
- 基于特征級(jí)融合的目標(biāo)識(shí)別方法研究.pdf
- 基于多源數(shù)據(jù)融合的SAR圖像目標(biāo)識(shí)別方法研究.pdf
- 基于殼體振動(dòng)的目標(biāo)識(shí)別方法研究.pdf
- 基于形狀的圖像目標(biāo)識(shí)別方法研究.pdf
- 數(shù)據(jù)融合中基于神經(jīng)網(wǎng)絡(luò)的目標(biāo)識(shí)別方法研究.pdf
- 圖像目標(biāo)識(shí)別方法研究.pdf
- 雷達(dá)目標(biāo)識(shí)別方法研究.pdf
- 聲目標(biāo)識(shí)別方法研究.pdf
- 基于RCS的海上目標(biāo)識(shí)別方法研究.pdf
- 基于信息融合技術(shù)的結(jié)構(gòu)損傷識(shí)別方法研究.pdf
- 基于人類(lèi)回聲定位的目標(biāo)識(shí)別方法研究.pdf
- 基于深度學(xué)習(xí)的SAR目標(biāo)識(shí)別方法研究.pdf
- 基于全極化雷達(dá)的目標(biāo)識(shí)別方法研究.pdf
- 基于不變矩的空間目標(biāo)識(shí)別方法研究.pdf
- 基于圖像處理的水下目標(biāo)識(shí)別方法研究.pdf
- 基于光譜信息的高光譜圖像目標(biāo)識(shí)別方法的研究.pdf
- 基于特征融合的目標(biāo)識(shí)別技術(shù)的研究.pdf
- 基于信息融合的智能車(chē)輛前方目標(biāo)識(shí)別技術(shù)研究.pdf
評(píng)論
0/150
提交評(píng)論