基于全局和局部運(yùn)動(dòng)模式的人體行為識(shí)別研究.pdf_第1頁(yè)
已閱讀1頁(yè),還剩58頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、隨著計(jì)算機(jī)技術(shù)的迅速發(fā)展,圖像和視頻數(shù)據(jù)的海量增長(zhǎng)推動(dòng)著計(jì)算機(jī)視覺(jué)研究和應(yīng)用的不斷發(fā)展,同時(shí)也促進(jìn)了模式識(shí)別,人工智能和機(jī)器學(xué)習(xí)等相關(guān)領(lǐng)域的發(fā)展。人體行為識(shí)別作為計(jì)算機(jī)視覺(jué)領(lǐng)域備受關(guān)注的研究方向,被廣泛應(yīng)用于智能視頻監(jiān)控、病人監(jiān)護(hù)系統(tǒng)、人機(jī)交互、虛擬現(xiàn)實(shí)、智能家居、智能安防和運(yùn)動(dòng)員輔助訓(xùn)練等,具有廣泛的應(yīng)用價(jià)值和前景。盡管當(dāng)前行為識(shí)別的研究取得了一定進(jìn)展,但由于人體行為識(shí)別的復(fù)雜性,如背景雜亂、攝像機(jī)快速移動(dòng),以及人體外貌、姿勢(shì)和尺度等

2、變化,導(dǎo)致人體行為識(shí)別面臨更大的困難和挑戰(zhàn)。
  傳統(tǒng)基于興趣點(diǎn)的行為識(shí)別方法通過(guò)提取底層特征(如HOF,HOG和3D-SIFT等描述子)獲取視頻的局部信息,并構(gòu)建基于語(yǔ)義的bag-of-words模型用于生成行為的特征向量。這種方法的優(yōu)點(diǎn)是不需要對(duì)視頻進(jìn)行預(yù)處理提取運(yùn)動(dòng)對(duì)象,進(jìn)而不易受圖像預(yù)處理結(jié)果的影響,且對(duì)噪聲或干擾等因素不敏感,但其缺點(diǎn)是計(jì)算復(fù)雜度高,特別在訓(xùn)練過(guò)程中需要耗費(fèi)大量時(shí)間構(gòu)造字典模型。本文關(guān)注興趣點(diǎn)的輪廓信信息

3、和運(yùn)動(dòng)信息,提出一種基于運(yùn)動(dòng)模式的人體行為識(shí)別方法。本文的主要工作包括:1)采用現(xiàn)有的興趣點(diǎn)檢測(cè)方法(Dollars角點(diǎn)檢測(cè)方法)提取視頻中的時(shí)空興趣點(diǎn),采用本文方法提取運(yùn)動(dòng)模式(movement pattern,MP),該運(yùn)動(dòng)模式包含頂層的全局運(yùn)動(dòng)模式(global pattern,GMP)和底層的局部運(yùn)動(dòng)模式(local movement pattern,LMP);2)在基于GMP的方法中,通過(guò)提取視頻立方體中的時(shí)空興趣區(qū)域(reg

4、ion of interest,ROI),采用kalman濾波對(duì)ROI進(jìn)行預(yù)測(cè),提取全局運(yùn)動(dòng)模式,并進(jìn)行動(dòng)態(tài)時(shí)間規(guī)整(dynamic time warping,DTW)。在模式匹配階段使用字交叉參考模板(cross-words reference templates,CWRTs)方法對(duì)訓(xùn)練模式進(jìn)行規(guī)整生成參考模式并使用距離度量對(duì)其進(jìn)行識(shí)別;3)在基于LMP的方法中,ROI內(nèi)的興趣點(diǎn)軌跡與加權(quán)平均運(yùn)動(dòng)速度用于表示ROI的局部運(yùn)動(dòng)模式,通過(guò)

5、自適應(yīng)層次聚類(lèi)算法產(chǎn)生局部參考運(yùn)動(dòng)模式,并采用模式匹配方法對(duì)其分類(lèi)和識(shí)別。
  在訓(xùn)練過(guò)程中,首先構(gòu)建一個(gè)具有兩層結(jié)構(gòu)的分類(lèi)器模型:頂層包含多個(gè)非混淆行為分類(lèi)器和混淆行為分類(lèi)器,而底層則包含基于頂層每個(gè)混淆行為分類(lèi)器構(gòu)建的多個(gè)非混淆行為分類(lèi)器。非混淆行為分類(lèi)器定義:只包含一類(lèi)行為的分類(lèi)器定義為非混淆行為分類(lèi)器?;煜袨榉诸?lèi)器定義:分類(lèi)器包含多類(lèi)易混淆,相似度高的行為,這樣的分類(lèi)器定義為混淆行為分類(lèi)器。對(duì)于任何一個(gè)行為,首先采用頂層

6、的GMP描述方法及其識(shí)別方法對(duì)其進(jìn)行識(shí)別,若識(shí)別結(jié)果為非混淆類(lèi),則結(jié)束識(shí)別過(guò)程;若識(shí)別結(jié)果為混淆類(lèi),則繼續(xù)采用底層的LMP描述方法及識(shí)別方法對(duì)其進(jìn)行二次識(shí)別,從而將其識(shí)別為底層的非混淆類(lèi)。
  將本文的方法在標(biāo)準(zhǔn)視頻庫(kù)Weizmann庫(kù)和UCF庫(kù)中進(jìn)行驗(yàn)證和測(cè)試,并在multiple cameras fall視頻庫(kù)中對(duì)跌倒行為進(jìn)行了識(shí)別,其識(shí)別率分別為93.0%、88.4%和93.5%。實(shí)驗(yàn)表明本文的方法在保證識(shí)別率的前提下,較傳

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論