2023年全國碩士研究生考試考研英語一試題真題(含答案詳解+作文范文)_第1頁
已閱讀1頁,還剩118頁未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

1、隨著平安城市建設(shè)的不斷深入,身份識(shí)別技術(shù)扮演著越來越重要的角色?;谌四槇D像的身份識(shí)別(簡稱人臉識(shí)別),作為生物特征識(shí)別技術(shù)的一類,因其自然性、非侵犯性等特性,而得到學(xué)術(shù)界與市場的重視。目前,控制環(huán)境下有配合的人臉識(shí)別,已達(dá)到實(shí)用級(jí)別,但是在自然場景下的人臉識(shí)別,由于姿態(tài)、光線、表情、飾物遮擋等等因素,還遠(yuǎn)未達(dá)到可接受的識(shí)別性能。要實(shí)現(xiàn)自然場景下實(shí)用的人臉識(shí)別系統(tǒng),還需重點(diǎn)研究以下關(guān)鍵問題:(1)穩(wěn)定健壯的識(shí)別算法,算法對(duì)姿態(tài)、光照、表

2、情、遮擋等變量中的一種或者多種具有很好的抗干擾性且表現(xiàn)均衡;(2)如何達(dá)到滿足實(shí)用的識(shí)別性能,包括速度快、準(zhǔn)確率高(理想情況為接近或者超過人眼識(shí)別水平);(3)如何在學(xué)習(xí)樣本較少的情況下,保證較高的識(shí)別率,而在學(xué)習(xí)樣本較多的情況下,則能有效利用數(shù)據(jù)學(xué)習(xí),迸一步提高識(shí)別率。
  針對(duì)這些問題,本文進(jìn)行了相關(guān)研究,主要工作和創(chuàng)新點(diǎn)如下:
  1,提出了一種新的人臉識(shí)別思路:傳統(tǒng)識(shí)別通過降維等方法找到人臉特征子空間,根據(jù)子空間內(nèi)的

3、距離來度量相似度,而本文則是通過直接比較人臉圖像對(duì),根據(jù)兩張圖像的匹配代價(jià)來度量相似度,識(shí)別無需降維或者復(fù)雜的特征提取設(shè)計(jì),不依賴于大規(guī)模的樣本訓(xùn)練學(xué)習(xí)。具體實(shí)現(xiàn)借鑒了3D立體視覺領(lǐng)域中的稠密匹配技術(shù)并加以變化利用,即同樣求解匹配點(diǎn),但并不使用它們,而是使用求解過程中產(chǎn)生的匹配代價(jià)(原稠密匹配過程中的副產(chǎn)物),再通過聚合策略,將點(diǎn)層面的匹配代價(jià)轉(zhuǎn)變?yōu)閳D層面的匹配代價(jià),最后根據(jù)匹配代價(jià),定義兩張圖像的相似度準(zhǔn)則。
  2,針對(duì)人臉圖

4、像的光照和表情問題,提出了一種可以抵抗光照與表情復(fù)合變化的身份識(shí)別解決方案。該方案包括2種算法,基于最小強(qiáng)度差樹模型的MIDT算法(MIDT速度優(yōu)化版算法FTM),和基于特征與區(qū)域梯度融合模型的FRGF算法。(1)MIDT算法:通過定義一種對(duì)光照干擾保持不變性的距離度量準(zhǔn)則,建立最小強(qiáng)度差樹模型,并在樹上匯聚匹配代價(jià),得到圖像對(duì)之間的相似度用于識(shí)別,在AR數(shù)據(jù)庫上的實(shí)驗(yàn)表明,算法在表情和光照變化的干擾下,依然可以保持很好的識(shí)別率(平均9

5、5.3%),且對(duì)于不同類型的表情與光照影響,表現(xiàn)出很好的穩(wěn)定性(波動(dòng)不超過9%),此外,考慮到MIDT工程化的速度問題,設(shè)計(jì)出一種最優(yōu)化聚合策略,得到了基于MIDT改進(jìn)的快速識(shí)別算法FTM,達(dá)到實(shí)時(shí)識(shí)別性能。(2) FRGF算法:融合了特征與區(qū)域梯度在抗光照與形變方面的優(yōu)勢,實(shí)驗(yàn)表明,相比MIDT(FTM)算法,F(xiàn)RGF算法不僅保持了良好二二的對(duì)表情和光照變化抗干擾特性,而且獲得了更為出色的識(shí)別性能(平均識(shí)別率99.1%)。
  

6、3,針對(duì)人臉圖像的姿態(tài)和遮擋問題,提出了一種可以抵抗姿態(tài)與遮擋復(fù)合變化的身份識(shí)別解決方案,該方案包括2種算法:自適應(yīng)多粒度APP算法(APP速度優(yōu)化版算法FSI),和基于去噪自編碼器的ISDAE算法。(1)APP算法:先利用極幾何對(duì)齊人臉,再在像素級(jí)別和圖像特征塊級(jí)別上分別求解對(duì)應(yīng)點(diǎn)的匹配度,同時(shí)加入自適應(yīng)模塊,以解決姿態(tài)傾斜對(duì)人臉表觀產(chǎn)生的扭曲問題,最后通過聚合得到圖像對(duì)之間的相似度,在一些挑戰(zhàn)性的數(shù)據(jù)庫如CMUPIE和FERET上的

7、實(shí)驗(yàn)表明,APP在解決姿態(tài)問題上處于前沿水平(識(shí)別率分別達(dá)到92.3%和95.1%),此外,考慮到APP工程化的速度問題,提出了基于APP改進(jìn)的快速識(shí)別算法FSI,算法達(dá)到實(shí)時(shí)識(shí)別性能,且在姿態(tài)變化幅度較小時(shí)性能良好(識(shí)別率97%)。(2) ISDAE算法:借鑒深度學(xué)習(xí)思想,利用去噪自編碼器,開發(fā)了一套抗遮擋問題性能較好的識(shí)別算法ISDAE,實(shí)驗(yàn)表明,算法超過稀疏表達(dá)算法在遮擋環(huán)境中的識(shí)別性能。
  4,針對(duì)富樣本下的學(xué)習(xí)問題,提

8、出了一種樣本學(xué)習(xí)算法SVMSR,它擁有傳統(tǒng)學(xué)習(xí)算法如SVM、NN等所不具備的特性:若所獲取的大量人臉圖像訓(xùn)練樣本,并不直接是待識(shí)別身份的人臉(甚至完全無關(guān),這在實(shí)際應(yīng)用中經(jīng)常發(fā)生),SVMSR仍然可以利用這些數(shù)據(jù),來提高原算法的識(shí)別率。此外,本文提出的如APP、FSI等算法基本無需修改,就可以直接使用SVMSR,實(shí)現(xiàn)在富樣本環(huán)境中識(shí)別率的提升(約10%)。SVMSR算法采用對(duì)人臉圖像之間的差異進(jìn)行建模,利用稠密匹配技術(shù)提取特征,并對(duì)傳統(tǒng)

9、的SVM核進(jìn)行修改,使其可以基于樣本數(shù)據(jù),判斷兩張圖像之間的相似度。
  5,研究了海量視頻中基于身份的鏡頭檢索問題。傳統(tǒng)檢索主要是圖像檢索,類似于谷歌圖像搜索,輸入輸出均為圖像,而本文為鏡頭檢索,輸入輸出均為鏡頭。針對(duì)該問題,提出了一種新的檢索方法:基于視覺單詞模型,根據(jù)人臉表觀特性融合多種特征,并將鏡頭視為文本檢索中的一個(gè)“文檔”,利用人臉跟蹤技術(shù)和TF-IDF建立文檔描述符,最后基于VSM模型進(jìn)行鏡頭“文檔”的檢索。在英國流

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論