2023年全國(guó)碩士研究生考試考研英語一試題真題(含答案詳解+作文范文)_第1頁(yè)
已閱讀1頁(yè),還剩125頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、隨著現(xiàn)代語音通信技術(shù)的不斷進(jìn)步,移動(dòng)語音通信技術(shù)在人類信息交流方式中發(fā)揮著舉足輕重的作用。語音信息在移動(dòng)環(huán)境下進(jìn)行傳輸,會(huì)受到噪聲、惡意篡改等攻擊,移動(dòng)計(jì)算環(huán)境下語音傳輸信道開放、傳輸資源有限,移動(dòng)終端處理能力、續(xù)航能力不足等問題與語音傳輸安全需求的矛盾越來越突出。因此,對(duì)移動(dòng)計(jì)算環(huán)境下的語音內(nèi)容安全認(rèn)證的研究是很有必要的。
  論文結(jié)合帶寬資源受限、終端處理能力有限的移動(dòng)計(jì)算環(huán)境語音通信終端的語音通信問題,從原始域和壓縮域語音入

2、手,采用語音感知哈希認(rèn)證技術(shù),重點(diǎn)對(duì)語音的內(nèi)容完整性與真實(shí)性,算法的高效性與魯棒性,小范圍篡改定位檢測(cè),以及語音編碼在語音感知哈希中的應(yīng)用等幾個(gè)關(guān)鍵問題展開研究。具體工作如下:
  1.針對(duì)移動(dòng)計(jì)算環(huán)境下語音感知哈希算法沒有通用模型的問題,對(duì)認(rèn)證模型進(jìn)行了研究,提出了一種移動(dòng)計(jì)算環(huán)境下語音感知哈希的認(rèn)證模型。該模型通過對(duì)多媒體感知哈希認(rèn)證一般模型的研究,以語音感知簽名為基礎(chǔ),結(jié)合多媒體感知認(rèn)證算法,并基于移動(dòng)計(jì)算環(huán)境下這個(gè)應(yīng)用背景

3、,分析移動(dòng)計(jì)算環(huán)境下語音信號(hào)處理和傳輸特點(diǎn),建立了完整的移動(dòng)計(jì)算環(huán)境下語音感知哈希算法認(rèn)證模型,為算法的設(shè)計(jì)提供了理論基礎(chǔ)。
  2.針對(duì)現(xiàn)有的語音認(rèn)證算法認(rèn)證效率低,算法復(fù)雜,不能夠滿足移動(dòng)計(jì)算環(huán)境下語音通信實(shí)時(shí)認(rèn)證的現(xiàn)狀,從減小算法構(gòu)成復(fù)雜度、提高算法魯棒性、提高認(rèn)證效率的應(yīng)用角度,分別研究了原始域和壓縮域語音的感知哈希認(rèn)證算法。(1)提出了一種高效的基于線性預(yù)測(cè)分析的語音感知哈希認(rèn)證算法,該算法基于語音信號(hào)的線性預(yù)測(cè)分析的原

4、理對(duì) LPC系數(shù)進(jìn)行優(yōu)化,融合能量與 LPC系數(shù),構(gòu)成新的特征系數(shù),并對(duì)構(gòu)成的特征系數(shù)陣進(jìn)行分解和量化,形成感知哈希序列。(2)提出了一種基于線性預(yù)測(cè)倒譜系數(shù)的語音感知哈希認(rèn)證算法,算法通過對(duì)語音信號(hào) LPCC系數(shù)矩陣構(gòu)建,并對(duì)系數(shù)矩陣進(jìn)行參數(shù)規(guī)整處理,參數(shù)規(guī)整能夠有效地提高抵抗高斯白噪聲的魯棒性,再對(duì)參數(shù)矩陣進(jìn)行非負(fù)矩陣分解、量化,形成感知哈希序列。(3)提出了一種基于MDCT系數(shù)的壓縮域語音感知哈希認(rèn)證算法,算法通過對(duì) MP3格式的

5、語音進(jìn)行部分解壓,提取 MDCT系數(shù),對(duì)每幀語音的MDCT系數(shù)進(jìn)行Mel濾波處理,形成MFCC系數(shù)向量,并對(duì)系數(shù)矩陣進(jìn)行分解,降低矩陣維度,經(jīng)過哈希構(gòu)造生成感知哈希值。(4)提出了一種基于張量重構(gòu)和張量分解的語音感知哈希算法。該算法是從三維角度來分析語音感知特征,通過小波包變換得到語音各分量,對(duì)每個(gè)語音分量提取MFCC和△MFCC特征,構(gòu)建語音特征張量,使用張量分解對(duì)特征張量進(jìn)行分解,降低特征張量的復(fù)雜度,經(jīng)過特征矩陣量化生成感知哈希值

6、來實(shí)現(xiàn)語音認(rèn)證。實(shí)驗(yàn)結(jié)果表明,所提出的四種算法對(duì)于內(nèi)容保持操作均具有良好的魯棒性,并且運(yùn)算效率高,時(shí)間開銷小,能夠滿足移動(dòng)計(jì)算環(huán)境下的語音通信實(shí)時(shí)性的要求,實(shí)現(xiàn)語音快速認(rèn)證功能。
  3.針對(duì)現(xiàn)有語音認(rèn)證算法對(duì)內(nèi)容保持操作具有較強(qiáng)的魯棒性,但對(duì)小范圍篡改攻擊不具有敏感性,認(rèn)證粒度無法滿足定位精度的問題。具體做了兩個(gè)方面的研究。(1)從衡量感知相似度評(píng)價(jià)方法角度,提出了一種衡量感知相似度的評(píng)價(jià)方法。該方法運(yùn)用Pearson相關(guān)系數(shù)來

7、計(jì)算每幀語音感知特征的相似程度,并對(duì)系數(shù)進(jìn)行歸一化,再分別計(jì)算最大歸一化系數(shù)和最小歸一化系數(shù)的乘積,最后用乘積的比值作為語音感知相似性的測(cè)度。(2)從提高語音感知哈希算法的魯棒性和識(shí)別小范圍篡改定位的能力角度,利用人類聽覺模型提出了一種自適應(yīng)語音感知哈希算法。該算法首先基于人類聽覺特性,對(duì) MFCC算法每幀的濾波器數(shù)量進(jìn)行控制,得到每幀語音的自適應(yīng)Mel頻率倒譜參數(shù),對(duì)AMFCC參數(shù)和LPCC系數(shù)進(jìn)行融合,并采用分塊方法對(duì)特征矩陣進(jìn)行處

8、理;然后對(duì)特征塊進(jìn)行2DNMF運(yùn)算,降低特征矩陣的復(fù)雜度;最后對(duì)分解后的系數(shù)矩陣進(jìn)行哈希構(gòu)造,得到語音感知哈希值。實(shí)現(xiàn)結(jié)果表明,該算法能夠?qū)?nèi)容保持操作具有魯棒性,能夠定位小范圍篡改的位置,定位精度可以達(dá)到40ms。
  4.為了滿足帶寬資源受限的語音通信環(huán)境中語音認(rèn)證對(duì)低數(shù)據(jù)量、低復(fù)雜度的要求,提出一種與 G.729編碼標(biāo)準(zhǔn)相結(jié)合的魯棒語音感知哈希算法。該算法在G.729語音編碼過程中通過提取線性預(yù)測(cè)殘差作為語音感知特征,并通過

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論