百度優(yōu)化:語音識別中聲學模型得分計算優(yōu)化方法 |
發(fā)布時間: 2012/9/5 11:10:27 |
語音是人們溝通交流最直接、最自然的交互方式。自計算機問世以來,人們就一直希望可以通過語音實現(xiàn)人和計算機之間的交互,而語音識別技術(shù),目標就是通過把人類的語音中的詞匯內(nèi)容轉(zhuǎn)換為相應(yīng)的文本,架起了人機交互的橋梁。對于一個語音識別系統(tǒng),速度和精度是兩個核心指標,直接決定著系統(tǒng)是否可用。其中,識別速度的提升意味著可以降低成本,同時提供更多的語音服務(wù),一直是語音識別技術(shù)研究的重點方向。在語音識別系統(tǒng)中,聲學模型得分的運算量一般會達到整個系統(tǒng)的40%-70%,因此也是識別速度優(yōu)化的重點模塊。本文就來講講如何優(yōu)化聲學模型得分計算。
基本概念介紹 特征向量:語音數(shù)據(jù)在識別前首先會被分成多幀數(shù)據(jù),一般幀長為25毫秒,幀移為10毫秒。每一幀語音數(shù)據(jù)經(jīng)過特征提取之后,會生成一幀特征,稱之為一個特征向量或特征矢量 ,其中n為特征向量的維數(shù)。 HMM state:語音識別中的建模單元,簡稱為state,使用混合高斯模型(GMM)模型描述,每個mixture服從正態(tài)分布其中為均值向量,為協(xié)方差矩陣,是對角陣。 似然值:特征向量O在state上的聲學模型得分。其計算步驟分為兩步: a)計算O在每個mixture分量上的似然值,其計算公式為:
其中,j表示state的第j個mixture分量, 是常量, 為O在第j個mixture分量上的似然值。
其中,m為state中mixture分量的個數(shù), 為O在state上的似然值,等于各mixture的似然值在log域的相加,因而這步被稱為logAdd操作。 優(yōu)化方法 下面先介紹三種無損識別精度的優(yōu)化方法: 1、代碼加速:使用SSE指令或者intel IPP加速庫 這種方法利用編程語言指令集的優(yōu)化,通過減少CPU需要操作的指令數(shù)來達到加速。其中的intel IPP加速庫直接提供了一套計算似然值的函數(shù)庫,加速效果非常明顯,可以達到40%。 2、硬件加速:使用GPU加速 GPU一直以其強大的計算能力著稱,十分適合矩陣相乘這類計算密集型的運算。為了能充分發(fā)揮GPU的加速效果,我們需要對似然值的計算公式略作改寫:
經(jīng)過轉(zhuǎn)換之后,每個mixture都可以用一個行向量表示,m個mixture可以組成一個大矩陣M = (A1,A2,…,Am)T,同理n幀的特征矢量也可以組成一個矩陣F = (Z1,Z2,…,Zn)。這樣同時求解多個mixture在多幀上的似然值就可以用兩個矩陣的乘積來實現(xiàn)。而每個state各mixture分量的logAdd過程相互獨立,因此這一步也可以在GPU上并行計算。一般情況下,GPU可以達到100倍以上的加速效果,也就意味著GPU可以將原來在語音識別中最耗時的聲學得分計算所占比重降到低于1%。由于這種方法需要一個額外的硬件設(shè)備GPU,價格比較昂貴,因而并沒有被大規(guī)模使用。 3、 CPU cache加速:一次計算state在多幀特征上的似然值 這種方法利用了語音識別的特點,在識別過程中一旦某個state被激活之后,在后面的連續(xù)幾幀中這個state極有可能仍會處于活躍狀態(tài),即在處理后面的特征時還需要計算這個state的似然值。那么我們可以在第一次激活state時,同時計算這個state在從當前幀開始的連續(xù)多幀,也不會導致過多不必要的計算。另一方面卻可以利用CPU cache,不用多次從內(nèi)存中加載state的模型參數(shù)到CPU中,從而達到加速的目的。這種方法約有10%的加速效果,一般配合方法1使用。 上面介紹的三種方法,都是對聲學模型得分進行了精確計算,因此不會帶來任何識別精度的下降。如果想做進一步優(yōu)化,就需要對state的似然值計算公式做些調(diào)整。 1、動態(tài)高斯選擇法 其思想是用似然值最大的mixture分量來近似logAdd:
那么如何來選出這個最大值呢?大家可能認為這還不簡單?把每個mixture的似然值先計算出來,然后選個最大值就可以了。那接下來我們看看有沒有更好的方法?仔細分析mixture似然值的計算公式:
我們會發(fā)現(xiàn),這是一個隨i增加而遞減的函數(shù)。我們可以先計算出,在計算其他的時,在i從1增加的n的過程中,我們可以判斷當前已經(jīng)計算出來的值是否比 小,如果已經(jīng)比 小,那們這個mixture一定不是最大的,因為隨著i的增加,這個值會不斷減小,因而這個mixture就可以直接跳過,從而減少計算量。這種方法約有15%的加速效果,但是會帶來0.5個點左右的識別率損失 2、高斯選擇法 動態(tài)高斯選擇法可以認為是在state的mixture分量里挑出一個最好的,而高斯選擇法認為在state的各個mixture中,只有一到兩個占主導地位(dominant)的mixture,貢獻了整個state的似然值。
動態(tài)高斯選擇法是把所有的mixture都計算完了之后才知道哪個最好,和動態(tài)高斯選擇法不同,高斯選擇法是直接挑選dominant的mixture,并只計算這些mixture的似然值。其過程大致可以分為3個部分 a)將聲學空間,即聲學模型中所有state的所有mixture劃分成若干個區(qū)域,每個區(qū)域稱之為一個碼本(codeword) b)生成每個碼本的shortlist,即如何把每個state中的mixture分配到各個碼本中去。 c)在識別過程中,先將特征向量O映射到一個碼本中去,state中落在碼本shortlist的mixture就是dominant的mixture,對這些mixture進行計算。 使用高斯選擇法后,聲學模型打分計算可以降到原來的20%左右,加速效果非常明顯。但是高斯選擇法對如何構(gòu)建碼本,以及碼本的shortlist有很高要求。不同的構(gòu)建方法效果會千差萬別,一個好的高斯選擇法帶來的識別率損失非常小,可以做到0.2個點以內(nèi)。 小結(jié) 本文介紹了五種從不同的角度優(yōu)化聲學模型打分的方法,各自優(yōu)缺點如下: 1、代碼加速法:簡單實用有效,在實際語音識別系統(tǒng)中可謂是標配。 2、硬件加速法:快!而且快的離譜!能將聲學模型得分計算的負載降到接近0,缺點是成本高,一般只有對識別速度要求非?量虝r才會使用。 3、CPU cache法:利用了語音識別自身的特點,雖然和其他方法相比,加速效果顯得一般,但優(yōu)點是可以和其他方法結(jié)合使用。在實際使用中還需要謹慎選擇每次連續(xù)計算的幀數(shù),避免多余計算。 4、動態(tài)高斯選擇法:加速效果中等,對識別率影響較大,一般使用的比較少。 5、高斯選擇法:加速效果僅次于GPU,同時對識別率影響小,可以與代碼加速法結(jié)合使用。缺點是這個方法技術(shù)難度較高,需要訓練,依賴數(shù)據(jù)。如果不想花錢,又想達到GPU的效果,這個方法是不錯的選擇。 本文出自:億恩科技【mszdt.com】 服務(wù)器租用/服務(wù)器托管中國五強!虛擬主機域名注冊頂級提供商!15年品質(zhì)保障!--億恩科技[ENKJ.COM] |