應(yīng)用兩級(jí)分類實(shí)現(xiàn)車牌字符識(shí)別
車牌識(shí)別系統(tǒng)LPR(License Plate Recognition)包括車牌定位、字符分割和字符識(shí)別三大部分。其中,字符識(shí)別的準(zhǔn)確及高效成為整個(gè)車牌識(shí)別系統(tǒng)的關(guān)鍵。
車牌字符識(shí)別是模式識(shí)別的一個(gè)重要研究領(lǐng)域,字符特征提取可分為基于統(tǒng)計(jì)特征和基于結(jié)構(gòu)特征兩大類[1],統(tǒng)計(jì)方法具有良好的魯棒性和抗干擾性等,但是,由于其采用累加的方法,對(duì)于“敏感部位”的差異也隨之消失,即對(duì)形近字的區(qū)分能力較差。而結(jié)構(gòu)方法對(duì)細(xì)節(jié)特征較敏感,區(qū)分形近字符的能力較強(qiáng),但是難以抽取、不穩(wěn)定、算法復(fù)雜度高。分類器設(shè)計(jì)方面,人工神經(jīng)網(wǎng)絡(luò)和支持向量機(jī)SVM(Support Vector Machine)[2]等技術(shù)已被用于車牌字符識(shí)別研究中,有效地提高了識(shí)別率,但缺少基于特征的優(yōu)化設(shè)計(jì)。
本文針對(duì)實(shí)際采集的車牌圖像質(zhì)量不高所導(dǎo)致的字符形變、噪聲、易混淆的問(wèn)題,根據(jù)人類視覺(jué)活動(dòng)的問(wèn)題,選取基于輪廓的統(tǒng)計(jì)特征反映字符整體信息;選取結(jié)構(gòu)特征反映字符細(xì)節(jié)信息,采用SVM作為分類器,并對(duì)基于輪廓的特征提取方法進(jìn)行了優(yōu)化設(shè)計(jì)。
1 車牌字符識(shí)別算法框架
本文提出的識(shí)別算法模擬人類智能,采用兩級(jí)分類識(shí)別的思想處理車牌字符識(shí)別問(wèn)題,引入可信度評(píng)判機(jī)制。經(jīng)預(yù)處理后的字符首先進(jìn)入粗分類識(shí)別,采用基于輪廓的統(tǒng)計(jì)特征作為粗分類的特征提取方法,利用SVM分類器得出分類識(shí)別結(jié)果,并計(jì)算結(jié)果的可信度。識(shí)別系統(tǒng)將粗分類識(shí)別結(jié)果的可信度與預(yù)先設(shè)置好的用于判別形近字的可信度閾值相比較,如果可信度大于閾值,則識(shí)別系統(tǒng)將字符歸為非形近字,并將結(jié)果輸出;否則, 識(shí)別系統(tǒng)將字符歸為形近字,并根據(jù)粗分類識(shí)別結(jié)果,計(jì)算字符所屬的形近字類別,將字符送入細(xì)分類識(shí)別,提取字符的結(jié)構(gòu)特征作為細(xì)分類的特征提取方法,利用決策表中的形近字區(qū)分規(guī)則,得到識(shí)別結(jié)果。圖1為識(shí)別系統(tǒng)算法流程圖。
2 一級(jí)分類識(shí)別
2.1 粗分類特征提取
粗分類的特征提取方法應(yīng)該能夠描繪字符的整體信息,基于輪廓的統(tǒng)計(jì)特征描繪字符外圍輪廓的變化。利用距離反映輪廓的方法,通過(guò)計(jì)算字符圖像左、右、上、下四個(gè)邊框到筆畫間的距離,得到圖像輪廓的統(tǒng)計(jì)特征。設(shè)預(yù)處理后的二值化字符圖像為f(i,j),具體算法為:
其中,width、length為字符圖像的寬和高。規(guī)定此行或此列沒(méi)有筆畫時(shí),其特征值為零。
圖2為字符‘6’的四組輪廓特征,從圖中可以看出,曲線在高度變化上反映出了字符外圍輪廓特征。根據(jù)輪廓特征曲線可以找出同類字符間的相關(guān)性、不同類字符間的差異性。
然而,這樣直接提取的特征容易受到字符偏移的影響,因此,本文對(duì)提取的原始特征進(jìn)行了如下優(yōu)化:
(1)分別循環(huán)平移特征值LP(i)、RP(i)、TP(i)、BP(i),使其前后為零特征值的個(gè)數(shù)大致相等,這樣提取的特征值在分類器中更具可比性。
(2)由于字符存在水平偏移和垂直偏移,所以需要消除字符偏移對(duì)特征值的影響。首先,按照下式計(jì)算字符水平偏移量LO:
其中,[·]表示取整數(shù)。
消除垂直偏移量對(duì)特征值的影響與消除水平偏移量方法類似,這里不再重復(fù)。
圖3所示為圖2優(yōu)化后的特征曲線。從圖中可以看出,優(yōu)化后的特征曲線左右為零值的特征數(shù)量大致相等,第一、二組的最小特征值大致相等,第三、四組最小特征值也大致相等。由此可見(jiàn),依據(jù)上述優(yōu)化方法對(duì)四組輪廓特征加以修正,可以有效地克服字符位置偏移對(duì)特征值的影響,增加同類字符間的相關(guān)性。
2.2 一級(jí)粗分類器設(shè)計(jì)
本文提取的粗分類特征維數(shù)比較大,SVM能夠較好地解決小樣本、非線性及高維的模式識(shí)別問(wèn)題,而且在高維空間中的推廣能力并不受維數(shù)影響,所以本文選取SVM作為分類器進(jìn)行車牌字符的識(shí)別。
2.2.1 支持向量機(jī)(SVM)算法原理
SVM是建立在統(tǒng)計(jì)學(xué)習(xí)理論的VC維(Vapnik-Chervonenkis Dimension)理論和結(jié)構(gòu)風(fēng)險(xiǎn)最小化原理SRM(Structural Risk Minimization)基礎(chǔ)上的一種新機(jī)器學(xué)習(xí)系統(tǒng)[3]。SVM方法是從線性可分情況下的最優(yōu)分類面提出的。對(duì)于線性不可分情況,SVM通過(guò)增加一個(gè)松弛項(xiàng)ξi≥0和對(duì)錯(cuò)分樣本的懲罰因子C進(jìn)行推廣。而對(duì)于非線性問(wèn)題,首先通過(guò)非線性變換將輸入空間變換到一個(gè)高維內(nèi)積空間,然后在這個(gè)新空間中求取最優(yōu)超平面。由于在特征空間H中構(gòu)造最優(yōu)超平面時(shí),訓(xùn)練算法只涉及訓(xùn)練樣本之間的內(nèi)積運(yùn)算(xi·xj)。
2.2.2 核函數(shù)的選取
根據(jù)Hilbert-Schmidt原理,只要一種核函數(shù)K(x,y)滿足Mercer條件,它就對(duì)應(yīng)某一變換空間中的內(nèi)積。K(x,y)只涉及x、y,并沒(méi)有高維運(yùn)算。由此可見(jiàn),核函數(shù)的引入避免了非線性映射計(jì)算的復(fù)雜性。有研究表明,SVM方法并不十分依賴核函數(shù)的選取,即不同的核函數(shù)對(duì)分類性能影響不大,所以本文選取應(yīng)用廣泛的徑向基核函數(shù)(RBF)作為核函數(shù):
2.3 可信度
可信度是不確定性推理中用于度量證據(jù)、規(guī)則和結(jié)論不確定性的一種方法。由于多種因素的影響,車牌字符識(shí)別過(guò)程中存在一定的不確定性,所以本文引入不確定性推理來(lái)判斷識(shí)別結(jié)果是否可以被信任。
2.3.1 可信度概念
可信度CF用于度量證據(jù)、結(jié)論和規(guī)則的不確定性程度[6],CF的作用域?yàn)閇-1,1]。設(shè)一個(gè)不確定推理過(guò)程的證據(jù)為A,結(jié)論為B,推理規(guī)則為:IF A THEN B。
(1)證據(jù)的不確定性度量:CF(A)表示證據(jù)的可信度,CF(A)>0,表示A以CF(A)程度為真;CF(A)<0,表示A以CF(A)程度為假。
(2)規(guī)則的不確定性度量:CF(B,A)表示規(guī)則的可信度。CF(B,A)>0,表示證據(jù)增加了結(jié)論為真的程度;反之CF(B,A)<0,表示證據(jù)增加了結(jié)論為假的程度。
當(dāng)CF(B)的值大于形近字判別閾值CFmin時(shí),直接輸出粗分類識(shí)別結(jié)果;反之,分類器查找形近字所屬類別,并將字符送入二級(jí)分類識(shí)別。
2.4 粗分類實(shí)驗(yàn)和分析
粗分類中字母和數(shù)字共有33類,每類有100個(gè)樣本。其中每類用60個(gè)樣本進(jìn)行SVM訓(xùn)練,構(gòu)造SVM分類器,剩下的40個(gè)樣本做測(cè)試。
本文對(duì)粗分類器在不同可信度閾值下的性能進(jìn)行了測(cè)試,測(cè)試結(jié)果如圖4所示。從圖中可以看出,粗分類識(shí)別率隨著可信度閾值的增加而提高,但閾值設(shè)置太高時(shí),粗分類有較高的拒識(shí)率,而將字符送入二級(jí)分類識(shí)別,導(dǎo)致浪費(fèi)粗分類器的識(shí)別能力。所以可信度閾值選取0.7,粗分類器的識(shí)別性能最佳。
當(dāng)CFmin=0.7時(shí),粗分類字符識(shí)別正確率只有96.4%,但是出現(xiàn)錯(cuò)誤的字符基本上都是形近字。如8、B、O、D、Q,2、Z,5、S等外形比較相似的字符,這些形近字符的差別體現(xiàn)在細(xì)微的結(jié)構(gòu)上。如果將這些形近字符暫時(shí)歸為一類,然后將其送入二級(jí)分類識(shí)別,則粗分類識(shí)別正確率會(huì)大幅提升接近100%,這樣的結(jié)果可以滿足特征提取算法復(fù)雜度低,識(shí)別率較高、形近字較少的粗分類的要求。
3 二級(jí)分類識(shí)別
3.1 細(xì)分類特征提取
細(xì)分類的特征提取方法應(yīng)該能夠表征字符細(xì)節(jié)信息,刻畫形近字間更細(xì)微的差別。結(jié)構(gòu)特征可以很好地反映字符的細(xì)節(jié)特征。所以本文選取環(huán)數(shù)、彎曲度、交點(diǎn)數(shù)等結(jié)構(gòu)特征作為細(xì)分類的特征提取方法。
(1)環(huán)數(shù)(H):字符中閉合曲線的個(gè)數(shù)。
(2)彎曲度(R):設(shè)字符中光滑曲線段的兩個(gè)端點(diǎn)為M(Mx,My)和N(Nx,Ny),這兩點(diǎn)所構(gòu)成線段為MN,曲線到線段MN垂直距離最遠(yuǎn)的點(diǎn)為T,對(duì)應(yīng)的投影點(diǎn)為P,點(diǎn)T到線段MN的距離Dtp和該線段長(zhǎng)度Dmn的比值為彎曲度R,則:
(3)交點(diǎn)數(shù)(E):在水平或垂直方向上掃描字符時(shí)與字符相交的次數(shù)。以左右上下水平垂直的首字母L、R、T、B、L、V與特征的組合表示具體提取的特征,如TR表示上筆畫彎曲度。
在二級(jí)分類識(shí)別中,分類器根據(jù)環(huán)數(shù)、彎曲度和交點(diǎn)數(shù)等結(jié)構(gòu)特征的邏輯組合對(duì)形近字進(jìn)行分類識(shí)別,得出的決策表如表1所示。例如,字符‘2’和‘Z’的差別在于上面橫筆畫的彎曲度;字符‘C’和‘G’的差別在于垂直交點(diǎn)數(shù)。
3.2細(xì)分類實(shí)驗(yàn)和分析
形近字符分為四組,每組選120個(gè)樣本做測(cè)試,形近字符的識(shí)別結(jié)果如表2所示。
表2中形近字符是否具有較高的識(shí)別率,在很大程度上取決于特征的選取。首先將形近字符分成不同的組,然后根據(jù)細(xì)微的差別提取不同的結(jié)構(gòu)特征,使得同一組中不同字符之間的細(xì)微差異能比較穩(wěn)定地體現(xiàn)出來(lái),這是正確識(shí)別形近字的關(guān)鍵。實(shí)驗(yàn)表明決策表可以很好地區(qū)分形近字符,達(dá)到二級(jí)細(xì)分類識(shí)別的要求。
4 實(shí)驗(yàn)結(jié)果
實(shí)驗(yàn)中的測(cè)試車牌圖像是由重慶易博數(shù)字有限公司研制的電子警察在高速公路收費(fèi)站拍攝的,總共采集了一天中不同時(shí)段的幾千幅車牌圖像,大部分為本市的車輛,所以車牌圖像中的漢字均相同。在測(cè)試時(shí),從這幾千幅車牌圖像中,總共選取1 200幅車牌圖像,并隨機(jī)分為3組作為實(shí)驗(yàn)中的測(cè)試車牌圖像,且僅統(tǒng)計(jì)英文字母和數(shù)字部分的識(shí)別率,最終的識(shí)別率以車牌牌照為單位進(jìn)行實(shí)驗(yàn),識(shí)別結(jié)果如表3所示。
本文算法在P4 2.80 GB、512 MB計(jì)算機(jī)上,用VC6. 0編程實(shí)現(xiàn),平均識(shí)別一個(gè)車牌需要0.3 s左右的時(shí)間。
本文在分析常用的車牌識(shí)別方法和人眼視覺(jué)活動(dòng)特點(diǎn)的基礎(chǔ)上,設(shè)計(jì)了一種由粗到細(xì)的二級(jí)識(shí)別算法,使車牌中易混的形近字符識(shí)別率得以提高。在特征提取方面將統(tǒng)計(jì)特征和結(jié)構(gòu)特征相結(jié)合,并對(duì)提取的輪廓特征進(jìn)行優(yōu)化,使其有效地克服了字符偏移的影響。引入可信度評(píng)判機(jī)制,提升了分類識(shí)別的靈活性和可靠性。從實(shí)驗(yàn)結(jié)果可以看出,本文的算法取得了較高的識(shí)別正確率,實(shí)時(shí)性好,可以滿足實(shí)際應(yīng)用的需要。
參考文獻(xiàn)
[1] 高勇.車牌識(shí)別系統(tǒng)中的字符分割與識(shí)別[D].合肥:安徽大學(xué),2007.
[2] HUANG R, TAWFIK H, NAGAR A K. License plate character recognition based on support vector machines with colonel Selection and Fish Swarm Algorithms[C]. International Conference on Computer Modeling and Simulation, 2009:101-106.
[3] 李琳,張曉龍. 基于RBF核的SVM學(xué)習(xí)算法的優(yōu)化計(jì)算[J].計(jì)算機(jī)工程與應(yīng)用,2006,29:190-192.