2007年10月11日 星期四

探究影像辨識裡的臉部偵測技術(二)

http://compotechasia.blogspot.com/2007/10/blog-post_321.html

作者:鍾慶豐

一、模版配對(template matching)
模板配對方法,顧名思義便是需要一個標準模板的存在,以利系統比對之用。因此在模版配對的方法裡,首先需要先建立一個標準的臉部樣本。此標準臉部樣本,往往是以預先定義或參數化的函數來描述。而在輸入影像與標準模版之間的比對方式,大多採用臉部輪廓、眼、鼻孔(鼻)或嘴唇等部位分別給分的方式為之,這些給分的加總便稱為「關聯值(correction values)」。

對一個給定的輸入影像,系統是否會判別其中存有臉部區域的關鍵,決定於我們對這些關聯值門檻高低的限制。利用門檻值的優點有兩個,第一、系統靈敏度可依據實際需要作適當調整;第二、實作上比較簡單。但這種方式亦有缺點,其種兩個最為人所詬病者是「應用彈性受限」以及「好的臉部樣本定義困難」。前者主要導因於輸入影像必須要能與標準模版比對,因此對輸入影像之解析度、影像大小、人員姿勢以及每個人臉部差異都有一定的嚴格限制。如使用非定式的輸入影像,則會使系統變得沒有效率;而後者的問題在於無法使用一個完美的參數定義來描述一個完美得標準臉部,且事實上,完美的標準臉部模版不一定適用於實際狀況。

正如目前大家均認同沒有一種色彩,可以適用於任何色彩資訊的表示一樣。為瞭解決上述兩個主要缺點,一些改良方案陸續被提出討論,其中包含多解析度概念、多尺度影像的使用、影像可變形的設計以及利用次模版(subtemplates)來捕捉例外的方法…等等均是可行之道。

(一)預定義模版(predefined templates)
預先定義一個模板,之後再以其為比對依據作為偵測臉部的方法,這種利用模版當作臉部定位依據的研究非常普遍,A. Samal及 P. A. Iyengar(1995)便曾以臉部在背景中的輪廓來作為臉部定位模版。其用來自臉部樣本中取得臉部輪廓(通常是位元陣列 (an array of bits))的集合方法是利用PCA轉換為之,並且這些本徵輪廓(eigen-silhouettes)會被用一般化的霍夫轉換(Hough transform)來做為臉部定位之用。同年Y. Sumi及Y. Ohta亦提出了多臉部元件的偵測方式,在他們的方法裡,其定義了許多可能出現的臉部特徵假設。對一個現存可能會是臉部區域的假設集合,其會經由Dempster-Shafer理論加以定義成假設集合中的臉部元件。給定一個輸入影像,特徵偵測器會計算目前已存在的臉部特徵之信賴因子(confidence factors),例如:存在其他臉部特徵或不存在其他臉部特徵。這些信賴因子的測量結果(信賴與不信賴部分),會被綜合起來考量,以對該區域投下信賴或不信賴投票。

事實上,關於臉部偵測的研究起源甚早,在1969年時T.Sakai與M. Nagao等人便嘗試從圖片中去偵測人臉的存在。當時他們所使用的方法,是利用數個預先建立的臉部特徵子樣本(子樣本包含:臉的輪廓、眼、鼻、口…等特徵樣本),來使系統比對影像(實際上是比對影像線段)以尋找可能的臉部區域。當時每個子樣本的定義都是以線段為之,而擷取輸入影像的線段的方法乃依據最大梯度改變(greatest gradient change, GGC)規則。

為了偵測影像中是否存有臉部區域,電腦首先會先計算這些子影像與輪廓之間的關聯性係數,一旦符合臉部輪廓的存在,系統便會接著偵測這些候選區域上是否存在其他子樣本的受測物以進一步驗證候選區域的正確性。在他們提議的系統裡面,其運作可分成數個不同階段。簡要的說,便是先偵測是否有ROI區域存在,如果有,系統才會接著對這些ROI區域進行其他臉部細部特徵的偵測。很顯然的,這種運作方式對後人的研究起了很大的影像(因為很多系統運作均採用兩階段或三階段運作),例如:1987年I. Craw、H. Ellis及J. Lishman所提出的形狀模版(shape templates)方式的前視(frontal-view)臉部定位技術,或之後1989年V. Govindaraju等人的線段對稱或邊界特徵的研究…等等均是此方面例子。

在Craw等人的方法裡面,其先使用Sobel濾器(Sobel filter)來擷取影像的邊界並將之群組化起來,隨後並搜尋其中是否存在樣本所定義的一些臉部特徵。而定位方式是有先後順序的,一旦頭部外型(head contour)被定位後,相同的處理方式會繼續定位其他臉部特徵的所在,例如:眼、眉毛、嘴唇…等,這些工作可由模式特徵偵測器(template-based feature detectors)來完成,此控制器具有一組控制策略(control strategy)並可存取樣本臉部特徵以方便影像線段的比對。

基於不同的特徵基礎具有不同變異性,其使用的偵測方法亦有所差異。即使是相同特徵,也可能有許多不同的擷取方式。例如:邊界的擷取,Craw等人是使用Sobel濾器來完成工作;但Govindaraju則是使用Marr-Hildreth邊界運算子(edge oprators)來取得輸入影像之邊界地圖(edge map)。A. Tsukamoto等人提出了臉部模版的定性模型(qualitative model),簡稱「臉部模式量化模型(qualitative model of face pattern, QMF)」。在他們的提議裡,每一個樣本影像會被切割為數個區域,系統並會對這些區塊進行量化特徵的評估。為使臉部模型得以參數化,其預定了一些光照與邊界的特徵。之後每一個區塊模型會經由計算其內的特徵成分(臉部特徵)來做為未來評估是否為臉部區塊的依據,如果每一個特徵的成分總和高於臨界值,則該區塊就會被認為是臉部區塊。
另外,P. Sinha利用一個小的空間影像不變性集合,來描述臉部特徵模版的空間問題。其在不變性的觀察上面,主要關鍵在於不同光照的改變,其臉部各區域的不同亮度部分,以「相對」的計測方式來偵測這些部分的相對改變。利用偵測這些少數區域亮度的改變或維持比例,以其改變的方向性(例如:本區比隔壁區亮或暗)作為提供一個強固的不變性區域。這些被觀察到的亮度調整會被編碼成一個比例模版 (ratio templates),這些比例模版便被視為代表一個粗糙臉部的空間模版。在這些模版中,其亦可能存在其他次區域(subregion),這些次區域往往反映出臉部的其他重要關鍵特徵(如:眼睛)。對一個臉部區間的亮度限制要求,可經由適當的(亮、暗)配對來加以捕捉。如果所有的配對都滿足我們設定的限制要求,則系統便判定該影像中存有臉部存在。事實上,Sinha的方法已被應用在主動式機器視覺上。

圖2、由16區塊組成的Sinha強化版本,其共有23條強化關係被定義。這些強化關係可再分成基本關係(essential relations)(實線部分)與確認關係(confirming relations)(虛線部分)。

圖2是M. H. Yang等人揭示的Sinha強化版本圖示,其共有23條強化關係被定義。此23條強化關係可分成兩大類,一個是基本關係 (essential relations),一個是確認關係(confirming relations)。從圖中我們可以看出基本關係有11條(實線箭頭)而確認關係有12條(虛線箭頭),圖中的鄰近區塊具有鄰近關係存在,但其增強的關係並不限於鄰近區塊。每一種關係若要成為臉部模版候選區域,其必須要滿足我們所設定的比例門檻。而一旦有足夠多的關係可以滿足我們所設定的比例門檻時,則便判定影像中存有臉部區域存在。

後續段落一覽:
變形模版(deformable templates)
表象法(appearance-based methods)

深入了解詳細全文:探究影像辨識裡的臉部偵測技術(二)

更多由COMPOTECH Asia自製的影片:都在Yahoo!影片分享--CTOV On Demand

還沒成為COMPOTECH Asia網站的免費讀者嗎? 立即註冊

對文章有任何疑問或是意見嗎?歡迎在下方留下您的想法

近一步瞭解其他資訊:
COMPOTECH Asia 電子與電腦資訊網
CTOV Online Video

沒有留言:

近期文章

Loading...