۱. مقدمه
در «بازشناسی چهره انسان» شما با دیدن تصویر یک فرد باید بگویید که این تصویر مربوط به کدام یک از افرادی است که قبلا دیدهاید.
این مسئله دو بخش دارد:
بخش آموزش: در این بخش شما افرادی را که میخواهید سیستم بشناسد با تصویر به اون میدهید.
بخش آزمایش: در این بخش اگر تصویری از یکی از افرادی که میشناسد را به سیستم بدهیم، سیستم باید او را به درستی به یاد بیاورد.
کارایی تشخیص چهره علاوه بر کاربردهای مرتبط با تعیین و مقایسه هویت نظیر کنترل دسترسی, امور قضایی, صدور مجوزها و مدارک هویتی و نظارت در زمینه هایی نظیر تعامل انسان و کامپیوتر, واقعیت مجازی بازیابی اطلاعات از پایگاه های داده, مالتی مدیا و سرگرمی های کامپیوتری به اثبات رسیده است.
این مسئله کاربردهای زیادی دارد. برای مثال اگر تعداد افرادی که آموزش میدهیم یک فرد باشد، میتوان از این سیستم به عنوان جایگزین رمز عبور برای رایانه استفاده کرد.
اگر برای مثال تصویر چهره مجرمها را به سامانه آموزش دهیم، میتوان از دوربینهای سطح شهر برای پیدا کردن مجرمها استفاده کرد.
یک سیستم تشخیص چهره متداول شامل سه مرحله زیر است :
کشف چهره (Face Detection)
استخراج الگوها (Feature Extraction)
تشخیص چهره (Face Recognition)
۱.۰.۱. چالش های پیش رو
شرایط ثبت تصویر نظیر وضعیت چهره نسبت به دوربین, نورپردازی, حالتهای چهره و تعداد پیکسلها در ناحیه چهره و همچنین روند پیر شدن انسان می تواند تغییرات زیادی را بر چهره انسان تحمیل کند. تغییرات دیگری هم ممکن است از طریق قیافه, پوشش هایی نظیر کلاه یا عینک آفتابی و موی صورت به وجود آید. همچنین افزایش سن, در برخی افراد باعث افزایش یا کاهش وزن می شود.
۱.۰.۲. الگوریتم ها
الگوریتمهای مختلفی برای تشخیص چهره وجود دارند که معمول ترین آنها عبارتند از: PCA - ICA - LFDA - EBGM - SVM - ...
الگوریتم مورد پیاده سازی ما برای این پروژه PCA خواهد بود.
۲. کارهای مرتبط
تا قبل از ارائه ی PCA برای تشخیص چهره, بیشتر کارها روی شناسایی ویژگی های بخشهای صورت مانند چشمها, بینی, دهان و ... و تعریف روابط بین این اعضا متمرکز بود. اما تحقیقات روی قدرت انسان در تشخیص چهره نشان داد که ویژگی های اعضای منفرد صورت و ارتباطات لحظه ای بین آنها برای شناخت مناسب چهره کافی نیست.
در سال 1966 bledsoe اولین کسی بود که یک روش نیمه اتوماتیک برای تشخیص چهره ارائه کرد. در این روش چهره ها بر اساس ویژگی هایی که به وسیله ی انسان علامت زده شده بود دسته بندی می شدند. اندکی بعد با کارهای انجام شده در آزمایشگاههای bell, یک بردار با بیش از 21 ویژگی (مانند عرض دهان, ضخامت لبها و ...) تو سعه داده شد. ویژگی های انتخاب شده عمدتاً حاصل ارزیابی های ذهن انسان بودند و پیاده سازی آنها کار مشکلی بود.
در سال 1989, Kirby and Sirovich یک روش جبری برای محاسبه ساده ی eigenface ها ارائه کردند.
در سال 1991 , [2] Turk and Pentland اثبات کردند که خطای مانده هنگام کدینگ eigenface ها می تواند برای دو منظوراستفاده شود:
تشخیص وجود چهره در یک عکس
تعیین محل تقریبی چهره در عکس
این دو نفر نشان دادند که با ترکیب دو مورد بالا, تشخیص بلادرنگ چهره ممکن است. این مطلب جرقه ی یک انفجار در تحقیقات تشخیص چهره بود. بعد از ارائه ی این روش مقالات زیادی بر مبنای آن به رشته ی تحریر درآمده که در ادامه به برخی از آنها اشاره میکنیم :
در مقاله ای از [3] Rajkiran Gottumukkal, Vijayan K.Asari روشی به نام Modular PCA ارائه شده است. با مقایسه ی این روش با روش PCA متداول, مشخص می شود که این روش با وجود تغییرات زیادی در جهت تابش نور وحالت چهره, نرخ بازشناسی بیشتری نسبت به PCA دارد. در این روش عکسها به دو دسته کوچکتر تقسیم می شوند و PCA روی هرکدام از این دو مجموعه به طور جداگانه اعمال می شود. این موضوع باعث می شود که تغییرات چهره از جمله تغییر در جهت تابش نور و حالت چهره, باعث تغییر ویژگی های موضعی چهره یک فرد نشود.
در مقاله ای از [4] Trupti M. Kodinariya با ترکیب الگوریتم PCA با چند الگوریتم دیگر یک روش ترکیبی ارائه شده است.
سیستم تشخیص چهره در دو حالت کار می کند : تمرین و دسته بندی.
حالت تمرین شامل نرمال سازی و استخراج ویژگی از تصاویر با استفاده از الگوریتم PCA, ICA می باشد. . سپس ویژگی هایاستخراج شده, با استفاده از BPNN ها (back propagation neural network) تمرین داده می شوند تا فضای ویژگی ها به کلاسهای متفاوت دسته بندی شوند.
در حالت دسته بندی,عکسهای جدید به نتایج حاصل از حالت تمرین اضافه می شوند. یک روش ترکیب کننده, روی نتایج بخش تمرین اعمال می شوند تاعکسهای جدید برحسب کلاسهای ایجاد شده دسته بندی شوند.
در مقاله ای از احمد محمودی, روشی با نام PCA چند لایه[5] ارائه شده است. در این روش برای محاسبه ی مولفه های اصلی از یک شبکه عصبی خطی استفاده شده است, که علاوه بر کاهش حجم مورد نیاز برای محاسبات, طراحی سخت افزار آن بسیارساده تر خواهد بود. همچنین با توجه به قابلیت های شبکه عصبی در پردازش موازی, سرعت انجام محاسبات افزایش چشم گیری داشته است.
منظور از واژه ی چند لایه در این مقاله این است که برای بازشناخت چهره ی یک فرد, ابتدا چند چهره که بیشترین شباهت به این چهره را دارند استخراج شده, آنگاه در مرحله ی بعد فرایند پیشنهادی در بین چهره هایی که بیشترین امتیاز شباهت را دارا میباشند ادامه داده شود. با توجه به این که دامنه ی جستجو محدودتر شده, انتظار می رود که نتایج بدست آمده دقیق تر باشد.
در مقاله ای از داود ساریخانی, روشی با استفاده از الگوریتم های PCA, LDA و شبکه های عصبی [6] پیشنهاد شده است.روش ارایه شده دارای چهارقسمت پردازشی زیراست:
بخش پیش پردازش شامل یکنواخت سازی هیستوگرام و نرمالیزه کردن تصاویر
بخش کاهش بعد فضا به کمک PCA
استخراج ویژگیها با استفاده از LDA برای جداسازی کلاس ها و تفکیک پذیری چهره ها
استفاده از شبکه عصبی به منظور طبقه بندی چهره ها و اعلام هویت چهره
۳. الگوریتم Principal Component Analysis) PCA):
این روش در سال 1991 توسط Turk & Pentland پیشنهاد شد که از تحلیل المانهای اصلی یا همان PCA برای کاهش بعد استفاده کرده تا بتواند زیرفضایی با بردارهای متعامد پیدا کند که در آن زیرفضا پراکندگی داده ها را به بهترین حالت نشان دهد. این زیرفضا را هنگامی که بر روی داده های چهره اعمال شوند، فضای چهره میگویند. پس از مشخص شدن بردارها تمامی تصاویر به این زیر فضا منتقل میشوند تا وزنهایی که بیانگر تصویر در آن زیرفضا هستند بدست آیند. با مقایسه شباهت وزنهای موجود با وزن تصویر جدیدی که به این زیر فضا منتقل شده میتوان تصویر ورودی را شناسایی کرد.
با نمایش بردار ی چهره ی انسان که توسط کنار هم قرار دادن سطرهای ماتریس تصو یر حاصل می شود می توان چهره ی انسان را برداری در فضایی با ابعاد بالا در نظر گرفت. با توجه به خصوصیات مشابه چهره ها، می توان نتیجه گرفت که بردار چهره ها در ز یرفضایی با ابعاد پایین تر واقع شده اند. با نگاشت چهره به این زیر فضا می توان تصاو یر پایه ی جدیدی به دست آورد که هر چهره با کمک این بر دارهای پایه توصیف می شود. در واقع هر چهره ترکیب خطی این تصاو یر پایه می باشد .ضرایب این ترکیب خطی به عنوان بردار خصیصه مورد استفاده قرار می گیرند.
در این روش یک تصویر با ابعا n*m به یک بردار با nm مولفه تبدیل می شود. یعنی می توان عکس را به صورت نقطه ای در فضای nm بعدی تصور کرد.
هدف PCA یافتن بردارهایی است که به بهتر ین نحو ممکن کار شناسایی ز یر فضا را انجام دهند. این بردارها فضای چهره را تعریف می کنند. از آن جایی که این بردارها، بردار ویژه ی ماتر یس همبستگی مربوط به تصاویر چهره می باشند و به دلیل شباهت به چهره یانسان، آن ها را eigenface می نامند.
۳.۰.۱. محاسبه ی eigenface ها
اگر مجموعه ی عکس های ورودی را ماتریسهای
در نظر بگیریم, میانگین چهره ها به صورت زیر محاسبه می شود:البته همان طور که در بخش قبل گفته شد در این روش یک تصویر با ابعا n*m به یک بردار با nm مولفه تبدیل می شود. یعنی ما یک عکس را به صورت یک بردار سطری یا ستونی با nm مولفه در نظر می گیریم. تمامی فرمول های ذکر شده در این الگوریتم با این فرض است که ماتریس تصویر را به صورت یک بردار ستونی درنظر گرفته ایم.
تفاوت هر تصویر از میانگین به صورت زیر محاسبه می شود:
بردار Uk به نحوی انتخاب می شود که مقدار λk ماکزیمم شود:
البته با فرض زیر:
بردارهای Uk و λk به ترتیب بردارهای ویژه و مقادیر ویژه ی ماتریس همبستگی می باشند.ماتریس همبستگی از رابطه ی زیر محاسبه می شود :
یعنی می توان با استفاده از ماتریس کوواریانس نیز به بردار و مقدار ویژه رسید.
بردار U همان بردار eigenface میباشد. نمونه ای از آنرا در تصویر زیر مشاهده می کنید :
همان طور که مشاهده می کنید, بردار ویژه در واقع شامل عکسهایی با همان ابعاد عکس های ورودی می باشد که شبیه به شبح هستند.
۳.۰.۲. بخش بازشناسی چهره
برای تشخیص اینکه یک عکس جدید مربوط به کدام یک از عکسهایی که سیستم با آن تمرین داده شده است, می باشد باید تمام عکسهایی که سیستم با آن تمرین داده شده است و عکس جدید را به فضای چهره نگاشت کنیم.
اگر هر یک از این عکسها را \Gamma بنامیم آنگاه طبق فرمول زیر می توان عکس را به فضای چهره نگاشت کرد:
سپس بردار وزنها را تشکیل می دهیم:
حالا می توانیم تعیین کنیم که عکس ورودی متعلق به کدام کلاس است. یکی از راههایی که برای این کار وجود دارد این است که بردار وزنهای عکس وردی را با بردار وزنهای عکسهایی که قبلاً به سیستم آموزش داده شده بودند مقایسه کنیم.برای این کار می توانیم از فاصله ی اقلیدسی مانند زیر استفاده کنیم :
یعنی ما به تعداد عکسهایی که سیستم با آن تمرین داده شده اند, \epsilon داریم.
اگر مقدار \epsilon از یک مقدار از پیش تعیین شده کمتر بود, آنگاه تصویر ورودی یک تصویر شناخته شده است.اگر بیشتر بود و از یک مقدار دوم کمتر بود آنگاه تصویر ورودی یک شخص ناشناس است. اما اگر از هر دو مقدار بزرگتر بود تصویر ورودی چهره نیست!
اما پس از تشخیص اینکه تصویر ورودی یک تصویر شناخته شده است, برای اینکه تشخیص بدهیم که این عکس مربوط به چه کسی است باید مقدار \epsilon ها را با هم مقایسه کنیم. واضح است که عکس ورودی مربوط به عکسی است که فاصله ی آنها (\epsilon) کمتر از سایر عکسها باشد.
۳.۱. بهبود محاسبه ی بردارهای ویژه ی ماتریس کوواریانس
فرض کنید n عکس با اندازه ی x*y داریم. پس از تغییر شکل عکسها به یک بردار, اندازه ی ماتریس شامل بردارها, n*xy خواهد بود. پس از بدست آوردن اختلاف هر عکس با میانگین عکس ها, بردار A با اندازه ی n*xy به وجود می آید.
طبق رابطه ی کوواریانس, اندازه ی ماتریس کوواریانس xy*xy خواهد بود. برای درک این اندازه, فرض کنید که ابعاد عکس ورودی, 100x100 پیکسل باشد. طبق محاسبات بالا اندازه ی ماتریس کوواریانس 10000x10000 خواهد بود. یعنی باید 100 میلیون نقطه را ذخیره کرد که این کار به حدود 0.8 گیگا بایت حافظه نیاز دارد! درضمن محاسبه ی یک ماتریس با این حجم به زمان زیادی نیز نیاز دارد.
برای حل این مشکل از یک قضیه ی ریاضی استفاده می کنیم. این قضیه بیان می کند که بردارهای ویژه ی ماتریس A*A^T با بردارهای ویژه ی ماتریس
A^T*A یکسان است. یعنی ما می توانیم از ماتریس A^T*A استفاده کنیم که یک ماتریس n*n (n تعداد عکسهای ورودی است) می باشد و حجم محاسبات آن به شدت کمتر از یک ماتریس xy*xy می باشد.
۴. آزمایشها
برای آزمایش این سیستم نیاز به یک مجموعه عکس استاندارد داریم. برای این کار از مجموعه داده ی AT&T متعلق به دانشگاه کمبریج استفاده می کنیم.
برای مثال 25 عکس از این مجموعه انتخاب می کنیم:
همانطور که توضیح داده شد یکی از مراحل الگوریتم محاسبه ی میانگین تصاویر وروری است. میانگین 25 تصویر بالا را در عکس زیر می بینید:
بردارهای ویژه (eigenface) ی بدست آمده از عکسهای بالا را در تصویر زیر می بینید:
برای آزمایش نرخ تشخیص چهره, 25 عکس جدید که مربوط به همان افرادی می شدند که در بالا مشاهده کردید به سیستم داده شد. که حدود 50 درصد از آنها به درستی شناسایی شدند که با توجه به اینکه از هر فرد تنها یک عکس برای تمرین به سیستم داده شده بود, قابل قبول به نظر می رسد.
۵. کارهای آینده
۶. مراجع
[1].Moon, P.J. Phillips, Computational and Performance aspects of PCA-based Face Recognition Algorithms, Perception,
30 Vol.
[2].M. Turk, A. Pentland, Eigenfaces for Recognition, Journal of Cognitive Neurosicence, Vol. 3, No. 1, 1991
[3]. Gottumukkal, Rajkiran and Asari, Vijayan K.. An improved face recognition technique based on modular PCA approach. . In Pattern Recognition Letters, (25) 4: 429-436, Year 2004 .
[4] . Trupti M. Kodinariya: Hybrid Approach to Face Recognition System using Principle component and Independent component with score based fusion process. CoRR abs/1401.0395 (2014)
[5]. محمودی ازناوه، احمد، فرح ترکمنی آذر، و آزاده منصوری، 1385، بازشناخت چهره با استفاده از PCA چند لایه و شبکه ی عصبی خطی، دوازدهمین کنفرانس سالانه انجمن کامپیوتر ایران، تهران، دانشگاه شهید بهشتی، http://www.civilica.com/Paper-ACCSI12-ACCSI12_185.htm
[6]. ساریخانی مقدم، داود، 1390، تشخیص چهره به کمک الگوریتم های PCA LDA و شبکه های عصبی، دومین همایش سراسری فن آوری اطلاعات و ارتباطات، ملایر، دانشگاه آزاد اسلامی واحد ملایر، http://www.civilica.com/Paper-NCICT02-NCICT02_037.html
[7].A. Pentland, B. Moghaddam, T. Starner, View-Based and Modular Eigenspaces for Face Recognition, Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 21-23 June 1994, Seattle, Washington, USA
[8]. http://www.pages.drexel.edu/~sis26/Eigenface%20Tutorial.htm