Anda di halaman 1dari 95

Rpublique Algrienne Dmocratique et Populaire

Universit Mouloud MAMMERI de TIZI-OUZOU (UMMTO)


Facult de Gnie Electrique et dInformatique
Dpartement dElectronique

Mmoire de Magister en Electronique


Option : Tldtection
Prsent par :
BOUDJELLAL Sofiane
Thme

Dtection et identification de personne par mthode


biomtrique

Devant les membres du jury :


Prsident :

Mr.

Soltane

Professeur

UMMTO

Rapporteur :

Mme. AMEUR

Zohra

M.C.A

UMMTO

DIAF

Moussa

Professeur

UMMTO

Mr.

HADDAB

Salah

M.C.A

UMMTO

Mr.

LAHDIR

Mourad

M.C.A

UMMTO

Examinateurs : Mr.

AMEUR

Remerciements
Je tiens remercier sincrement Madame Ameur, qui, en tant que Directrice
de ce mmoire, s'est toujours montre l'coute et trs disponible tout au long
de la ralisation de ce mmoire de Magister, ainsi pour l'inspiration, l'aide et
le temps qu'elle a bien voulu me consacrer. Je tiens exprimer toute ma
reconnaissance Monsieur AMEUR Soltane, Professeur lUMMTO et
directeur du laboratoire de recherche LAMPA, pour lhonneur quil me fait
de prsider mon jury de thse, Aussi je remercie vivement Monsieur DIAF
Moussa Professeur lUMMTO, Monsieur LAHDIR Mourad Matre de
confrences lUMMTO et Monsieur HADDAB Salah Matre de confrences
lUMMTO, membres du jury, pour leur minente contribution lvaluation
de ce projet.
Enfin, j'adresse mes plus sincres remerciements tous mes proches et
amis, qui m'ont toujours soutenu et encourag au cours de la ralisation de ce
travail.
Merci toutes et tous.

Ddicaces
A mon pre, ma mre
A mon frre et surs
A ma femme et sa famille
A la mmoire de mes grands parents
A tout mes amis (es)
A tout mes matres et professeurs : du primaire au suprieur
A tous ceux qui ont contribu au dveloppement des sciences en
gnral et de llectronique en particulier

Table des matires


Introduction gnrale ............................................................................................................ 1

CHAPITRE I : LA BIOMETRIE
I.1. Prambule ....................................................................................................................... 3
I.2. La biomtrie .................................................................................................................... 3
I. 2.1. Dfinition ................................................................................................................. 3
I.3. Le march mondial de la biomtrie ..................................................................................... 4
I.4. Les parts de march par technologie ................................................................................. 5
I.5. Les techniques biomtriques ............................................................................................. 5
I.5.1. Lanalyse morphologique (physiologique)...................................................................... 5
I.5.2. Lanalyse comportementale ......................................................................................... 5
I.6. Architecture dun systme biomtrique .............................................................................. 6
I.6.1. Module dapprentissage ............................................................................................. 6
I.6.2. Module de reconnaissance ......................................................................................... 6
I.6.3 .Module dadaptation.................................................................................................... 7
I.7. Prsentation de quelques technologies biomtriques ......................................................... 8
I.7.1. Les empreintes digitales ........................................................................................... 8
I.7.2. La voix ..................................................................................................................... 9
I.7.3. Liris ........................................................................................................................ 9
I.7.4. La signature ........................................................................................................... 10
I.7.5. La gomtrie de la main ......................................................................................... 10
I.7.6. Le visage ............................................................................................................... 11
I.8 .Reconnaissance du visage .............................................................................................. 12
I.8.1. Approches globales ................................................................................................ 13
I.8.2. Mthodes locales .................................................................................................... 15
I.8.3. Mthodes hybrides ................................................................................................. 16
I.9. Principales difficults de la reconnaissance de visage ..................................................... 16
I.9.1. Changement dillumination ...................................................................................... 16
I.9.2. Variation de pose ................................................................................................... 17

Table des matires


I.9.3. Expressions faciales ............................................................................................... 17
I.9.4. Prsence ou absence des composants structurels ................................................... 17
I.9.5. Occultations partielles ............................................................................................ 18
I.10. Evaluation de performance ............................................................................................ 18
I.10.1. Evaluation de lidentification ................................................................................. 18
I.10.2. Evaluation de la vrification ................................................................................. 18
I.11 Discussion ..................................................................................................................... 20
CHAPITRE II : TECHNIQUES DE DETECTION ET DE RECONNAISSANCE DE VISAGES
II.1. Prambule ..................................................................................................................... 21
II.2. Dtection de visages ...................................................................................................... 21
II.3. Approches de la dtection de visage .............................................................................. 21
II.3.1. Approches bases sur lapparence .......................................................................... 21
II.3.2. Approches bases sur les connaissances acquises ................................................. 22
II.3.3 Approches bases sur le Template-matching ...................................................... 22
II.3.4 Approches bases sur des caractristiques invariantes ............................................. 24
II.3.4.1 Mthodes bases sur les caractristiques du visage ...................................... 24
II.3.4.2. Mthodes bases sur lanalyse de la couleur de la peau ............................... 24
II.4. Prtraitement ................................................................................................................. 25
II.4.1 Normalisation Photomtrique ............................................................................... 26
II.4.2. Normalisation gomtrique ................................................................................... 27
II.5. Les algorithmes de reconnaissance de visage ................................................................ 28
II.5.1. Dimensionnalit de l'espace visage ....................................................................... 28
II.5.2. Analyse en Composantes Principales .................................................................... 28
II.5.2.1. Prsentation ................................................................................................ 28
II.5.2.2. Le processus de reconnaissance (Karhunen-Loeve) .................................... 29
II.5.3. Analyse Discriminante Linaire .............................................................................. 30
II.5.3.1. Prsentation ............................................................................................. 30

Table des matires


II.5.4. DF-LDA ............................................................................................................... 31
II.5.5. Analyse en Composantes Indpendantes ................................................................ 33
II.5.6. Le rseau de neurones .......................................................................................... 35
II.5.6.1. Introduction ................................................................................................ 35
II.5.6.2. Le rseau de neurones LVQ ....................................................................... 36
II.5.7. Machine vecteurs de support ............................................................................. 37
II.5.7.1. Le principe de SVM ................................................................................. 37
II.5.7.2. La sparation optimale .............................................................................. 37
II.5.7.3. Le concept d'hyperplan ............................................................................. 37
II.5.7.4. La classification linaire ........................................................................... 38
II.5.7.5. La classification non linaire

.................................................................. 39

II.5.8. Modle de Markov cach ..................................................................................... 39


II.5.9. Mthodes bases sur lapparence locale .............................................................. 40
II.5.9.1. ACP modulaire .......................................................................................... 40
II.5.10. Template matching ............................................................................................ 40
II.5.10.1. Lalgorithme du template matching ........................................................... 41
CHAPITRE III : RECONNAISSANCE DE VISAGE PAR EIGENFACE
III.1. Prambule ................................................................................................................... 42
III.2. Prsentation de la mthode Eigenface .......................................................................... 42
III.2.1. Choix du nombre de vecteurs propres .................................................................. 44
III.2.2. Utilisation des Eigenfaces pour la classification des images visage ........................ 46
III.2.3. Rsum de la mthode ........................................................................................ 47
III.3. Mesures de Distance .................................................................................................... 48
III.3.1. Distances Euclidiennes .......................................................................................... 48
III.3.1.1 Distance City Block (L1) .............................................................................. 48
III.3.1.2 Distance Euclidienne (L2) ............................................................................ 48

Table des matires


III.3.2. Distances dans lEspace de Mahalanobis ............................................................... 49
III.3.2.1. De lespace des images lespace de Mahalanobis ..................................... 49
III.3.2.2. Mahalanobis L1 (MahL1) .............................................................................. 50
III.3.2.3. Mahalanobis L2 (MahL2) .............................................................................. 50
III.3.2.4. Cosinus de Mahalanobis (MahCosine) ............................................................ 50
III.3.3. Choix de la distance de similarit ............................................................................. 51
III.4. Organigramme dtaill de lapproche Eigenface ............................................................. 51
III.4.1. Organigramme du prtraitement ............................................................................. 52
III.4.2. Organigramme de la phase dapprentissage ........................................................... 53
III.4.3. Organigramme de la phase didentification ............................................................. 54
III.5. Les bases de donnes de visage ................................................................................... 55
III.5.1 AT&T ..................................................................................................................... 55
III.5.2 FEI ......................................................................................................................... 55
III.5.3. MUCT ................................................................................................................... 56
III.5.4. CVSRP .................................................................................................................. 56
CHAPITRE IV : TESTS ET RESULTATS
IV.1. Preambule .................................................................................................................... 58
IV.2 Environnement du travail .............................................................................................. 58
IV.2.1 Environnement matriel ......................................................................................... 58
IV.2.2. Outils de dveloppement ....................................................................................... 58
IV.2.2.1. Matlab 7.12.0 (R2011a) .............................................................................. 58
IV.3. Prsentation de lapplication ......................................................................................... 58
IV.3.1. Interface Prsentation ............................................................................................ 58
IV.4. Dmarche suivre pour la reconnaissance faciale ........................................................ 61
IV.5. Fonctionnement du systme .......................................................................................... 63

Table des matires


IV.5.1. Phase dapprentissage .......................................................................................... 63
IV.5.2. Phase didentification ............................................................................................ 64
IV.6. Dtermination du seuil didentification ........................................................................... 65
IV.7. Evolution du taux didentification suivant le changement de poses et dclairages .......... 70
IV.7.1. Le changement de pose ......................................................................................... 70
IV.7.2. Le changement des conditions dclairages ............................................................ 72
IV.8. Temps dexcution ........................................................................................................ 73
IV.9. Lamlioration des performances de PCA ....................................................................... 75
IV.9.1. Les conditions optimales de pose et dclairage .................................................... 75
IV.10. Avantages et inconvnients du systme ....................................................................... 76
IV.11. Discussion ................................................................................................................. 77
Conclusion gnrale ............................................................................................................. 78

Introduction

Introduction
De nos jours on parle de plus en plus de l'inscurit dans divers secteurs ainsi
que des moyens informatiques mettre en uvre pour contrer cette tendance. La vrification
et lidentification des individus est lun des moyens permettant dassurer cette scurit. Ltre
humain se sert quotidiennement de son systme visuel pour identifier les personnes de faon
automatique, bien que le processus mis en jeu soit complexe.
lhomme a mis en place des moyens de vrification didentit qui sont lis, soit ce
que possde une personne telle quune carte didentit ou un passeport, soit ce que sait cette
personne, cest le cas du mot de passe ou un code PIN. Nanmoins, ces lments peuvent tre
oublis, vols ou falsifis. Pour contourner ces limitations, un autre moyen de scurit a t
dvelopp qui permet dutiliser, non pas linformation quun individu possde ou connat,
mais une information (propre) intrinsque cette personne. Cette nouvelle faon
didentification des individus est la biomtrie.
Les caractristiques biomtriques sont une solution alternative aux anciens moyens de
vrification didentit. Lavantage de ces caractristiques biomtriques est dtre universelles,
cest--dire prsentes chez toutes les personnes identifier. Dautre part, elles sont
mesurables et uniques : deux personnes ne peuvent pas possder exactement la mme
caractristique. Elles sont aussi permanentes ce qui signifie quelles ne varient pas ou peu au
cours du temps.
Pour que des caractristiques collectes puissent tre qualifies de modalits
biomtriques, elles doivent tre :
universelles (exister chez tous les individus),
uniques (permettre de diffrencier un individu par rapport un autre),
permanentes (autoriser lvolution dans le temps),
enregistrables (collecter les caractristiques dun individu avec son accord),
mesurables (autoriser une comparaison future).
Lintrt principal de la biomtrie est donc de reconnatre et didentifier
automatiquement les identits des individus en utilisant leurs caractristiques physiologiques
ou comportementales. Les caractristiques physiologiques peuvent inclure le visage, liris, les
empreintes, la gomtrie de la main. Les caractristiques comportementales incluent la voix,
la signature, la dmarche etc.
Dans ce mmoire, nous nous intressons la biomtrie du visage qui possde
beaucoup davantages tels que, la facilit dutilisation, lacceptation par lutilisateur (car elle
est non intrusive) et le faible cot. Ainsi, la reconnaissance du visage est dj intgre dans
des systmes de scurit biomtriques utilisant un certain nombre dalgorithmes classiques.
La difficult de la reconnaissance de visage par ordinateur varie normment suivant
que les conditions dacquisition. Dans un environnement contrl, des paramtres tels que
larrire-plan, la direction et lintensit des sources lumineuses, langle de la prise de vue, la
distance de la camra au sujet sont des paramtres matriss par le systme. Dans un
1

Introduction

environnement non contrl, une srie de prtraitements sont souvent ncessaires avant de
faire la reconnaissance proprement dite.
Les travaux de ce mmoire sinscrivent dans un contexte global de recherche et
dveloppement de dalgorithmes pour la reconnaissance de visages. Ainsi, au cours de ce
mmoire, nous aurons concevoir un systme de reconnaissance facial avec la mthode
Eigenface qui se base sur une analyse en composante principale. LACP est une mthode
mathmatique qui peut tre utilise pour simplifier un ensemble de donnes, en rduisant sa
dimension. Elle est utilise pour reprsenter efficacement les images de visages, qui peuvent
tre approximativement reconstruites partir dun petit ensemble de poids et dune image de
visage standard.
Nous avons choisi darticuler notre tude autour de quatre chapitres principaux.
Le premier chapitre est consacr la prsentation gnrale de la biomtrie. Il dcrit le
principe de fonctionnement des systmes biomtriques puis dfinit les outils utiliss pour
valuer leurs performances. Ensuite, la place de la reconnaissance faciale parmi les autres
techniques biomtriques est analyse. A travers ce chapitre, nous voulons positionner le
problme de la reconnaissance faciale et prsenter ses enjeux et intrts par rapport aux autres
techniques. Nous tudions galement les principales composantes dun systme de
reconnaissance faciale, notamment la dtection, lextraction de caractristiques et la
reconnaissance. Enfin, nous mettons en lumire les difficults rencontres par les systmes de
reconnaissance de visage.
Dans le second chapitre une analyse dtaille des diffrentes techniques dveloppes
au cours de ces dernires annes dans les domaines de la dtection de visage et de la
reconnaissance est prsente. Notre objectif est de classifier ces mthodes de manire efficace
afin de mettre en vidence les particularits ainsi que les avantages et les inconvnients de
chacune dentre elles. Ceci nous permettra, par la suite, de mettre en avant les critres de
performances qui vont guider le choix des solutions retenues dans le cadre de notre
problmatique. Nous voquerons aussi la normalisation gomtrique des images des visages
et les diffrentes normalisations photomtriques.
Dans le troisime chapitre nous prsenterons notre algorithme qui se base sur une
analyse en composante principale, qui est une mthode mathmatique qui peut tre utilise
pour simplifier un ensemble de donnes, en rduisant sa dimension. Elle est utilise pour
reprsenter efficacement les images de visages, qui peuvent tre approximativement
reconstruites partir dun petit ensemble de poids et dune image de visage standard. Nous
verrons plusieurs approches pour amliorer les performances de PCA, puis nous prsentons
les bases donnes utilises dans le cadre de ce mmoire, FEI, CVSRP, AT&T, IFW et
MUCT.
Dans le quatrime chapitre nous prsenterons notre interface graphique qui a t cr
laide du GUI (Graphical User Interface) sous Matlab, nous analyserons les rsultats des tests
effectus sur plusieurs bases de donnes sous diffrentes conditions.
En conclusion, nous rcapitulerons les principales contributions de ce mmoire avant
dexposer les perspectives envisages.
2

Chapitre I
La biomtrie

Chapitre I

La biomtrie

I.1 Prambule
Les systmes biomtriques sont de plus en plus utiliss depuis quelques annes.
Lapparition de lordinateur et sa capacit traiter et stocker les donnes ont permis la
cration des systmes biomtriques informatiss. Il existe plusieurs caractristiques
physiques uniques pour un individu, ce qui explique la diversit des systmes appliquant la
biomtrie, selon ce que lon prend en compte :
Lempreinte digitale
La gomtrie de la main
Liris
La rtine etc
Nous allons voir dans ce chapitre les principales technologies biomtriques, puis nous allons
nous focaliser sur les systmes de reconnaissances faciales, leurs avantages et les problmes
lis leurs applications.
I.2. La biomtrie
I.2.1. Dfinition
La biomtrie peut tre dfinie comme tant la reconnaissance automatique d'une
personne en utilisant des traits distinctifs. Une autre dfinition de la biomtrie est toutes
caractristiques physiques ou traits personnels automatiquement mesurables, robustes et
distinctives qui peuvent tre utilises pour identifier un individu ou pour vrifier l'identit
prtendue d'un individu [1].
La biomtrie consiste en lanalyse mathmatique des caractristiques biologiques dune
personne et a pour objectif de dterminer son identit de manire irrfutable. Contrairement
ce que lon sait ou ce que lon possde la biomtrie est base sur ce que lon est et permet
ainsi dviter la duplication, le vol, loubli ou la perte.
Un systme biomtrique peut avoir deux modes opratoires [4] :
Lidentification, elle permet dtablir lidentit dune personne partir dune base de
donnes, le systme biomtrique pose et essaye de rpondre la question, qui est la
personne X ? , il sagit dune comparaison du type un contre plusieurs (1:N).
La vrification ou lauthentification, le systme biomtrique demande lutilisateur
son identit et essaye de rpondre la question, est-ce la personne X? . Dans une
application de vrification l'utilisateur annonce son identit par l'intermdiaire d'un
mot de passe, dun numro didentification, dun nom d'utilisateur, ou toute
combinaison des trois. Le systme sollicite galement une information biomtrique
provenant de l'utilisateur, et compare la donne caractristique obtenue partir de
linformation entre, avec la donne enregistre correspondante lidentit prtendue,
cest une comparaison un un (1:1). Le systme trouvera ou ne trouvera pas
dappariement entre les deux. La vrification est communment employe dans des
applications de contrle d'accs et de paiement par authentification [2].
La biomtrie offre beaucoup plus davantages que les mthodes existantes d'authentification
personnelle telles que les clefs, les numros d'identification (ID), les mots de passe et les
cartes magntiques. En effet elle fournit encore plus de sret et de convenance ce qui
engendre dnormes avantages conomiques et elle comble les grandes failles de scurit des
mots de passe.
3

Chapitre I

La biomtrie

I.3. Le march mondial de la biomtrie


Rgulirement, un rapport sur le march de la biomtrie est dit par IBG
(International Biometric Group). Cette tude est une analyse complte des chiffres d'affaires,
des tendances de croissance, et des dveloppements industriels pour le march de la biomtrie
actuel et futur.
La lecture de ce rapport est essentielle pour des tablissements dployant la
technologie biomtrique, les investisseurs dans les entreprises biomtriques, ou les
dveloppeurs de solutions biomtriques. Le chiffre d'affaires de l'industrie biomtrique
incluant les applications judiciaires et celles du secteur public, se dveloppe rapidement. Une
grande partie de la croissance sera attribuable au contrle d'accs aux systmes d'information
(ordinateur / rseau) et au commerce lectronique, bien que les applications du secteur public
continuent tre une partie essentielle de l'industrie.
On prvoit que le chiffre d'affaires des marchs mergents (accs aux systmes
d'information, commerce lectronique et tlphonie, accs physique et surveillance) dpasse
le chiffre d'affaires des secteurs plus matures (identification criminelle et identification des
citoyens).

Figure1 : Evolution du march international de la biomtrie [3].

Chapitre I

La biomtrie

I.4. Les parts de march par technologie


Les empreintes digitales continuent tre la principale technologie biomtrique en termes de
part de march, prs de 50% du chiffre daffaires total (hors applications judiciaires). La
reconnaissance du visage, avec 12% du march (hors applications judiciaires), dpasse la
reconnaissance de la main, qui avait avant la deuxime place en termes de source de revenus
aprs les empreintes digitales.

Figure 2 : Parts de march des diffrentes mthodes biomtriques [3]

I.5. Les techniques biomtriques


Il existe plusieurs techniques biomtriques utilises dans plusieurs applications et secteurs, on
peut en distinguer deux catgories :
I.5.1. Lanalyse morphologique (physiologique)
Elle est base sur l'identification de traits physiques particuliers qui, pour toute personne, sont
uniques et permanents. Cette catgorie regroupe liris de lil, le rseau veineux de la rtine
la forme de la main, les empreintes digitales, les traits du visage, les veines de la main, etc.
I.5.2. Lanalyse comportementale
Elle se base sur l'analyse de certains comportements d'une personne. Cette catgorie regroupe
la reconnaissance vocale, la dynamique de frappe au clavier, la dynamique de la signature,
lanalyse de la dmarche, etc. Il existe, par ailleurs, une autre catgorie qui est ltude des
traces biologiques telles que : lADN, le sang, la salive, lurine, lodeur, etc.

Chapitre I

La biomtrie

I.6. Architecture dun systme biomtrique


Il existe toujours au moins deux modules dans un systme biomtrique: le module
dapprentissage et celui de reconnaissance [4] [5]. Le troisime module est le module
dadaptation. Pendant lapprentissage, le systme va acqurir une ou plusieurs mesures
biomtriques qui serviront construire un modle de lindividu. Ce modle de rfrence
servira de point de comparaison lors de la reconnaissance. Le modle pourra tre rvalu
aprs chaque utilisation grce au module dadaptation.
I.6.1. Module dapprentissage
Au cours de lapprentissage, la caractristique biomtrique est tout dabord mesure
grce un capteur; on parle dacquisition ou de capture. En gnral, cette capture nest pas
directement stocke et des transformations lui sont appliques. En effet, le signal contient de
linformation inutile la reconnaissance et seuls les paramtres pertinents sont extraits. Le
modle est une reprsentation compacte du signal qui permet de faciliter la phase de
reconnaissance, mais aussi de diminuer la quantit de donnes stocker.
Il est noter que la qualit du capteur peut grandement influencer les performances du
systme. Meilleure est la qualit du systme dacquisition, moins il y aura de prtraitements
effectuer pour extraire les paramtres du signal.
Cependant, les capteurs de qualit sont en gnral coteux et leur utilisation est donc limite
des applications de haute scurit pour un public restreint. Le modle peut tre stock dans
une base de donnes.
I.6.2. Module de reconnaissance
Au cours de la reconnaissance, la caractristique biomtrique est mesure et un
ensemble de paramtres est extrait comme lors de lapprentissage (figure 3). Le capteur utilis
doit avoir des proprits aussi proches que possibles du capteur utilis durant la phase
dapprentissage. Si les deux capteurs ont des proprits trop diffrentes, il faudra en gnral
appliquer une srie de prtraitements supplmentaires pour limiter la dgradation des
performances. La suite de la reconnaissance sera diffrente suivant le mode opratoire du
systme : identification ou vrification.
En mode identification, le systme doit deviner lidentit de la personne. Il rpond
donc une question de type : Qui suis-je ? . Dans ce mode, le systme compare le signal
mesur avec les diffrents modles contenus dans la base de donnes (problme de type 1 :
N). En gnral, lorsque lon parle didentification, on suppose que le problme est ferm,
cest--dire que toute personne qui utilise le systme possde un modle dans la base de
donnes.
En mode vrification, le systme doit rpondre une question de type :
Suis-je bien la personne que je prtends tre ? .
Lutilisateur propose une identit au systme et le systme doit vrifier que lidentit de
lindividu est bien celle propose. Il suffit donc de comparer le signal avec un seul des
modles prsents dans la base de donnes (problme de type 1 : 1). En mode vrification, on
parle de problme ouvert puisque lon suppose quun individu qui na pas de modle dans
la base de donnes (imposteur) peut chercher tre reconnu.
Identification et vrification sont donc deux problmes diffrents. Lidentification peut-tre
une tche redoutable lorsque la base de donnes contient des milliers, voire des millions
didentits, tout particulirement lorsquil existe des contraintes de type temps rel sur le
6

Chapitre I

La biomtrie

systme. Ces difficults sont analogues celles que connaissent par exemple les systmes
dindexation de documents multimdia.

Figure 3 : Phase de reconnaissance dun systme de reconnaissance facial

I.6.3 .Module dadaptation


Pendant la phase dapprentissage, le systme biomtrique ne capture souvent que
quelques instances dun mme attribut afin de limiter la gne pour lutilisateur. Il est donc
difficile de construire un modle assez gnral capable de dcrire toutes les variations
possibles de cet attribut. De plus, les caractristiques de cette biomtrie ainsi que ses
conditions dacquisition peuvent varier. Ladaptation est donc ncessaire pour maintenir voire
amlior la performance dun systme utilisation aprs utilisation. Ladaptation peut se faire
en mode supervis ou non-supervis mais le second mode est de loin le plus utile en pratique.
Si un utilisateur est identifi par le module de reconnaissance, les paramtres extraits du
signal serviront alors r-estimer son modle. En gnral, le taux dadaptation dpend du
degr de confiance du module de reconnaissance dans lidentit de lutilisateur. Bien entendu,
ladaptation non-supervise peut poser problme en cas derreurs du module de

Chapitre I

La biomtrie

reconnaissance. Ladaptation est quasi indispensable pour les caractristiques non


permanentes comme la voix [6].
I.7. Prsentation de quelques technologies biomtriques
Aucune biomtrie unique ne pouvait rpondre efficacement aux besoins de toutes les
applications didentification. Un certain nombre de techniques biomtriques ont t
proposes, analyses, et values. Chaque biomtrie ses forces et ses limites, et en
consquence, chaque biomtrie est utilise dans une application particulire. Pour les
caractristiques physiques, nous dcrirons la reconnaissance de visage, les empreintes
digitales, la gomtrie de la main et liris. Pour les caractristiques comportementales, nous
dcrirons les biomtries bases sur la voix et la signature.
Il existe dautres mthodes biomtriques bases sur les veines de la main, lA.D.N, lodeur
corporelle, la forme de loreille, la forme des lvres, le rythme de frappe sur un clavier, la
dmarche, qui ne seront pas dveloppes dans ce chapitre.
I.7.1. Les empreintes digitales
A lheure actuelle la reconnaissance des empreintes digitales est la mthode
biomtrique la plus utilise. Les empreintes digitales sont composes de lignes localement
parallles prsentant des points singuliers (minuties) et constituent un motif unique, universel
et permanent. Pour obtenir une image de lempreinte dun doigt, les avances technologiques
ont permis dautomatiser la tche au moyen de capteurs intgrs, remplaant ainsi lutilisation
classique de lencre et du papier. Ces capteurs fonctionnant selon diffrents mcanismes de
mesure (pression, champ lectrique, temprature) permettent de mesurer lempreinte dun
doigt fixe positionn sur ce dernier (capteur matriciel) ou en mouvement (capteurs
balayage).
Limage dempreinte dun individu est capture laide dun lecteur dempreinte digitale puis
les caractristiques sont extraites de limage puis un modle est cr. Si des prcautions
appropries sont suivies, le rsultat est un moyen trs prcis dauthentification.
Les techniques dappariement des empreintes digitales peuvent tre classes en deux
catgories : les techniques bases sur la dtection locale des minuties et les techniques bases
sur la corrlation. Lapproche base sur les minuties consiste trouver dabord les points de
minuties puis trace leurs emplacements sur limage du doigt (figure 4).

Figure 4. : Le processus de reconnaissance par empreinte digitale

Cependant, il y a quelques difficults avec cette approche lorsque limage dempreinte


digitale est dune qualit mdiocre, car lextraction prcise des points de minutie est difficile.
Cette mthode ne tiens pas en compte la structure globale de crtes et de sillons.
Les mthodes bases sur la corrlation sont capables de surmonter les problmes de
lapproche fonde sur les minuties. Ces mthodes utilisent la structure globale de lempreinte,
mais les rsultats sont moins prcis quavec les minuties. De plus, les techniques de
8

Chapitre I

La biomtrie

corrlation sont affectes par la translation et rotation de limage de lempreinte. Cest pour
cela que les deux approches sont en gnral combines pour augmenter les performances du
systme.
I.7.2.La voix
De tous les traits humains utiliss dans la biomtrie, la voix est celle que les humains
apprennent reconnatre ds le plus jeune ge. Les systmes de reconnaissance de locuteur
peuvent tre diviss en deux catgories : les systmes dpendant du texte prononc et les
systmes indpendants du texte. Dans le premier cas, lutilisateur est tenu dutiliser un texte
(un mot ou une phrase) fixe prdtermin au cours des sances dapprentissage et de
reconnaissance. Alors que, pour un systme indpendant du texte le locuteur parle librement
sans texte prdfini.
Cette dernire catgorie est plus difficile, mais elle est utile dans le cas o lon a besoin de
reconnatre un locuteur sans sa coopration. La recherche sur la reconnaissance de locuteur
est en pleine croissance, car elle ne ncessite pas de matriel cher, puisque la plupart des
ordinateurs personnels de nos jours sont quips dun microphone. Toutefois, la mauvaise
qualit et le bruit ambiant peuvent influencer la vrification et par suite rduire son utilisation
dans les systmes biomtriques. Dans un systme de reconnaissance de locuteur le signal est
premirement mesur puis dcompos en plusieurs canaux de frquences passe-bande.
Ensuite, les caractristiques importantes du signal vocal sont extraites de chaque bande.
Parmi les caractristiques les plus communment utilises sont les coefficients Cepstraux. Ils
sont obtenus par le logarithme de la transforme de Fourier du signal vocal dans chaque
bande. Finalement, la mise en correspondance des coefficients Cepstraux permet de
reconnatre la voix. Dans cette tape, gnralement on fait appel des approches fondes sur
les modles de Markov cachs, la quantification vectorielle, ou la dformation temps
dynamique.

Figure 5: Spectre dun signal voix

I.7.3.Liris
Lutilisation de liris comme caractristique biomtrique unique de lhomme a donn
lieu une technologie didentification fiable et extrmement prcise. Liris est la rgion, sous
forme danneau, situe entre la pupille et le blanc de lil, il est unique. Liris a une structure
extraordinaire et offre de nombreuses caractristiques de texture qui sont uniques pour chaque
individu. Les algorithmes utiliss dans la reconnaissance de liris sont si prcis que la plante
toute entire pourrait tre inscrite dans une base de donnes de liris avec peu derreurs
didentification.
Limage de liris est gnralement capture laide dune camra standard. Cependant, cette
tape de capture implique une coopration de lindividu. De plus, il existe plusieurs
contraintes lies lutilisation de cette technologie. Par exemple, il faut sassurer que liris de
9

Chapitre I

La biomtrie

lindividu est une distance fixe et proche du dispositif de capture, ce qui limite lutilisation
de cette technologie.

Figure 6 : Photo diris

I.7.4.La signature
La vrification de la signature analyse la faon dont un utilisateur signe son nom. Les
caractristiques dynamiques de la signature comme la vitesse et la pression, sont aussi
importantes que la forme gomtrique de la signature. Il existe deux approches pour vrifier la
signature statique et dynamique. Dans la vrification de signature statique, seules les formes
gomtriques de la signature sont utilises pour authentifier une personne. Dans cette
approche, en rgle gnrale, la signature est normalise une taille connue ensuite
dcompose en lments simples.
La forme et les relations de ses lments sont utilises comme caractristiques
didentification. Quant la deuxime approche de la vrification de signature elle utilise, en
plus de la forme gomtrique, les caractristiques dynamiques telles que lacclration, la
vitesse et les profils de trajectoire de la signature. Il est noter que la signature est une
biomtrie comportementale, elle volue dans le temps et est influence par les conditions
physiques et motionnelles de la personne.

Figure 7 : Signature

I.7.5.La gomtrie de la main


La gomtrie de la main est une technologie biomtrique rcente. Comme son nom
lindique, elle consiste analyser et mesurer la forme de la main, cest--dire mesurer la
longueur, la largeur et la hauteur de la main dun utilisateur et de crer une image 3-D. Des
LEDs infrarouges et un appareil-photo numrique sont utiliss pour acqurir les donnes de la
main.
Cette technologie offre un niveau raisonnable de prcision et est relativement facile utiliser.
Cependant elle peut tre facilement trompe par des jumeaux ou par des personnes ayant des
formes de la main proches. Les utilisations les plus populaires de la gomtrie de la main
comprennent lenregistrement de prsence et le contrle daccs. Par contre, les systmes de
10

Chapitre I

La biomtrie

capture de la gomtrie de la main sont relativement grands et lourds, ce qui limite leur
utilisation dans dautres applications comme lauthentification dans les systmes embarqus :
tlphones portables, voitures, ordinateurs portables, etc.

Figure 8 : Dispositif de reconnaissance par gomtrie de la main

I.7.6.Le visage
Nos visages sont des objets complexes avec des traits qui peuvent varier dans le
temps. Cependant, les humains ont une capacit naturelle reconnatre les visages et
didentifier les personnes dans un coup dil. Bien sr, notre capacit de reconnaissance
naturelle stend au-del de la reconnaissance du visage, o nous sommes galement en
mesure de reprer rapidement des objets, des sons ou des odeurs. Malheureusement, cette
aptitude naturelle nexiste pas dans les ordinateurs. Cest ainsi quest n le besoin de simuler
artificiellement la reconnaissance afin de crer des systmes intelligents autonomes. Simuler
notre capacit naturelle de la reconnaissance des visages dans les machines est une tche
difficile mais pas impossible. Tout au long de notre vie, de nombreux visages sont vus et
conservs naturellement dans nos mmoires formant une sorte de base de donnes.
La reconnaissance des visages par ordinateur ncessite galement une base de donnes qui est
habituellement construite en utilisant des images du visage ou parfois des images diffrentes
dune mme personne pour tenir compte des variations dans les traits du visage. Les systmes
actuels de reconnaissance du visage sont composs dun module dacquisition dimages avec
une camra. Il procde dabord une dtection du visage dans limage acquise. Ensuite,
limage du visage dtecte est normalise pour tre transmise au module de reconnaissance
qui va la traiter en utilisant des algorithmes afin dextraire une signature du visage.
Finalement, cette signature est compare, laide dun classificateur, avec les signatures dj
existantes dans une base de donnes locale, afin didentifier lindividu en question. Les
diffrentes tapes de la reconnaissance des visages sont illustres dans la figure 9. Durant la
dernire dcennie de recherche, la performance des systmes de reconnaissance du visage
sest grandement amliore, mais les rsultats sont encore loin dtre parfaits. Ces systmes
sont trs sensibles aux variations dillumination et de pose.

11

Chapitre I

La biomtrie

Figure 9 : Schma synoptique dun systme de reconnaissance faciale

Aprs cet aperu rapide de quelques systmes biomtriques les plus connus, nous allons
dtailler, dans la section suivante, le fonctionnement des systmes de reconnaissance de
visages avec les mthodes mathmatiques mises en uvre pour reconnatre un visage depuis
une image fixe.
I.8 .Reconnaissance du visage
La reconnaissance faciale est une tche que les humains effectuent naturellement et
sans effort dans leurs vies quotidiennes. La grande disponibilit dordinateurs puissants et peu
onreux ainsi que des systmes informatiques embarqus ont suscit un norme intrt dans le
traitement automatique des images et des vidos numriques au sein de nombreuses
applications, incluant lidentification biomtrique, la surveillance, linteraction hommemachine et la gestion de donnes multimdia.
La reconnaissance faciale, en tant quune des technologies biomtriques de base, a pris une
part de plus en plus importante dans le domaine de la recherche, ceci tant d aux avances
rapides dans des technologies telles que les appareils photo numriques, Internet et les
dispositifs mobiles, le tout associ des besoins en scurit sans cesse en augmentation.
La reconnaissance faciale possde plusieurs avantages sur les autres technologies
biomtriques : elle est naturelle, non intrusive et facile utiliser.
Idalement, un systme de reconnaissance faciale doit pouvoir identifier des visages prsents
dans une image ou une vido de manire automatique. Le systme peut oprer dans les deux
modes suivants : authentification ou identification ; on peut galement noter quil existe un
autre type de scnario de reconnaissance faciale mettant en jeu une vrification sur une liste
de surveillance (watch-list), o un individu est compar une liste restreinte de suspects.
Le principe de fonctionnement de base dun systme de reconnaissance faciale (Figure 9)
peut tre rsum en quatre tapes : les deux premires seffectuent en amont du systme
(dtection [7] et normalisation du visage [8]) et les deux dernires reprsentent la
reconnaissance (extraction et comparaison des caractristiques).

12

Chapitre I

La biomtrie

La performance des systmes de reconnaissance faciale sest significativement amliore


depuis les premiers travaux qui ont t mens dans les annes 1960-70 [9] [10] et de
nombreux algorithmes de reconnaissance du visage ont t proposs depuis.

Figure 10 : Les diffrentes approches dun systme de reconnaissance biomtrique.

Les mthodes de reconnaissance de visages peuvent tre classes en trois grandes approches
(Figure10). Une approche globale dans laquelle on analyse le visage (limage pixellise du
visage) dans son entier, une approche locale base sur un modle, dans laquelle le systme
essaie de dtecter, regrouper et reconnatre les diffrents lments constitutifs du visage tel
que le nez, les yeux et la bouche. Enfin, il existe des mthodes hybrides qui combinent les
deux approches prcdentes.
I.8.1. Approches globales
La particularit des algorithmes bass sur lapparence cest lutilisation directe des
valeurs dintensit des pixels de limage entire du visage comme caractristiques sur
lesquelles la dcision de reconnaissance sera fonde. Linconvnient de cette approche cest la
taille importante des donnes traiter. En effet, dans ces mthodes, une image de taille n=pq
pixels, est reprsente par un vecteur de la mme taille, dans un espace de grande dimension.
Dans le but de rduire la dimension des donnes de dpart, plusieurs mthodes ont t
proposes en vue de transformer le vecteur des donnes originales dans un autre espace, de
faible dimension, sans pour autant liminer les informations discriminatoires qui seront
utilises durant ltape de classification. La transformation des vecteurs de donnes peut tre
ralise de manire linaire ou non-linaire.
Par ailleurs, les mthodes globales peuvent tre leur tour classifies en deux grandes
catgories savoir les mthodes linaires et les mthodes non linaires. Ces mthodes
appeles aussi mthodes de projections sont bases sur la dcomposition de limage sur un
sous espace rduit et sur la recherche dun vecteur de caractristiques optimal dcrivant
limage du visage reconnatre. Ainsi, les vecteurs images originaux de grande taille seront
projets dans un espace de plus faible dimension. Les nombreuses mthodes de projection
13

Chapitre I

La biomtrie

existantes privilgient la bonne reprsentation des donnes suivant un point de vue. Par
exemple, lanalyse en composantes principales ou le classical multidimensional scaling
(MDS) [12] permettent de maximiser la variance des donnes dans la reprsentation.
La reprsentation exprime alors la forme gnrale du jeu de donnes. Les mthodes
supervises comme lanalyse discriminante projettent les donnes de faon valoriser la
sparation des classes. Le Locally Linear Embedding (LLE) [40], le Laplacian Eigenmaps
[32] et le Hessian-based Locally Linear Embedding (HLLE) [40] supposent que les donnes
sont situes sur une surface localement linaire.
Ces mthodes permettent alors le dpliement de lespace laide de projections linaires
locales. Nous allons prsenter ces approches non supervises linaires et non-linaires bases
sur les noyaux ou sur lapprentissage de varits. Les mthodes supervises seront aussi
prsentes comme lanalyse discriminante linaire (LDA).
Les techniques linaires projettent linairement les donnes dun espace de grande dimension
(par exemple, lespace de limage originale) sur un sous-espace de dimension infrieure.
Malheureusement, ces techniques sont incapables de prserver les variations non convexes
des varits (gomtriques donc au sens mathmatique du terme) de visages afin de
diffrencier des individus. Dans un sous-espace linaire, les distances euclidiennes et plus
gnralement les distances de Mahalanobis, qui sont normalement utilises pour faire
comparer des vecteurs de donnes, ne permettent pas une bonne classification entre les classes
de formes "visage" et "non-visage" et entre les individus eux-mmes. Ce facteur crucial limite
le pouvoir des techniques linaires pour obtenir une dtection et une reconnaissance du visage
trs prcises.
La technique linaire la plus connue et sans aucun doute lanalyse en composantes principales
(PCA), galement appele transforme de Karhunen-Loeve. Le PCA fut dabord utilis afin
de reprsenter efficacement des images de visages humains [11]. En 1991, cette technique a
t reprise dans le cadre plus spcifique de la reconnaissance faciale sous le nom de mthode
des Eigenfaces [12].
Cependant, le PCA classique ncessite que les images de visage soient mises sous formes de
vecteurs, ce qui a pour effet de dtruire la structure gomtrique de limage.
Pour ne pas perdre les informations de voisinage lors du passage de limage en vecteur, une
mthode PCA bidimensionnelle (2-D PCA) [13] a t tudie. Cette mthode prend en entre
des images et non plus des vecteurs.
Il existe dautres techniques galement construites partir de dcompositions linaires comme
lanalyse discriminante linaire (LDA) [14] ou encore lanalyse en composantes
indpendantes (ICA) [15].
Tandis que le PCA construit un sous-espace pour reprsenter de manire "optimale"
(mathmatiquement parlant) seulement "lobjet" visage, le LDA construit un sous-espace
discriminant pour distinguer de faon "optimale" les visages de diffrentes personnes. Elle
permet donc deffectuer une vritable sparation de classes. Des tudes comparatives (par
exemple, [14]) montrent que les mthodes bases sur le LDA donne gnralement de
meilleurs rsultats que les mthodes bases sur le PCA.
Lalgorithme ICA, quant lui, est une gnralisation de lalgorithme PCA avec lequel il
concide dans le cas de donnes gaussiennes. Lalgorithme ICA est bas sur le concept intuitif
de contraste et permet dliminer la redondance statistique des donnes de dpart. Ce dernier a
t rendu clbre notamment avec lexprience de la cocktail party [16] qui met en avant la
rsolution dun problme de sparation (dcorrlation) de sources audio. Bartlett et al. ont
14

Chapitre I

La biomtrie

fourni deux architectures diffrentes pour lICA : une premire architecture (ICA I) qui
construit une base dimages statistiquement indpendantes et une deuxime architecture (ICA
II) qui fournit une reprsentation en code factoriel des donnes.
Bien que ces mthodes globales linaires bases sur lapparence vitent linstabilit des toutes
premires mthodes gomtriques qui ont t mises au point, elles ne sont pas assez prcises
pour dcrire les subtilits des varits (gomtriques) prsentes dans lespace de limage
originale. Ceci est d leurs limitations grer la non-linarit en reconnaissance faciale : les
dformations de varits non linaires peuvent tre lisses et les concavits peuvent tre
remplies, causant des consquences dfavorables.
Afin de pouvoir traiter ce problme de non-linarit en reconnaissance faciale, de telles
mthodes linaires ont t tendues des techniques non linaires bases sur la notion
mathmatique de noyau (kernel) comme le Kernel PCA [17] et le Kernel LDA [18]. Ici, une
projection non linaire (rduction de dimension) de lespace de limage sur lespace de
caractristiques (feature space) est effectue ; les varits prsentes dans lespace de
caractristiques rsultant deviennent simples, de mme que les subtilits des varits qui sont
prserves. Bien que les mthodes bases sur le noyau peuvent atteindre une bonne
performance sur les donnes dentranement, il ne peut pas en tre de mme pour de nouvelles
donnes en raison de leur plus grande flexibilit ; contrairement aux mthodes linaires.
I.8.2. Mthodes locales
Les mthodes locales, bases sur des modles, utilisent des connaissances a priori que
lon possde sur la morphologie du visage et sappuient en gnral sur des points
caractristiques de celui-ci. Kanade prsenta un des premiers algorithmes de ce type [10] en
dtectant certains points ou traits caractristiques dun visage puis en les comparants avec des
paramtres extraits dautres visages. Ces mthodes constituent une autre approche pour
prendre en compte la non-linarit en construisant un espace de caractristiques local et en
utilisant des filtres dimages appropris, de manire ce que les distributions des visages
soient moins affectes par divers changements.
Les approches Baysiennes (comme la mthode BIC [19]), les machines vecteurs de support
(SVM) [20], la mthode des modles actifs dapparence (AAM) ou encore la mthode local
binary pattern (LBP) [21] ont t utilises dans ce but.
Toutes ces mthodes ont lavantage de pouvoir modliser plus facilement les variations de
pose, dclairage et dexpression par rapport aux mthodes globales. Toutefois, elles sont plus
lourdes utiliser puisquil faut souvent placer manuellement un assez grand nombre de points
sur le visage alors que les mthodes globales ne ncessitent de connatre que la position des
yeux afin de normaliser les images, ce qui peut tre fait automatiquement et de manire assez
fiable par un algorithme de dtection [22].

15

Chapitre I

La biomtrie

I.8.3.Mthodes hybrides
Les mthodes hybrides permettent dassocier les avantages des mthodes globales et
locales en combinant la dtection de caractristiques gomtriques (ou structurales) avec
lextraction de caractristiques dapparence locales. Elles permettent daugmenter la stabilit
de la performance de reconnaissance lors de changements de pose, dclairement et
dexpressions faciales.
Lanalyse de caractristiques locales (LFA) [23] et les caractristiques extraites par ondelettes
de Gabor (comme lElastic Bunch Graph Matching, EBGM), sont des algorithmes hybrides
typiques.
Plus rcemment, lalgorithme Log Gabor PCA (LG-PCA) [24] effectue une convolution avec
des ondelettes de Gabor orientes autour de certains points caractristiques du visage afin de
crer des vecteurs contenant la localisation et la valeur damplitudes nergtiques locales ; ces
vecteurs sont ensuite envoys dans un algorithme PCA afin de rduire la dimension des
donnes.
I.9. Principales difficults de la reconnaissance de visage
Pour le cerveau humain, le processus de la reconnaissance de visages est une tche
visuelle de haut niveau. Bien que les tres humains puissent dtecter et identifier des visages
dans une scne sans beaucoup de peine, construire un systme automatique qui accomplit de
telles tches reprsente un srieux dfi. Ce dfi est dautant plus grand lorsque les conditions
dacquisition des images sont trs variables. Il existe deux types de variations associes aux
images de visages : inter et intra sujet. La variation inter-sujet est limite cause de la
ressemblance physique entre les individus. Par contre la variation intra-sujet est plus vaste.
Elle peut tre attribue plusieurs facteurs que nous analysons ci-dessous.
1.9.1. Changement dillumination
Lapparence dun visage dans une image varie normment en fonction de
lillumination de la scne lors de la prise de vue (voir figure 11). Les variations dclairage
rendent la tche de reconnaissance de visage trs difficile. En effet, le changement
dapparence dun visage du l'illumination, se rvle parfois plus critique que la diffrence
physique entre les individus, et peut entraner une mauvaise classification des images d'entre.
Ceci a t exprimentalement observ dans Adini et al [25] o les auteurs ont utilis une base
de donnes de 25 individus. L'identification de visage dans un environnement non contrl
reste donc un domaine de recherche ouvert. Les valuations FRVT [26] ont rvl que le
problme de variation d'illumination constitue un dfi majeur pour la reconnaissance faciale.

Figure 11 : Exemple de variation dclairage

16

Chapitre I

La biomtrie

I.9.2. Variation de pose


Le taux de reconnaissance de visage baisse considrablement quand des variations de
pose sont prsentes dans les images. Cette difficult a t dmontre par des tests dvaluation
labors sur les bases FERET et FRVT [26]. La variation de pose est considre comme un
problme majeur pour les systmes de reconnaissance faciale. Quand le visage est de profil
dans le plan image (orientation < 30), il peut tre normalis en dtectant au moins deux traits
faciaux (passant par les yeux).
Cependant, lorsque la rotation est suprieure 30, la normalisation gomtrique n'est plus
possible (voir figure 12).

Figure 12 : Exemples de variation de poses.

I.9.3. Expressions faciales


Un autre facteur qui affecte lapparence du visage est lexpression faciale (voir fig13).
La dformation du visage qui est due aux expressions faciales est localise principalement sur
la partie infrieure du visage. L'information faciale se situant dans la partie suprieure du
visage reste quasi invariable. Elle est gnralement suffisante pour effectuer une
identification. Toutefois, tant donn que l'expression faciale modifie l'aspect du visage, elle
entrane forcment une diminution du taux de reconnaissance. L'identification de visage avec
expression faciale est un problme difficile qui est toujours dactualit et qui reste non rsolu.
L'information temporelle fournit une connaissance additionnelle significative qui peut tre
utilise pour rsoudre ce problme [27].

Figure 13 : Exemples de variation dexpressions.

I.9.4. Prsence ou absence des composants structurels


La prsence des composants structurels telle que la barbe, la moustache, ou bien les
lunettes peut modifier normment les caractristiques faciales telles que la forme, la couleur,
ou la taille du visage. De plus, ces composants peuvent cacher les caractristiques faciales de
17

Chapitre I

La biomtrie

base causant ainsi une dfaillance du systme de reconnaissance. Par exemple, des lunettes
opaques ne permettent pas de bien distinguer la forme et la couleur des yeux, et une
moustache ou une barbe modifie la forme du visage.
I.9.5. Occultations partielles
Le visage peut tre partiellement masqu par des objets dans la scne, ou par le port
daccessoire tels que lunettes, charpe...etc. Dans le contexte de la biomtrie, les systmes
proposs doivent tre non intrusifs cest--dire quon ne doit pas compter sur une coopration
active du sujet. Par consquent, il est important de savoir reconnatre des visages
partiellement occults. Gross et al [27] ont tudi limpact du port de lunettes de soleil, et du
cache-nez occultant la partie infrieure du visage sur la reconnaissance faciale. Ils ont utilis
la base de donnes AR [28]. Leurs rsultats exprimentaux semblent indiquer que, dans ces
conditions, les performances des algorithmes de reconnaissance restent faibles.
I.10. Evaluation de performance
La performance dun systme didentification peut se mesurer principalement laide
de trois critres : sa prcision, son efficacit (vitesse dexcution) et le volume de donnes qui
doit tre stock pour chaque locuteur. Nous nous concentrerons dans cette section sur le
premier aspect. Comme nous lavons vu prcdemment, lidentification et la vrification sont
des modes opratoires diffrents. Elles ncessitent donc des mesures de prcision diffrentes
que nous tudierons dans les deux sous-sections suivantes.
I.10.1. Evaluation de lidentification
Le taux didentification est la mesure la plus couramment utilise mais il nest pas
toujours suffisant. En effet, en cas derreur, il peut tre utile de savoir si le bon choix se trouve
dans les N premiers. On trace alors le score cumul (cumulative match score) qui reprsente
la probabilit que le bon choix se trouve parmi les N premiers [29].
Dans le cas o il existe plusieurs modles pour chaque individu dans la base de donnes, les
mesures classiques des systmes de recherche dans une base de donnes (database retrieval
system) peuvent tre utilises. La prcision (prcision) est le rapport entre le nombre de
modles correctement retrouvs par le systme dans la base de donnes et le nombre total de
modles retrouvs. Le rappel (recall) est le rapport entre le nombre de modles correctement
retrouvs dans la base de donnes et le nombre total de modles qui auraient d tre
retrouves.
I.10.2. Evaluation de la vrification
Lorsquun systme fonctionne en mode vrification, celui-ci peut faire deux types
derreurs. Il peut rejeter un utilisateur lgitime et dans ce premier cas on parle de faux rejet
(false rejection). Il peut aussi accepter un imposteur et on parle dans ce second cas de fausse
acceptation (false acceptance). La performance dun systme se mesure donc son taux de
faux rejet (False Rejection Rate ou FRR) et son taux de fausse acceptation (False
Acceptance Rate ou FAR).
La vrification est un problme de dcision similaire la dtection dun signal dans le bruit en
thorie de linformation. Il peut tre formul de la manire suivante. Soient H0 lhypothse :
la capture C provient dun imposteur et H1 lhypothse : la capture C provient de
18

Chapitre I

La biomtrie

lutilisateur lgitime. Il faut donc choisir lhypothse la plus probable. On considre que la
capture C provient dun utilisateur lgitime si :
(I.1)
En appliquant la loi de Bayes on obtient :

(I.2)
et donc :

(I.3)
Le taux de vraisemblance

Est compar un seuil

appel seuil de dcision. Les

et
qui reprsentent respectivement la probabilit pour quun imposteur
valeurs
ou un utilisateur lgitime essayent daccder au systme sont des valeurs difficile estimer.
Nous avons reprsent sur la (figure.14), la distribution hypothtique des taux de
vraisemblance quobtiendraient les utilisateurs lgitimes et les imposteurs dun systme de
vrification donn. Les FAR et FRR sont reprsents en hachur. Idalement, le systme
devrait avoir des FAR et FRR gaux zro. Comme ce nest jamais le cas en pratique, il faut
choisir un compromis entre FAR et FRR. Plus le seuil de dcision est bas, plus le systme
acceptera dutilisateurs lgitimes mais plus il acceptera aussi dimposteurs. Inversement, plus
le seuil de dcision est lev, plus le systme rejettera dimposteurs mais plus il rejettera
aussi dutilisateurs lgitimes.

Figure 14 : Distributions des taux de vraisemblance des utilisateurs lgitimes et


des imposteurs dun systme biomtrique

Il est donc impossible en faisant varier le seuil de dcision de faire diminuer les deux types
derreurs en mme temps.
19

Chapitre I

La biomtrie

Figure 15 : Courbe ROC

La courbe dite ROC (Receiver Operating Characteristic), reprsente la figure 15,


permet de reprsenter graphiquement la performance dun systme de vrification pour les
diffrentes valeurs de . Le taux derreur gal (Equal Error Rate ou EER) correspond au point
FAR=FRR, cest--dire graphiquement lintersection de la courbe ROC avec la premire
bissectrice. Il est frquemment utilis pour donner un aperu de la performance dun systme.
Cependant, il est important de souligner que lEER ne rsume en aucun cas toutes les
caractristiques dun systme biomtrique.
Le seuil doit donc tre ajust en fonction de lapplication cible : haute scurit, basse
scurit ou compromis entre les deux.
I.11 Discussion :
Dans ce chapitre, nous avons pass en revue les principales technologies biomtriques.
Ensuite, nous avons prsent dans un premier temps larchitecture de base dun systme
biomtrique pour se focaliser, dans un deuxime temps, sur la reconnaissance de visages.
Ces dernires annes, de nombreuses approches pour la reconnaissance automatique de
visages ont t proposes. Elles peuvent tre regroupes en deux types dapproches
principales. Les approches globales pour lesquelles les caractristiques sont extraites
directement de limage du visage en entier, et les approches locales bases sur lextraction de
traits locaux du visage, tel que les yeux, le nez ou la bouche. Nous avons dcrit galement
leurs avantages et leurs inconvnients puis dgager les problmes lis leur application dans
un environnement rel.

20

Chapitre II

Techniques de dtection et de
reconnaissance de visage

Chapitre II

Techniques de dtection et de reconnaissance de visages

II.1. Prambule
Dans ce chapitre, nous prsenterons un tat de lart sur les techniques de dtection de
visage et les diffrentes mthodes les plus connues de reconnaissance faciale. Enfin, nous
terminerons le chapitre par une synthse des mthodes et techniques tudies.
II.2. Dtection de visages
La dtection de visages dans limage est un traitement indispensable et crucial avant la
phase de reconnaissance. En effet, le processus de reconnaissance de visages ne pourra jamais
devenir intgralement automatique sil na pas t prcd par une tape de dtection efficace.
Le traitement consiste rechercher dans une image la position des visages et de les extraire
sous la forme dun ensemble dimagettes dans le but de faciliter leur traitement ultrieur.
Selon la dfinition propose dans [30] un visage est considr correctement dtect si la
taille dimagette extraite ne dpasse pas 20% de la taille relle de la rgion faciale, et quelle
contient essentiellement les yeux, le nez et la bouche. Elle sera ensuite affine par un
prtraitement.
II.3. Approches de la dtection de visage
Il existe plusieurs mthodes pour la dtection de visages. Elles peuvent tre subdivises en
quatre diffrents types [30].
II.3.1. Approches bases sur lapparence
Ces approches appliquent gnralement des techniques d'apprentissage automatique.
Ainsi, les modles sont appris partir d'un ensemble d'images reprsentatives de la variabilit
de l'aspect facial. Ces modles sont alors employs pour la dtection. L'ide principale de ces
mthodes est de considrer que le problme de la dtection de visage est un problme de
classification (visage, non-visage). Une des approches les plus connues de dtection de visage
est lEigenface [12]. Elle consiste projeter limage dans un espace et calculer la distance
euclidienne entre limage et sa projection. En effet, en codant limage dans un espace, on
dgrade linformation contenue dans limage, puis on calcule la perte dinformation entre
limage et sa projection. Si cette perte dinformation est grande (value partir de la distance,
que lon compare un seuil fix a priori), limage nest pas correctement reprsente dans
lespace : elle ne contient pas de visage.
Cette mthode donne des rsultats assez encourageants, mais le temps de calcul est trs
important. Dans Rowley et al. [31], les auteurs proposent un systme de dtection de visage
bas sur la classification par des rseaux de neurones. Leur technique est divise en deux
tapes: la localisation des visages en utilisant un rseau de neurones et la vrification des
rsultats obtenus. Les auteurs ont construit un rseau de neurones qui, partir dune image
prtraite de 20x20 pixels, indique sil sagit dun visage ou non. Le prtraitement consiste
galiser lhistogramme. Limage est balaye avec des fentres de 20x20. Pour dtecter les
visages de diffrentes tailles, une analyse multi-rsolutions est effectue. Lextension a aussi
t propose afin de dterminer un rseau de neurones indiquant le degr de rotation dun
visage. Ainsi, le systme est capable de dtecter des visages ayant subi des rotations dans le
plan et de diffrentes chelles. Lun des avantages des rseaux de neurones est leur robustesse
au bruit. Malheureusement, les rseaux de neurones, sont souvent difficiles construire. Leur
structure (nombre de couches caches pour les perceptrons par exemple) influe beaucoup sur
les rsultats et il nexiste pas de mthode pour dterminer automatiquement cette structure.

21

Chapitre II

Techniques de dtection et de reconnaissance de visages

La phase dapprentissage est difficile mener puisque les exemples doivent tre
correctement choisis (en nombre et en configuration).
II.3.2. Approches bases sur les connaissances acquises
Ces mthodes sont bases sur la dfinition de rgles strictes partir des rapports entre les
caractristiques faciales. Elles sintressent aux parties caractristiques du visage comme le
nez, la bouche et les yeux. Ces mthodes sont conues principalement pour la localisation de
visage. Dans [32], Kotropoulous et Pitas utilisent une mthode base de rgles. Les
caractristiques du visage sont localises laide de la mthode de projection propose par
Kanade [33] pour dtecter les contours dun visage. Soit I(x,y) lintensit de la luminance du
pixel (x,y) de limage m*n, les projections horizontale et verticale de cette image sont dfinies
par lquation suivante :
et

(2.1)

Le profil horizontal de limage originale est calcul en premier. Les deux minimas locaux sont
dtermins, ils correspondent aux bords gauche et droit du visage. Ensuite, le profil vertical est
son tour calcul. Les minima locaux de ce profil vertical correspondent aux positions de la
bouche, du nez et des yeux. Linconvnient de cette mthode est quelle narrive pas dtecter
le visage lorsque ce dernier se trouve sur un arrire-plan complexe. Yang and Huang [34] quant
eux, ont tudi les volutions des caractristiques du visage en fonction de la rsolution.
Quand la rsolution de limage dun visage est rduite progressivement, par souschantillonnage ou par moyenne, les traits macroscopiques du visage disparaissent. Ainsi, pour
une rsolution faible, la rgion du visage devient uniforme. Yang et Huang se sont bass sur
cette observation pour proposer une mthode hirarchique de dtection de visages.
En commenant par les images faible rsolution, un ensemble de candidats de visage est
dtermin laide dun ensemble de rgles permettant de rechercher les rgions uniformes dans
une image. Les candidats de visage sont ensuite vrifis en cherchant lexistence de traits
faciaux prominents grce au calcul des minimas locaux des rsolutions suprieures. Une
caractristique intressante de cette technique descendante de recherche de zone dintrt
(informations globales vers des informations plus dtailles) est de rduire le temps de calcul
ncessaire par lutilisation dimages sous-chantillonnes. Malheureusement, cette technique
occasionne de nombreuses fausses dtections et un taux faible de dtection.
II.3.3 Approches bases sur le Template-matching
Les templates peuvent tre dfinis soit "manuellement", soit paramtrs l'aide de
fonctions. Lide est de calculer la corrlation entre l'image candidate et le template. Ces
mthodes rencontrent encore quelques problmes de robustesse lis aux variations de lumire,
d'chelle, etc. Sinha [35] utilise un ensemble dinvariants dcrivant le modle du visage. Afin
de dterminer les invariants aux changements de luminosit permettant de caractriser les
diffrentes parties du visage (telles que les yeux, les joues, et le front); cet algorithme calcule
ainsi les rapports de luminance entre les rgions du visage et retient les directions de ces
rapports (par exemple, la rgion 1 est-elle plus claire ou plus sombre que la rgion 2). La
figure 16 montre un modle prdfini correspondant 23 relations. Ces relations prdfinies
sont classifies en 11 relations essentielles (flches) et 12 relations confirmations (gris).
Chaque flche reprsente une relation entre deux rgions (figure 16). Une relation est vrifie
si le rapport entre les deux rgions qui lui correspond dpasse un seuil. Le visage est localis si
le nombre de relations essentielles et de confirmation dpasse lui aussi un seuil.
22

Chapitre II

Techniques de dtection et de reconnaissance de visages

Figure16 : Modle de visage compos de 16 rgions (les rectangles)


associes 23 relations (flches). [Sin94]
Yuille et al. [36] ont utilis un template dformable pour modliser les caractristiques
faciales. Ce template adapte un modle lastique, connu a priori, aux caractristiques faciales
(ex. yeux). Dans cette approche les caractristiques faciales sont dcrites par des templates
paramtriques. Une fonction d'nergie est dfinie pour lier les contours, les sommets et les
valles dans l'image d'entre aux paramtres correspondants dans le template. Le meilleur
ajustement du modle lastique est trouv en minimisant une fonction d'nergie des paramtres.
Bien que leurs rsultats exprimentaux dmontrent une bonne performance pour le suivi de
caractristiques non rigides, un inconvnient de cette approche est que le template dformable
doit tre initialis dans la proximit de l'objet d'intrt. Pour dtecter les caractristiques
faciales pour la reconnaissance de visage, Brunelli et Peggio [37] ont utilis, pour chaque
rgion extraite, un dtecteur appropri. Ils se sont aussi inspirs de la mthode de Kanade.

Figure 17: Diffrentes rgions utilises pour la phase de template matching


Pour les rgions yeux, nez et bouche (figure17), ils utilisent la direction du gradient
vertical et horizontal. La bouche et le nez sont localiss en utilisant des stratgies similaires. La
position verticale est dtermine grce aux standards anthropomtriques. Dabord, une
estimation fine de leur position relle est obtenue en cherchant les pics de la projection
horizontale du gradient vertical pour le nez et les valles de la projection horizontale de
lintensit pour la bouche.

23

Chapitre II

Techniques de dtection et de reconnaissance de visages

La position des sourcils et leur paisseur peuvent tre trouves par une analyse similaire.
La recherche est une fois encore limite la fentre dintrt, juste au-dessus des yeux, et les
sourcils sont trouvs en utilisant la carte du gradient vertical. Le dtecteur du sourcil cherche
les pairs de pics du gradient ayant des directions opposes.
II.3.4 Approches bases sur des caractristiques invariantes
Ces approches sont utilises principalement pour la localisation de visage. Les
algorithmes dvelopps visent trouver les caractristiques structurales existantes mme si la
pose, le point de vue ou la condition d'clairage changent. Puis ils emploient ces
caractristiques invariables pour localiser les visages. Nous pouvons citer deux familles de
mthodes appartenant cette approche : Les mthodes bases sur la couleur de la peau et les
mthodes bases sur les caractristiques de visage quon dtaillera ci-dessous.
II.3.4.1 Mthodes bases sur les caractristiques du visage
En gnral ces algorithmes utilisent tout dabord une hypothse sur la position du haut
du visage ensuite lalgorithme de recherche parcourt le visage de haut en bas afin de trouver
laxe des yeux caractris par une augmentation soudaine de la densit de contours (mesure
par le rapport noir/blanc le long des plans horizontaux). La longueur entre le haut du visage et
le plan de l'il est alors utilise comme une longueur de rfrence pour construire un
template facial flexible. Ce template couvrant des caractristiques telles que les yeux et la
bouche est initialis partir de limage dentre. La forme initiale du template est obtenue
en utilisant la longueur anthropomtrique en respectant la longueur de rfrence.
Le template flexible est alors ajust par rapport aux positions finales des caractristiques
en utilisant un algorithme de rglage fin qui emploie une fonction de cot base contour.
Bien que ces algorithmes russissent dtecter les caractristiques dethnies diffrentes
puisquils ne se basent pas sur les informations de niveaux de gris et de couleur, ils narrivent
pas cependant dtecter correctement ces caractristiques si l'image du visage contient des
lunettes ou bien si les cheveux couvrent le front.
II.3.4.2. Mthodes bases sur lanalyse de la couleur de la peau
Les mthodes de dtection bases sur lanalyse de la couleur de la peau sont des
mthodes efficaces et rapides. Elles rduisent l'espace de recherche de la rgion visage dans
limage. De plus, la couleur de la peau est une information robuste face aux rotations, aux
changements dchelle et aux occultations partielles. Plusieurs espaces couleur peuvent tre
utiliss pour dtecter, dans l'image, les pixels qui ont la couleur de la peau. L'efficacit de la
dtection dpend essentiellement de l'espace couleur choisi. Les espaces couleur les plus
utiliss sont :
Lespace RVB, mis au point en 1931 par la Commission Internationale de l'Eclairage
(CIE). Il consiste reprsenter l'espace des couleurs partir de trois rayonnements
monochromatiques de couleurs : Rouge-Vert-Bleu. Cet espace correspond la faon
dont les couleurs sont gnralement codes informatiquement, ou plus exactement la
manire dont les crans tubes cathodiques (ordinateurs, TV) reprsentent ces couleurs.
Lespace HSL (Hue, Saturation, Luminance), appel aussi TSL (Teinte, Saturation,
Luminance) en Franais, s'appuie sur les travaux du peintre Albert H. Munsell. Cest un
modle de reprsentation dit "naturel", car il est proche de la perception physiologique
de la couleur par lil humain. En effet, le modle RGB aussi adapt soit-il pour la
24

Chapitre II

Techniques de dtection et de reconnaissance de visages

reprsentation informatique de la couleur ou bien l'affichage sur les priphriques de


sortie, ne permet pas de slectionner facilement une couleur.
Le modle HSL consiste dcomposer la couleur selon des critres physiologiques :
la teinte (en Anglais Hue), correspondant la perception de la couleur,
la saturation, dcrivant la puret de la couleur, c'est--dire son caractre vif ou terne,
la luminance, indiquant la quantit de lumire de la couleur, c'est--dire son aspect clair
ou sombre.
Il existe d'autres modles naturels de reprsentation proches du modle HSL :
HSB : Hue, Saturation, Brightness soit en Franais Teinte, Saturation, Brillance. La
brillance dcrit la perception de la lumire mise par une surface.
HSV : Hue, Saturation, Value soit en Franais Teinte, Saturation, Valeur.
HSI : Hue, Saturation, Intensity soit en Franais Teinte, Saturation, Intensit.
HCI : Hue, Chrominance, Intensity soit Teinte, Chrominance, Intensit.
Le modle YCrCb est un signal non-linaire cod partir du signal RVB. Le paramtre
Y reprsente la luminance (c'est--dire l'information en noir et blanc), tandis que Cr et
Cb permettent de reprsenter la chrominance, c'est--dire l'information couleur.
Le modle colorimtrique L*a*b* (aussi connu sous le nom de CIELab), dans lequel
une couleur est repre par trois valeurs :
L*, la luminance, exprime en pourcentage (0 pour le noir 100 pour le blanc).
a* et b* deux gammes de couleur allant, respectivement, du vert au rouge et du bleu au
jaune avec des valeurs allant de -120 +120.
Le modle L*a*b* couvre ainsi l'intgralit du spectre visible par lil humain et le
reprsente de manire uniforme. Il permet donc de dcrire l'ensemble des couleurs visibles
indpendamment de toute technologie graphique.
Aprs avoir vue quelques algorithmes de dtection de visage, nous passerons la phase
suivante qui est la reconnaissance. Avant darriver cette dernire, nous devons passer par une
tape transitoire de prtraitement qui est la normalisation de limage de visage dtect dans le
but de minimiser les effets du bruit engendr durant la chaine dacquisition de lmage.
II.4. Prtraitement
La phase de prtraitement vient aprs la phase de dtection. Elle permet de prparer limage
du visage de telle sorte quelle soit exploitable dans la phase denrlement. On lappelle aussi
phase de normalisation puisquelle ramne un format prdfini toutes les images extraites de
limage brute. Elle consiste gnralement en un centrage du visage dans limage et une
limination des zones non informatives.
Pour garantir la bonne performance du systme de reconnaissance de visages, il est
important que toutes les images soient de taille identique, la mme chelle et au mme format
concernant les couleurs (par exemple, les images couleur sont parfois converties en niveaux de
gris). Ceci amliore incontestablement le fonctionnement de ltape dextraction de signatures
et par consquent la qualit de cette dernire.
La normalisation est constitue de deux processus : gomtrique et photomtrique. La
normalisation gomtrique est ncessaire parce que la taille du visage lintrieur de limage
acquise peut varier en fonction de la distance entre le module dacquisition et la personne.
25

Chapitre II

Techniques de dtection et de reconnaissance de visages

Le visage doit donc tre extrait partir de limage et une transformation gomtrique, pour
obtenir une taille fixe, est applique. Lapproche standard consiste dfinir lemplacement des
centres des yeux dans une position constante au sein de limage de sortie.
Ltape de normalisation photomtrique tente dliminer ou de rduire les effets de
lillumination de limage.
II.4.1 Normalisation Photomtrique :
Dans le domaine de la reconnaissance par le visage, un certain nombre de mthodes de
normalisation de l'illumination ont t prsentes. Ces mthodes peuvent tre classes en deux
grandes catgories : les mthodes bases sur la modification de la dynamique et des mthodes
bases sur l'estimation de la rflectance de l'image. Les quatre normalisations prsentes cidessous sont les plus utilises dans la reconnaissance du visage et font partie de ces deux
catgories.
Il s'agit de :
L'galisation d'histogramme : Le but de cette normalisation est de rpartir uniformment
les niveaux de gris de l'image afin d'amliorer son contraste.
La correction Gamma : cette normalisation permet de rduire l'cart entre les zones
sombres et claires du visage par une transformation non linaire des niveaux de gris.
Le MultiScale-Retinex [94] : L'objectif de cette mthode est d'estimer la partie luminance
de l'image pour en dduire la rflectance.
Le lissage anisotropique [26] : cette approche estime aussi la luminance de l'image mais en
se basant sur l'anisotropie de la rflectance.
Nous avons opt pour la mthode de lgalisation dhistogramme qui a amlior le taux
didentification de notre systme de reconnaissance.
galisation d'histogramme
Cette normalisation appartient la catgorie des mthodes bases sur l'amlioration de la
dynamique de l'image. Le but de l'galisation est d'harmoniser la rpartition des niveaux de gris
de l'image. Elle permet de tendre vers un mme nombre de pixels pour chacun des niveaux de
l'histogramme. Cette opration vise augmenter les nuances dans l'image et donc son contraste
(Figure18).
Plus concrtement, si ni est le nombre de pixels un niveau i de gris, la probabilit qu'un pixel x
de l'image ait un niveau i est :
(2.2)
avec n le nombre total des pixels de l'image et L le nombre des niveaux de gris. La probabilit P
reprsente dans ce cas l'histogramme de l'image normalise [0; 1]. Soit c la distribution
cumulative de l'histogramme normalis P, elle est donne par
(2.3)
L'ide est de trouver une transformation y = T(x) qui, pour chaque niveau x de l'image, produira
un niveau y de telle faon que la distribution cumulative des diffrents niveaux de l'image
transforme soit linaire. Cette fonction est dfinie par :
(2.4)
avec L le niveau maximal de gris.
26

Chapitre II

Techniques de dtection et de reconnaissance de visages

Figure18 : (a) Image RGB

(b) Image niveau de gris

Histogramme niveaux de gris

(c) galisation dhistogramme

Histogramme galise

Figure 19: Histogramme de limage avant et aprs galisation

II.4.2. Normalisation gomtrique


En utilisant un algorithme de reconnaissance se basant sur la rduction de lespace, nous
ne pouvons pas ngliger un point trs important qui est la normalisation gomtrique des images
de visage. Cette normalisation gomtrique consiste extraire la zone du visage de limage
originale, ensuite une rotation du visage est effectue afin daligner laxe des yeux avec laxe
horizontal. Enfin, une rduction proportionnelle la distance entre les centres des deux yeux est
applique. On obtient alors une image de visage dont la distance entre les centres des yeux est
fixe.
Les dimensions de limage du visage sont calcules partir de la distance obtenir entre les
centres des deux yeux.

27

Chapitre II

Techniques de dtection et de reconnaissance de visages

II.5. Les algorithmes de reconnaissance de visage


Dans cette partie de ce chapitre, on dcrit quelques algorithmes classiques de
reconnaissance de visages, notamment : PCA, LDA, LVQ, SVM, HMM, Template matching,
EGM...
II.5.1. Dimensionnalit de l'espace visage
Une image du visage est un signal deux dimensions, acquis par un capteur digital (camra
numrique, scanner...). Ce capteur codera la couleur ou l'intensit des diffrents points de
l'image dans une matrice de pixels deux dimensions. Aprs une normalisation de l'image et une
mise l'chelle vers une taille fixe (ex : (m, n)), l'image du visage peut tre considre comme
un vecteur dans un espace multidimensionnel Rmn. Ce vecteur est obtenu en mettant,
simplement, dans un ordre fixe les lments de la matrice des pixels. Afin de dfinir une image
(ou un point) dans l'espace des images, nous devons spcifier une valeur pour chaque pixel de
cette image. Le nombre de points constituant cet espace devient rapidement trs grand, mme
pour les images de petite dimension. Cette dimensionnalit pose un certain nombre de
problmes pour les algorithmes de reconnaissance, qui se basent sur cette reprsentation de
l'image, savoir :
dans un contexte de la reconnaissance, travailler dans un grand espace pose un problme
de complexit de calcul.
pour les mthodes paramtriques, le nombre de paramtres estimer peut rapidement
dpasser le nombre d'chantillons d'apprentissage, ce qui pnalise l'estimation.
pour les mthodes non paramtriques, le nombre d'exemples ncessaires afin de
reprsenter efficacement la distribution des donnes peut tre insuffisant.
Le cas du visage est assez particulier. Le visage est form par des surfaces lisses et une
texture rgulire. Il possde une forte symtrie (dans le cas des images frontales) et il est form
partir de mmes objets (yeux, nez et bouche), qui ont les mmes positions pour tous les visages.
Ces spcificits donnent lieu plusieurs constatations :
les diffrents pixels de l'image du visage sont fortement corrls.
les images des diffrents visages sont aussi corrles.
un important nombre de points dans l'espace des images ne reprsentent pas des
visages.
D'aprs ces constatations, nous pouvons dduire que les visages forment une classe particulire
dans l'espace des images. L'ensemble des images de visage forment alors un sous-espace de
l'espace des images. D'une faon plus formelle, si on considre l'espace des images 2D d'une
taille fixe, l = n * m. On a
R l . Notons F l'espace des images des visages normaliss une
taille n * m. Nous avons F
,
R l.
II.5.2. Analyse en Composantes Principales
II.5.2.1. Prsentation
Lanalyse en composantes principales (ACP) est une mthode mathmatique qui peut tre
utilise pour simplifier un ensemble de donnes, en rduisant sa dimension.

28

Chapitre II

Techniques de dtection et de reconnaissance de visages

Elle est utilise pour reprsenter efficacement les images de visages, qui peuvent tre
approximativement reconstruites partir dun petit ensemble de poids et dune image de visage
standard.
Ces poids sont obtenus en projetant limage dans un espace de visage engendr par les
visages propres (Eigenfaces). Ainsi au lieu de stocker un vecteur image de taille Rsolution R,
on stocke un vecteur de taille N
nombre dimage dapprentissage M << R. Dans lapproche
ACP, la normalisation dclairage est toujours indispensable [38]. Les visages propres sont des
images de la mme taille que les images dapprentissage et qui montrent des visages ayant un
aspect fantomatique. Mathmatiquement, elles sont les composantes principales de la
distribution des visages, ou les vecteurs propres (Eigenvectors) de la matrice de covariance de
lensemble des images de visage. Chaque image de visage de lensemble dapprentissage peut
tre exactement reprsente en termes de combinaison linaire des Eigenfaces et du visage
moyen [39].
Le nombre possible dEigenfaces est gal au nombre dimages de visage dans lensemble
dapprentissage. Nanmoins les visages peuvent tre approxims, en utilisant seulement les
meilleurs Eigenfaces (ayant les plus larges valeurs propres qui reprsentent en fait, la plupart de
variance dans l'ensemble d'images de visage) qui dfinissent le Low Dimensional Space,
permettant ainsi de diminuer les calculs. Dans le cas o on ne prend que les N (N < M) grandes
valeurs propres (Eigenvalues) et les vecteurs propres qui leurs sont associs, on rduit encore
plus la mmoire de stockage et le temps de calcul, mais on rduit aussi les performances d la
ngligence dune partie de linformation. Cest pour cela quon a pris dans notre application
N= M, bnficiant la fois dune rduction de lespace (R M) acceptable, et aussi en ayant la
totalit de linformation, garantissant ainsi les performances optimales. Une variante de lACP,
plus utilise dans la communaut du traitement du signal est connue sous le nom de transforme
de Karhunen-Love [40]. LACP est une technique rapide, simple et populaire dans
l'identification de modle, cest lune des meilleures techniques. Les projections de lACP sont
optimales pour la reconstruction d'une base de dimension rduite. Cependant, lACP n'est pas
optimise pour la sparabilit (discrimination) de classe. Une alternative qui est l'analyse
discriminante linaire LDA tient compte de ceci.
II.5.2.2. Le processus de reconnaissance (Karhunen-Loeve)
Au dbut de la phase dapprentissage, on fait lacquisition, la lecture et la normalisation
des images d'apprentissage (de taille R). Puis on calcule le visage moyen de ces images. On
soustrait ensuite le visage moyen de chaque image dapprentissage normalise (ces nouvelles
images reprsentent les colonnes dune matrice S). On fait le calcul de la matrice de covariance
qui est dfinie par la formule L=S'*S. On calcule ensuite les vecteurs propres V et les valeurs
propres D de la matrice L. Puis on passe ltape de calcul des visages propres selon la formule
U = S * V * (abs (D)) ^ -0.5. Et finalement on calcule les poids des visages de la base (de taille
M) en les projetant dans le sous-espace engendr par les visages propres Face Space.
Pendant la phase de vrification, on fait lacquisition, la lecture et la normalisation de
limage de vrification (de taille R). Puis on soustrait le visage moyen (calcul auparavant lors
de la phase dapprentissage) de limage de vrification normalise. Ensuite on calcule le poids
de limage (de taille M) en utilisation les visages propres comme une base de projection. Et
finalement on utilise la distance euclidienne comme une mesure de similarit [41].

29

Chapitre II

Techniques de dtection et de reconnaissance de visages

II.5.3. Analyse Discriminante Linaire


II.5.3.1. Prsentation
L'analyse discriminante linaire (LDA) et les discriminants linaires de Fisher (FLD)
relatifs, sont utiliss pour trouver la combinaison linaire des caractristiques qui sparent le
mieux les classes d'objet ou d'vnement.
Les combinaisons rsultantes peuvent tre employes comme classificateur linaire, ou
gnralement dans la rduction de caractristiques avant la classification postrieure.
LDA est troitement li lACP (PCA en anglais), du fait que tous les deux recherchent
des combinaisons linaires des variables qui reprsentent au mieux les donnes. LDA essaye
explicitement de modeler la diffrence entre les classes des donnes. PCA quant elle, ne tient
pas compte des diffrences entre les classes.

Figure 20 : Illustration du principe de sparation optimale des classes par le LDA. Trois
distributions 3D sont projetes sur deux sous-espaces 2D dcris par les vecteurs W1 et W2. Puisque le
LDA essaye de trouver la plus grande sparation parmi les classes, on voit bien que W1 est ici le vecteur
optimal
Chaque visage, qui se compose d'un grand nombre de Pixel, est rduit un plus petit
ensemble de combinaisons linaires avant la classification
Chacune des nouvelles dimensions est une combinaison linaire des valeurs de pixel, qui
forment un template. Les combinaisons linaires obtenues en utilisant FLD s'appellent les
Fisherfaces, en analogie avec les Eigenfaces [42]. LDA est une technique qui cherche les
directions qui sont efficaces pour la discrimination entre les donnes.

Figure 21 : Les projections PCA et LDA dun ensemble de donnes

30

Chapitre II

Techniques de dtection et de reconnaissance de visages

LDA est plutt connue pour sa maximisation de l'parpillement dinter-classe the between-class
scatter et sa rduction au minimum de l'parpillement dintra-classe the within-class scatter,
qui se manifeste par le groupement des vecteurs de poids de la mme classe (faible distance
entre ces vecteurs), et par la sparation des vecteurs de poids de classes diffrentes (grande
distance entre ces vecteurs) [43].
II.5.4. DF-LDA
La plupart des mthodes traditionnelles bases sur LDA, souffrent de l'inconvnient que
leurs critres d'optimalit ne sont pas directement lis aux capacits de classification de la
reprsentation obtenue des caractristiques.
D'ailleurs, leur exactitude de classification est affecte par le problme de la petite
dimension de l'chantillon ( SSS , small sample size) qui est souvent rencontr en
reconnaissance de visages. Lalgorithme de DF-LDA DIRECT FRACTIONAL-STEP LDA
traite ces deux imperfections d'une faon efficace et rentable, offrant des performances
suprieures celles des techniques de reconnaissance de visages classiques.
Lalgorithme de DF-LDA est reprsent comme suit [44]:
Lacquisition et la lecture des images d'apprentissage

Normalisation des images


Calcul du visage moyen m
Calcul du visage moyen de chaque classe

(2.5)

31

Chapitre II

Techniques de dtection et de reconnaissance de visages

Soustraction des visages d'apprentissage

(2.6)

La construction des scatter matrices (une matrice par classe) :


(2.7)

Le calcul de la within-class scatter matrix SW:


(2.8)
Le calcul de la weighted between-class scatter matrix

(2.9)
avec,

(2.10)

est la moyenne de la classe Zi,


Li = dim(Zi), L est le nombre dimage dapprentissage, C est le nombre de classe, dij est la
distance euclidienne entre les moyennes des classes i et j, La fonction pesante
est une
fonction monotoniquement dcroissante de la distance dij
(il est recommand dutiliser :
avec p=2,3)
Le calcul de la matrice

(2.11)

la mtrique utilise dans le DF-LDA et :


(2.12)
32

Chapitre II

Techniques de dtection et de reconnaissance de visages

II.5.5. Analyse en Composantes Indpendantes


PCA est une technique optimale de recherche de reprsentation rduite qui minimise
lerreur de reconstruction, cependant les vecteurs de base tenant compte de lerreur de
reconstruction peuvent ne pas tre optimaux pour coder linformation approprie de limage la
classification. Lanalyse en composantes indpendantes (ICA) est une gnralisation de PCA qui
utilise en plus des statistiques d'ordre 2, les statistiques d'ordre plus suprieur, ce qui peut
produire une reprsentation de donnes plus puissante.
Le but dICA est de trouver des vecteurs de base (images de base) localiss dans lespace
et qui sont statistiquement indpendants, en rduisant au minimum la dpendance statistique.

Figure22 : Le modle de synthse dimage de larchitecture 1 dICA


Avant lapprentissage, on soustrait limage moyenne des images dapprentissage X et on les
filtre par un filtre de blanchiment (whitening filter)
(2.13)
Pour supprimer les statistiques dordre 1 et 2 (la moyenne et les covariances sont mises
zro et les variances sont galises). Pour trouver un ensemble dimages composantes
indpendantes, les images dapprentissage X sont considres comme tant une combinaison
linaire dimages de base statistiquement indpendantes S, o A est une matrice de mixage
inconnue.
Les images de base sont retrouves par une matrice de filtre dapprentissage
, qui
produit des sorties U statistiquement indpendantes. Ces images de base sont considres
comme un ensemble de caractristiques faciales statistiquement indpendantes, o les valeurs
des pixels de chaque image caractristique sont statistiquement indpendantes des valeurs des
pixels des autres images caractristiques [45].

Figure 23 : La reprsentation dICA = (b1, b2,.,bn)

33

Chapitre II

Techniques de dtection et de reconnaissance de visages

La reprsentation dICA est constitue des coefficients b de la combinaison linaire des images
de base U qui forment chaque image de visage. Le nombre de composantes indpendantes
extraites par lalgorithme dICA est gal la dimension de lentre [45] (le nombre dimages
dapprentissage), et si on veut contrler ce nombre, au lieu dexcuter ICA sur les n images
originales, on lexcute sur un ensemble de m combinaisons linaires de ces images, o m < n.
Communment, on choisit pour ces combinaisons linaires un sous ensemble form des
premires composantes principales de la matrice de donne, ainsi lexcution dICA sur
lensemble de ces m composantes principales produit m images sources Ui statistiquement
indpendantes.
Dans cette premire architecture dICA, les images de base Ui sont statistiquement
indpendantes, mais les coefficients bi ne le sont pas. Au lieu de sparer les images de visages
en ensembles dimages indpendantes, il existe une deuxime architecture dICA, dans laquelle
les coefficients sont statistiquement indpendants, en sparant les pixels en un ensemble de
variables indpendantes codant les images.

Figure 24 : Les deux architectures dICA : larchitecture 1 pour trouver des images de base
statistiquement indpendantes (la sparation des images de visages produit des images composantes
indpendantes), et larchitecture 2 pour trouver un code factoriel (la sparation des pixels produit un code
factoriel)

Figure 25 : Le modle de synthse dimage de larchitecture 2 dICA

Dans larchitecture 2 dICA, chaque image de lensemble de donnes est considre comme
tant cre partir dun ensemble dimages de base en A, et dun vecteur de causes dimages
image causes fondamentales statistiquement indpendantes en S. Lalgorithme dICA essaye
dinverser les images de base en trouvant un ensemble de filtres Wi qui produisent des sorties
statistiquement indpendantes.

34

Chapitre II

Techniques de dtection et de reconnaissance de visages

Figure 26 : La reprsentation factorielle dICA = (u1, u2, , un)

II.5.6. Le rseau de neurones


II.5.6.1. Introduction
L'application des rseaux de neurones artificiels dans la reconnaissance de visages a vis
plusieurs problmes : la classification Homme Femme, la reconnaissance de visages et la
classification des expressions faciales [46]. Un rseau de neurones est un systme de traitement
de l'information qui a t dvelopp comme gnralisations des modles mathmatiques
assortissant la connaissance humaine. Ils se composent d'un grand nombre d'units de traitement
hautement relies appeles neurones, travaillant ensemble pour excuter une tche de
classification donne.
Il est un processeur parallle distribu, ayant une prosprit naturelle pour stocker une
connaissance exprimentale. Il ressemble au cerveau humain en trois aspects : la connaissance
est acquise par le rseau par un processus dapprentissage, des forces de connexion relies
ensemble, connues sous le nom de poids synaptiques, sont employes pour stocker la
connaissance, et chaque neurone a un tat interne appel seuil ou fonction d'activation (ou
fonction de transfert) utilise pour classifier les vecteurs.
Malheureusement, ils sont souvent difficiles construire puisque leur structure (nombre de
couches caches et nombre de neurones par couche pour les perceptrons) influe beaucoup sur les
rsultats et il nexiste pas de mthode pour dterminer automatiquement cette structure.
Nanmoins, nous donnons des exemples dtudes ayant utilises les rseaux de neurones pour la
reconnaissance de visages.
Cottrell et al. [51] ont cherch des mthodes danalyse automatique du visage les plus
proches possible de la ralit biologique. Ainsi, un rseau de neurones dit auto-supervis, cest-dire dont la couche dentre et la couche de sortie sont identiques et gales limage dun
visage, effectue une analyse en composantes principales.

35

Chapitre II

Techniques de dtection et de reconnaissance de visages

Le nombre de composantes principales est donn par le nombre de neurones de la couche


cache. Chaque neurone de la couche cache correspond aux valeurs propres de la
dcomposition. Lawrence et al. [52] choisissent de classer les vecteurs de caractristiques,
extraites par cartes de Kohonen, laide dun rseau de neurones convolutionnel. Ce type de
rseau de neurones est partiellement invariant des transformations globales telles que la
translation, la rotation et les changements dchelle.
Les rsultats exprimentaux ont montr la supriorit des rseaux de neurones
convolutionnels sur les rseaux auto-superviss de Cottrell [51].
Lin et al. [53] ont utilis un rseau de neurones dcision probabiliste alliant ainsi les
avantages des approches statistiques et des rseaux de neurones. Il a t montr que les
performances de cette solution sont comparables la mthode de Lawrence et al. , tout en tant
beaucoup moins coteux en termes de temps de calcul.
On trouve plusieurs types de rseaux de neurones : lapprentissage comptitif (nonsupervis, parfois appel VQ), le LVQ (apprentissage comptitif supervis), les cartes auto
organisatrices, le perceptron multicouches avec apprentissage par rtro propagation, les rseaux
probabilistes, les rseaux fonctions radiales de base (FRB), et les rseaux rcurrents [47].
Une classification par rseau de neurones comporte les tapes suivantes :
Tout dabord une phase de prtraitement des images dapprentissage et lassociation
chaque image dapprentissage (entre du rseau) un vecteur de sortie, puis vient ltape
dinitialisation (cration des couches du rseau). On fait lapprentissage (supervis) du rseau,
jusqu' atteindre une certaine erreur minimale (le rseau apprend bien classifier les images
dapprentissage). On prsente ensuite au rseau une nouvelle image identifier (phase de
reconnaissance ou de simulation ou dactivation du rseau) qui sera finalement affecte une
classe donne [48].
II.5.6.2. Le rseau de neurones LVQ
Parmi tous les types de rseau de neurones qui existent, le type LVQ est le type le plus
adapt lapplication de reconnaissance de visage, puisquau contraire des autres types qui
donnent des performances basses, le LVQ quand lui ralise de hautes performances de
classification.
Lalgorithme de base LVQ :
application dune entre
recherche du neurone vainqueur (sa sortie est gale 1)
modification des poids (rapprochement ou loignement selon que le neurone vainqueur
est le neurone dsir ou non)
Dans le langage de programmation Matlab le rseau de type LVQ est programm au moyen de 2
couches : une couche de comptition pour la dtermination du neurone vainqueur (la sortie de ce
dernier est mise 1, celle des autres neurones 0), et une couche de neurones linaires pour la
classification. La 2me couche comporte un neurone par classe, la 1re comporte un neurone par
sous-classe.
Lapprentissage modifie les poids de la premire couche. Les neurones de la 2me couche
combinent certaines sorties des neurones de la 1re au moyen de fonctions OU [47].

36

Chapitre II

Techniques de dtection et de reconnaissance de visages

II.5.7. Machine vecteurs de support


Une machine vecteurs de support est une technique de discrimination, cest une mthode
dapprentissage supervis utilise pour la classification et la rgression. Elle consiste sparer
deux ou plusieurs ensembles de points par un hyperplan. Selon les cas et la configuration des
points, la performance de la machine vecteurs de support peut tre suprieure celle d'un
rseau de neurones ou d'un modle de mixture gaussienne [49].
II.5.7.1. Le principe de SVM
Lide originale des SVMs est base sur lutilisation de fonctions noyau kernel, qui
permettent une sparation optimale des points du plan en diffrentes catgories. La mthode fait
appel un ensemble de donnes d'apprentissage, qui permet d'tablir un hyperplan sparant au
mieux les points [49].
II.5.7.2. La sparation optimale
Dans un plan deux dimensions dans lequel sont rpartis deux groupes de points associs
deux classes : les points (+) pour y > 0 et les points (-) pour y < 0, on peut trouver un
sparateur linaire vident, qui est l'axe des abscisses et qui spare parfaitement les points. Le
problme est dit linairement sparable. Pour des problmes plus compliqus, la caractrisation
d'un sparateur linaire peut tre trs complique et tout fait non optimale. Par exemple dans
un plan dans lequel les points (+) sont regroups en un cercle, avec des points (-) tout autour,
aucun sparateur linaire en deux dimensions ne pourra correctement sparer les groupes. Le
problme dans ce cas n'est pas linairement sparable. La SVM utilise les trucs du noyau
kernel trick pour appliquer une classification linaire un problme de classification non
linaire [49].
II.5.7.3. Le concept d'hyperplan
Afin de remdier au problme de l'absence de sparateur linaire, le concept des SVMs est
de reconsidrer le problme dans un espace de dimension suprieure. Dans ce nouvel espace, il
existe un sparateur linaire qui permet de classer au mieux les points dans les deux groupes qui
conviennent, avec une distance maximale entre lhyperplan et les points les plus proches des
deux classes, afin de pouvoir classifier plus exactement les nouveaux points, cette distance
sappelle la marge. Cet hyperplan est connu sous le nom de lhyperplan marge maximum ou
lhyperplan optimal et les vecteurs (points de dimension n) les plus proches de cet hyperplan
sappellent les vecteurs de support. On pourra ensuite projeter le sparateur linaire dans
l'espace d'origine pour visualiser le rsultat de la classification. Le sparateur linaire obtenu
peut tre un hyperplan, c'est dire la gnralisation n dimensions d'une ligne (1D) sparant un
espace 2D, ou d'un plan (2D) sparant un espace 3D. Le changement d'espace se fait au moyen
d'une fonction rpondant au critre de Mercer. Ce critre permet un changement dans les deux
sens, ce qui permet partir de l'expression de l'hyperplan dans l'espace complexe de classer les
lments dans l'espace de description initial [49].

37

Chapitre II

Techniques de dtection et de reconnaissance de visages

Figure 27 : Exemple de deux classes linairement sparables. Lhyperplan dtermin


par la SVM, maximisant la marge, permet de sparer les deux classes de manire
optimale.

II.5.7.4. La classification linaire :


On considre un ensemble de donnes {(x1,c1), (x2,c2), , (xp, cp) } o cp est la classe
laquelle appartient le point xp, cp est gale (-1) ou (+1) et xp est un vecteur de dimension n de
valeurs appartenant lintervalle [0,1] ou [-1,1]. Ces donnes dapprentissage dsignent la
classification correcte quon voudra que la SVM fasse par la suite, au moyen de l'hyperplan de
division, qui obit la forme :
w.x - b = 0

(2.14)

On sintresse aussi aux hyperplans parallles lhyperplan optimal qui sont tangents aux
vecteurs de support des classes, et qui sont dcrits par les quations : w.x-b = 1 et w.x-b = -1. On
veut que ces hyperplans maximisent la distance avec l'hyperplan de division et quil n'y ait
aucun point de donnes entre les deux. En employant la gomtrie, on trouve que la distance
entre les hyperplans est 2 / |w|, ainsi le but est de rduire au minimum |w|.
Pour exclure les points de donnes, on doit sassurer que pour chaque i on a w.xi b 1
ou w.xi b -1, ou sous une autre quation ci(w. xi b) 1 avec 1 i p. Le problme
maintenant est de minimiser |w| sous cette dernire contrainte, ceci est un problme
doptimisation de programme quadratique QP). Il existe plusieurs algorithmes spcialiss pour
rsoudre rapidement les problmes QP et la mthode la plus commune est l'algorithme SMO.
Aprs lapprentissage, la SVM peut classifier les nouvelles donnes (donnes de test) en
utilisant la rgle de dcision suivante :

(2.15)
On peut constater daprs la rgle de classification quelle est seulement en fonction des vecteurs
de supports (les donnes dapprentissage se trouvant sur la marge) [49].

38

Chapitre II

Techniques de dtection et de reconnaissance de visages

II.5.7.5. La classification non linaire


Lalgorithme original de lhyperplan optimal est un classificateur linaire, et pour avoir un
classificateur non linaire on applique le kernel trick lhyperplan marge maximum,
l'algorithme rsultant est formellement semblable, sauf que chaque produit scalaire est remplac
par une fonction noyau non linaire.
Parmi les noyaux les plus communs, on trouve :
le noyau polynomial (homogne)

(2.16)

le noyau polynomial (inhomogne) :

(2.17)

la fonction radiale de base RBF :

avec > 0,

(2.18)

la fonction radiale de base de type gaussien :

(2.19)

la fonction sigmode:

(2.20)

II.5.8. Modle de Markov cach


Les modles de Markov cachs HMMs sont massivement utiliss en reconnaissance de
formes, en intelligence artificielle ou encore en traitement automatique du langage naturel. Les
HMMs sont gnralement employs pour la modlisation statistique de sries de vecteur de
temps non stationnaire. En considrant l'information du visage comme tant une squence
variable dans le temps, le HMM peut tre appliqu la reconnaissance de visages [46]. Les
caractristiques faciales les plus significatives d'une image de visage frontale, savoir les
cheveux, le front, les yeux, le nez et la bouche, se prsentent dans un ordre naturel de haut en
bas, mme dans le cas o il ya des petites rotations. En se basant sur cette observation, l'image
d'un visage peut tre modlise en utilisant un HMM unidimensionnel en assignant chacune de
ces rgions un tat. Le HMM classifie une caractristique par la proprit de la chane de
Markov. Une squence des valeurs des pixels forme une chane de Markov, si la probabilit que
le systme linstant n+1 soit ltat x n+1 dpend uniquement de la probabilit que le systme
linstant n soit ltat x n.
Dans une chane de Markov, la transition dun tat un autre est probabiliste ce qui donne
une distribution de probabilit de lensemble des sorties de chaque tat. Ce rsultat est employ
pour faire la comparaison entre deux visages [46] [48].

Figure 28 : Les 5 tats du HMM (de haut en bas)

39

Chapitre II

Techniques de dtection et de reconnaissance de visages

Pour une image de visage dune personne donne de l'ensemble dapprentissage, le but
de l'tape dapprentissage est doptimiser les paramtres pour mieux dcrire l'observation. La
reconnaissance est effectue en assortissant l'image de test contre chaque modle
dapprentissage (chaque HMM reprsente une personne diffrente). Et dans la fin de cette
procdure, l'image est convertie en une squence d'observation et la probabilit est calcule pour
chaque modle enregistr.
Le modle avec la probabilit la plus leve indique l'identit de la personne inconnue
[46] [39]. Lapproche HMM a des performances de reconnaissance satisfaisantes, cependant il
ncessite des calculs intenses ce qui augmente les temps dexcution.
II.5.9. Mthodes bases sur lapparence locale (Local appearance-based methods)
Ces techniques sont utilises de manire modulaire pour les diffrentes rgions
faciales. Un modle global est alors dfini partir de la combinaison des diffrents modles
locaux. Ainsi, les diffrentes rgions faciales ne seront plus affectes de la mme manire par
les diffrentes sources de variabilit. Par exemple, le port de lunettes de soleil change
considrablement laspect des yeux, tandis quun sourire affecte plus la rgion de la bouche.
Deux paramtres sont utiliss pour dfinir les rgions locales du visage : la forme
(rectangle, ellipse) et la taille. Les caractristiques des rgions locales sont dtermines partir
dune analyse des valeurs de niveau gris [54]. Des techniques comme les Ondelettes de Gabor
[55] ou de Harr [56] et lanalyse fractale sont aussi utilises pour lextraction de
caractristiques. En gnral, les caractristiques base de valeurs de gris prservent
l'information de texture, tandis que les caractristiques de Gabor sont plus robustes face aux
changements dillumination et aux transformations gomtriques [55].
II.5.9.1. ACP modulaire
Dans [12], Pentland et al. ont introduit lapproche des Modular Eigenspase .
Les rgions faciales utilises sont: la totalit du visage, les yeux et le nez. Une ACP est
applique sur chacune de ces rgions et les rsultats de classifications obtenus sont agrgs. La
bouche tant trop sensible des changements dexpression faciale, sa prise en compte engendre
une baisse du taux de reconnaissance. Cette approche peut tre qualifie dhybride, puisquelle
utilise la fois des caractristiques globales et locales.
Les auteurs ont montr quelle est plus efficace que les techniques globales ou
strictement locales appliques sparment.
II.5.10. Template matching
Le template matching est une technique globale de reconnaissance de visage. La
corrlation est gnralement exploite pour mesurer la similitude entre un template (masque)
stock et l'image reconnatre. Les templates devraient tre dlibrment conus pour couvrir la
varit de variations possibles d'image. Pendant la recherche dans l'image, lchelle et la rotation
devraient galement tre soigneusement considres pour acclrer le processus. Cette technique
a aussi t exploite pour localiser les caractristiques saillantes salient features comme les
yeux le nez et la bouche, dans une image de visage. Daffines transformations ont t introduites
dans le processus de reconnaissance, lors de changement de pose [50].

40

Chapitre II

Techniques de dtection et de reconnaissance de visages

II.5.10.1. Lalgorithme du template matching :


On commence par lacquisition, la lecture et la normalisation des images d'apprentissage.
On calcule ensuite le visage moyen de chaque classe de personnes (les templates). Dans ltape
de reconnaissance, on fait lacquisition, la lecture et la normalisation de limage de vrification.
Puis on calcule les diffrences entre limage de vrification et les templates (les diffrences sont
des images). On calcule aprs les sommes de ces diffrences (somme des pixels de limage
diffrence). Et finalement la somme minimale va rfrencer la classe auquel appartient limage
de vrification.
II.6. Discussion
Ces dernires annes, de nombreuses approches pour la reconnaissance automatique de
visages ont t proposes. Elles peuvent tre regroupes en deux types dapproches principales.
Les approches globales pour lesquelles les caractristiques sont extraites directement de limage
du visage en entier et les approches locales bases sur lextraction de traits locaux du visage, tel
que les yeux, le nez ou la bouche.
Dans ce chapitre nous avons pass en revue les mthodes les plus connues de la dtection de
visage puis nous nous sommes focaliss sur les principaux algorithmes de la reconnaissance
faciale, qui se divisent en trois catgories savoir les mthodes globales, locales et hybrides.
Nous avons dcrit galement leurs avantages et leurs inconvnients puis dgager les
problmes lis leur application dans un environnement rel. En effet, un systme de
reconnaissance automatique de visages est efficace dans le cas o les images faciales seraient
bien cadres et prises dans de bonnes conditions de luminosit. Sa performance se dgrade
fortement lorsque ces images, utilises pour lapprentissage ou lors de la reconnaissance,
prsentent des variations importantes de luminosit et/ou de pose du visage.

41

Chapitre III

Reconnaissance par
Eigenface

Chapitre III

Reconnaissance de visage par Eigenface

III.1. Prambule
La reconnaissance du visage a atteint un haut niveau de performances, mme avec
lutilisation dun seul exemple dapprentissage. Dans les conditions actuelles des travaux sur
la reconnaissance faciale, le systme visuel humain reste encore le plus robuste face aux
diverses variations pouvant altrer le processus didentification : changement des conditions
d'clairage, variations de lexpression faciale, modifications de lapparence du visage
travers la prsence ou labsence de lunettes, barbe, maquillage.
De nombreuses techniques ont t dveloppes ces dernires annes, nous avons
passes en revue les plus connues dans le chapitre deux. Parmi elles, Eigenface, qui est une
technique particulirement prise par les chercheurs de la communaut de la biomtrie.
Nous commencerons dabord par dtailler le principe de la mthode Eigenface, puis
nous prsenterons les bases de donnes sur lesquelles les tests ont t effectus et nous
suggrerons quelques tapes pour amliorer cette mthode, en fin nous terminerons par une
discussion.
III.2. Prsentation de la mthode Eigenface
Lalgorithme ACP, PCA en anglais (Principal Component Analysis) est n des travaux
de MA. Turk et AP. Pentland au MIT Media Lab, en 1991. Il est aussi connu sous le nom de
Eigenfaces car il utilise des vecteurs propres et des valeurs propres. Cet algorithme sappuie
sur des proprits statistiques bien connues et utilise lalgbre linaire. Il est relativement
rapide mettre en uvre mais il est sensibles aux problmes dclairement [12], de pose et
dexpression faciale. Il est la base de nombreux algorithmes globaux actuels.
Lide principale consiste exprimer les M images dapprentissage selon une base de
vecteurs orthogonaux particuliers, contenant des informations indpendantes dun vecteur
lautre. Ces nouvelles donnes sont donc exprimes dune manire plus approprie la
reconnaissance du visage.
Nous voulons extraire linformation caractristique dune image de visage, pour
lencoder aussi efficacement que possible afin de la comparer une base de donnes de
modles encods de manire similaire. En termes mathmatiques, cela revient trouver les
vecteurs propres de la matrice de covariance forme par les diffrentes images de notre base
dapprentissage [39].
Une image Ii (m, n) est traite comme un vecteur i (mn, 1) dans un espace vectoriel
de grande dimension (N = mn), par concatnation des colonnes.
Aprs avoir rassembl nos M images dans une unique matrice, nous obtenons une
matrice dimages , o chaque colonne reprsente une image i:

42

Chapitre III

Reconnaissance de visage par Eigenface

On calcule ensuite limage moyenne de toutes les images collectes.


Cette image peut tre vue comme le centre de gravit du jeu dimages (Figure 29) :
(3.1)
On ajuste ensuite les donnes par rapport la moyenne.

Figure 29 : Image moyenne

Limage moyenne est alors soustraite de chaque image avec la formule suivante:
,

i = 1...M

(3.2)

On calcule ensuite la matrice de covariance du jeu de donnes. Cette matrice peut tre vue
comme une matrice de moments dordre 2 :
(3.3)
La prochaine tape consiste calculer les vecteurs propres et les valeurs propres de cette
matrice de covariance C de taille (N N), cest--dire de lordre de la rsolution dune image.
Le problme est que cela peut parfois tre trs difficile et trs long.
En effet, si N > M (si la rsolution est suprieure au nombre dimages), il y aura
seulement M 1 vecteurs propres qui contiendront de linformation [40] (les vecteurs propres
restants auront des valeurs propres associes nulles).
43

Chapitre III

Reconnaissance de visage par Eigenface

Par exemple, pour 50 images de rsolution 180 200, nous pourrions rsoudre une
matrice L de 50 50 au lieu dune matrice de 36000 36000 pour ensuite prendre les
combinaisons linaires appropries des images i. Le gain de temps de calcul serait
considrable, nous passerions dune complexit de lordre du nombre de pixels dans une
image celle de lordre du nombre dimages.
Les tapes du processus qui nous permettent dacclrer les calculs sont dcrites ci-dessous :
Considrons les vecteurs propres ei de

, associs aux valeurs propres

On a:
(3.4)
Les vecteurs propres vi de

, associs aux valeurs propres i sont tels que :

Soit:
(3.5)
En multipliant gauche par A des deux cts de lgalit, nous obtenons :

Puisque

, nous pouvons simplifier :


(3.6)

De (3.4) et (3.5), nous voyons que Avi et i sont respectivement les vecteurs propres et
les valeurs propres de C :
(3.7)
Nous pouvons donc trouver les valeurs propres de cette norme matrice C en trouvant
les valeurs propres dune matrice L beaucoup plus petite. Pour trouver les vecteurs propres de
C, il suffit juste de multiplier les vecteurs propres de L par la matrice A.
Les vecteurs propres trouvs sont ensuite ordonns selon leurs valeurs propres
correspondantes, de manire dcroissante. Plus une valeur propre est grande, plus la variance
capture par le vecteur propre est importante. Cela implique que la majeure partie des
informations est contenue dans les premiers vecteurs propres.
III.2.1. Choix du nombre de vecteurs propres
Ltape suivante consiste ne slectionner que les k meilleurs vecteurs propres
(ceux avec les k plus grandes valeurs propres).

44

Chapitre III

Reconnaissance de visage par Eigenface

Le nombre de vecteurs propres associs aux plus grandes valeurs propres retenir est
un grand dfaut de cette technique. Pour le choisir, les chercheurs ont adopt diffrentes
solutions:
Pour un ensemble de 115 images, Sirovitch et Kirby ont trouv que 40 eigenpictures
sont suffisantes pour reprsenter efficacement cet ensemble,
Turk et Pentland [12] l'ont choisi heuristiquement. Pour leurs tests, sur une base de 16
individus, 7 vecteurs propres ont t retenus,
Moghaddam [15] a prserv, pour comparer diffrentes approches de reconnaissance
de visages 20 vecteurs propres en justifiant son choix par une erreur de reconstruction
raisonnable (0.0012) et un taux de reconnaissance 80% obtenu par eigenfaces sur une
base de 1829 images,
Zhao et al ont retenu 300 vecteurs propres pour une base de 1038 images aprs avoir
observ que pour un nombre trs lev, les eigenfaces ne reprsentent pas des visages,
donc leur choix tait bas sur l'allure des eigenfaces au lieu des valeurs propres.
Pratiquement, le choix de k peut se faire soit en fixant un certain pourcentage D tel que:

(3.8)
avec n le nombre total des valeurs propres ou on se basant sur le fait que la ime valeur propre
est gale la variance le long de la ime composante principale et on cherche, donc k le
long du spectre des valeurs propres juste avant quil s'annule [12].

Figure 30 : Dcroissance des valeurs propres de la base de donnes utilise en fonction du


nombre de vecteurs propres retenu.
Donc, les k premiers vecteurs propres correspondant aux k plus grandes
valeurs propres sont un paramtre critique sur lequel dpend la performance du systme de
reconnaissance de visages (temps de calcul et taux de reconnaissance) et aussi un critre
d'valuation [12] des mthodes bases sur lACP.

45

Chapitre III

Reconnaissance de visage par Eigenface

Son choix dpend des contraintes d'application lies au temps de calcul et au nombre
des images de visages disponibles et aussi de la qualit des images de visages reconstruites.
A partir de l, on dfinit un espace vectoriel engendr par ces k vecteurs propres, que
lon appelle lespace des visages Ev (Face Space). Les images originales peuvent tre
reconstitues par combinaison linaire de ces vecteurs propres. Les reprsentations graphiques
de ces vecteurs rappellent un peu des images fantmes, chacune mettant en avant une partie
du visage, on les appelle Eigenfaces (figure 31).

Figure 31 : Images reprsentants les Eigenface


III.2.2. Utilisation des Eigenfaces pour la classification des images visage
Nous allons maintenant projeter nos images de dpart sur Ev. Une image i est alors
transforme en ses composantes Eigenfaces par une simple opration de projection
vectorielle :
,

k = 1, ..., M

(3.9)

Les vecteurs k sont appels poids et forment une matrice [5] T = [ 1, 2, ..., M0] qui dcrit
la contribution de chaque eigenface dans la reprsentation de limage dentre. La matrice T
est alors utilise pour trouver quelle est, parmi un nombre prdfini de classes, celle qui dcrit
le mieux une image dentre.
La mthode la plus simple pour dterminer quelle classe de visage fournit la meilleure
description dune image dentre est de trouver la classe de visage k qui minimise la distance
Euclidienne.
(3.10)
O

est un vecteur qui dcrit la keme classe de visage.

Un visage appartient une classe k quand le minimum k est en dessous dun certain
seuil . Dans le cas contraire, le visage est class comme tant inconnu et peut
ventuellement tre utilis pour crer une nouvelle classe de visage.
46

Chapitre III

Reconnaissance de visage par Eigenface

Il y a alors, quatre possibilits (figure 32) pour une image dentre dtre reconnue ou non :
3

2
1

e2
3
1

e1

Figure 32 : Illustration des cas possibles de classification dune image.


Cas 1 : un individu est reconnu et identifi.
Cas 2 : un individu inconnu du systme est prsent.
Cas 3 et 4 : indiquent que limage nest pas une image de visage.
Cas 3, limage est loigne de Ev mais la projection est proche dune
classe connue, risque de fausse acceptation.

III.2.3. Rsum de la mthode


Lapprentissage des visages propres seffectue selon les tapes suivantes :
1- Collecte des M images faciales et construction de la matrice T de taille M, par
concatnation des colonnes des images faciales. Prtraitement des images collectes.
2- Calcul du visage moyen en sommant les colonnes de la matrice T et en divisant le
vecteur rsultant par le nombre dimage dentre (M).
3- Soustraction du visage moyen de la matrice T pour obtenir la matrice A ; o chaque
lment reprsente la variance des valeurs dintensit de chaque pixel.
4- Calcul de la matrice ,
.
5- Calcul des vecteurs propres de C et les tris dans un ordre descendant selon les
valeurs propres associes.
6- Calcul des vecteurs propres de la matrice de covariance C et obtention des visages
propres en multipliant les vecteurs propres de C par la matrice A.
7- Choix des K meilleur valeurs propres et les vecteurs propres associs.
8- Dtermination du poids des images dentre en projetant chaque image dans lespace
visage.
9- Chaque visage est maintenant reprsent par un vecteur qui est utilis pour
reconstruire les images. Et enfin sauvegarde des calculs du visage moyen, des
eigenfaces et du poids des images.
Les neuf tapes dcrites transformeront une base de donnes dimages faciales en un
ensemble de projections dans lespace visage (face space).
47

Chapitre III

Reconnaissance de visage par Eigenface

Ltape de reconnaissance peut tre rsume comme suit :


Prtraitement de limage dentre et soustraction du visage moyen.
Dtermination du poids de limage dentre par la projection de celleci dans lespace
visage en multipliant le vecteur rsultant de ltape (1) par les eigenfaces de la base de
donnes.
Comparaison des rsultats obtenus en utilisant des mtriques telles que la distance
Euclidienne.

III.3. Mesures de Distance


Lorsquon souhaite comparer deux vecteurs de caractristiques issus du module
dextraction de caractristiques dun systme biomtrique, on peut soit effectuer une mesure
de similarit (ressemblance), soit une mesure de distance (divergence).
La premire catgorie de distances est constitue de distances Euclidiennes et sont dfinies
partir de la distance de Minkowski dordre p dans un espace euclidien RN (N dterminant la
dimension de lespace euclidien).
Considrons deux vecteurs X = (x1, x2, , xn) et Y = (y1, y2, , yn), la distance de
Minkowski dordre p note Lp est dfinie par :

(3.11)
Nous allons prsenter quelques mesures de distance dans lespace original des images puis
dans lespace de Mahalanobis.
III.3.1. Distances Euclidiennes
III.3.1.1 Distance City Block (L1)
Pour p = 1, on obtient la distance City-Block (ou distance de Manhattan) :

(3.12)
III.3.1.2 Distance Euclidienne (L2)
Pour p = 2, on obtient la distance euclidienne :

(3.13)

48

Chapitre III

Reconnaissance de visage par Eigenface

Les objets peuvent alors apparatre de faons trs diffrentes selon la mesure de distance
choisie (Figure 33).

Figure 33 : Reprsentation dune sphre avec la distance euclidienne (3.4.a)


et la distance City-Block (3.4.b).

III.3.2. Distances dans lEspace de Mahalanobis


III.3.2.1. De lespace des images lespace de Mahalanobis
Avant de pouvoir effectuer des mesures de distance dans lespace de Mahalanobis, il
est essentiel de bien comprendre comment lon passe de lespace des images Im lespace de
Mahalanobis

En sortie de lalgorithme PCA, nous obtenons des vecteurs propres associs des valeurs
propres (reprsentant la variance selon chaque dimension). Ces vecteurs propres dfinissent
une rotation vers un espace dont la covariance entre les diffrentes dimensions est nulle.
Lespace de Mahalanobis est un espace o la variance selon chaque dimension est gale 1.
On lobtient partir de lespace des images I m en divisant chaque vecteur propre par son
cart-type correspondant.
Soit u et v deux vecteurs propres de Im, issus de lalgorithme PCA, et m et n deux vecteurs de
. Soit
dfinit i =
suivantes :

i
i.

les valeurs propres associes aux vecteurs u et v, et

lcart-type, alors on

Les vecteurs u et v sont relis aux vecteurs m et n partir des relations

et

(3.14)

49

Chapitre III

Reconnaissance de visage par Eigenface

III.3.2.2. Mahalanobis L1 (MahL1)


Cette distance est exactement la mme que la distance City-Block sauf que les vecteurs sont
projets dans lespace de Mahalanobis. Ainsi, pour des vecteurs propres u et v de projections
respectives m et n sur lespace de Mahalanobis, la distance Mahalanobis L1 est dnie par :

(3.15)
III.3.2.3. Mahalanobis L2 (MahL2)
Cette distance est identique la distance euclidienne part quelle est calcule dans lespace
de Mahalanobis. Ainsi, pour des vecteurs propres u et v de projections respectives m et n sur
lespace de Mahalanobis, la distance Mahalanobis L2 est dnie par :

(3.16)
Par dfaut, lorsquon parle de distance de Mahalanobis, cest cette distance que lon doit se
rfrer.
III.3.2.4. Cosinus de Mahalanobis (MahCosine)
Il sagit tout simplement du cosinus de langle entre les vecteurs u et v, une fois quils ont t
projets sur

et normalises par des estimateurs de la variance (Figure 34).

Figure 34 : Les deux vecteurs m et n dans lespace de Mahalanobis

Nous avons donc par dfinition :


(3.17)
De plus, on peut crire :

(3.18)

50

Chapitre III

Reconnaissance de visage par Eigenface

Do la formule finale de la mesure de similarit MahCosine :


,
o

(3.19)

est la mesure de distance quivalente. On peut enfin noter quil sagit

principalement de la covariance entre les vecteurs dans lespace de Mahalanobis.


III.3.3 Choix de la distance de similarit
Dans la communaut de la reconnaissance des formes, le choix dune distance de similarit
est souvent expliqu et argument par rapport lespace dattributs et aux points de donnes
utiliss. Nous avons remarqu entre autre, avec les mmes vecteurs attributs Eigenfaces, que
la distance Euclidienne fournit de meilleurs rsultats didentification des individus quavec la
distance de Manhattan. Ces performances nous ont pousss utiliser la distance Euclidienne
dans ce dernier processus.

III.4. Organigramme dtaill de lapproche Eigenface


Notre organigramme se divise en trois parties : la premire est le prtraitement suivi de la
phase dapprentissage et se termine par la phase didentification o la distance euclidienne est
retenue pour le calcul de la diffrence entre les poids de limage identifier et les images de
base de donnes puis le programme affiche la plus proche.

51

Chapitre III

Reconnaissance de visage par Eigenface

III.4.1. Organigramme du prtraitement

Debut
Slection de la base dapprentissage
- dfinir le chemin : TrainFiles = dir()

Lecture des images sous MATLAB


-

im(i) = imread(i)

Conversion des images en niveau de gris


-

Boucle
(i) de 1
M
M nbr images

Im(i)= Rgb2gray(i)

Redimensionnements des images


-

Im(i)=Imresize(i)
-

Application de lgalisation de lhistogramme

Im(i)=histeq(i)

Fin

Figure 35 : prtraitements

52

Chapitre III

Reconnaissance de visage par Eigenface

III.4.2. Organigramme de la phase dapprentissage


Apres prtraitements

Concatnations des colonnes des matrices images


en vecteur (m*n, 1)

Calcul de limage moyenne


,

image de visage

Calcul des images centres


, i = 1...M

Calcul de la matrice de covariance

Calcul de la matrice de covariance

lieu de

calculs

Calcul des valeurs et vecteurs propres

de

Les trier dans un ordre dcroissant

Calcul des valeurs et vecteurs propres

de

Choix du nbr K de vecteurs propres utiliser

Calcul de la matrice poids


,
T

= [ 1,

k = 1, ..., M
2,

...,

M]

Fin de lapprentissage

Figure 36 : phase dapprentissage


53

au

pour viter la complexit des

Chapitre III

Reconnaissance de visage par Eigenface

III.4.3. Organigramme de la phase didentification

Dbut
Acquisition de la nouvelle image identifier X

Prtraitements
-

Convertir en niveaux de gris .


Redimensionnement
.
Egalisation de lhistogramme

Concatnation des colonnes de la matrice X en


forme de vecteur (m*n, 1)

Soustraction de limage moyenne

Calcul du poids de limage X

Recherche de limage la plus proche

NON

OUI

Min
Seuil
Personne identifie

Individu inconnu

Affichage du rsultat

FIN
Figure 37 : phase didentification
54

Chapitre III

Reconnaissance de visage par Eigenface

III.5. Les bases de donnes de visage


Plusieurs bases de donnes contenant des informations qui permettent lvaluation des
systmes de reconnaissance de visages sont disponibles sur le march. Toutefois, ces bases de
donnes sont gnralement adaptes aux besoins de quelques algorithmes spcifiques de
reconnaissance, chacune delle a t construite avec des conditions dacquisition dimages
de visages diverse (changements dillumination, de pose, dexpressions faciales)ainsi que le
nombre de sessions pour chaque individu.
III.5.1 AT&T
Cette base contient des images de visage de 40 personnes, avec 10 images pour chacune.
Pour la plupart des sujets, les 10 images ont t tires diffrentes heures et avec diffrentes
conditions d'clairage, mais toujours sur un fond fonc. La taille d'image est 92 x 112.
Les limitations de cette base de donnes sont : le nombre limit de personnes, la
non-conformit des conditions d'clairage dune image une image, et la non assignation de
toutes les images par les diffrentes expressions faciales, rotation de la tte, ou conditions
d'clairage [58].
III.5.2 FEI
La base de donnes de visage de FEI est une base de donnes brsilienne de visage qui
contient un ensemble d'images de visage prises entre juin 2005 et mars 2006 au laboratoire
d'intelligence artificielle de FEI dans So Bernardo font Campo, So Paulo, Brsil. Elle
contient des images de visage de 200 personnes, avec 14 images pour chacune dentre elles,
un total de 2800 images. Toutes les images sont en couleur et prises sur un fond blanc
homogne en position frontale avec divers angles de pose de chaque personne, s'tendant du
profil aux vues frontales. La variation dclairage est de 10% et la rsolution de limage est de
640x480 Pixel [58].
Le nombre de sujets masculins et fminin sont exactement identique et gale 100. La
figure 38 montre quelques exemples des variations d'image de la base de donnes de visage
de FEI.

Figure 38 : Exemples dimages de visages de la base FEI

55

Chapitre III

Reconnaissance de visage par Eigenface

III.5.3. MUCT
La base de donnes de MUCT se compose de 3755 en couleur [58]. Elles ont t rassembles
en photographiant 345 sujets de divers angles. La base de donnes a t cre pour fournir
plus de diversit d'clairage, d'ge, et d'appartenance ethnique, aussi pour dvelopper, tester et
valuer des algorithmes de reconnaissance de visages. Les images couleurs ont une rsolution
: 512 x 768, en format JPG. Quelques exemples sont montrs dans la figure 39.

Figure 39 : Exemples dimages de visage de la base MUCT


III.5.4. CVSRP
Nombre total des individus: 395
Nombre d'images par individu: 20
Nombre total des images: 7900
Genre: contient des images des sujets masculins et fminins
Ethnies : contient des images des personnes de diverses origines raciales
Tranche D'ge: les images sont principalement des tudiants de premire anne ainsi
que des tudiants prparant une licence, la majorit des individus sont entre 18-20 ans,
mais quelques individus plus gs sont galement prsents.
Lunettes : Oui
Barbes: Oui
Format d'image: JPEG de la couleur 24bit
Appareil-photo utilis: Camcorder de S-vhs
clairage: artificiel.
Des exemples dimages de visage de cette base sont montrs dans la figure 40 [58]

Figure 40 exemples dimages de visage de la base CVSRP

56

Chapitre III

Reconnaissance de visage par Eigenface

III.6. Discussion
Ce chapitre a t consacr en premier lieu la prsentation de la mthode de reconnaissance
faciale choisie qui est Eigenface , de la structure des bases de donnes de visage et ensuite,
nous avons dcrit les diffrentes tapes de limplmentation du systme.
Dans le chapitre suivant, nous testerons le systme dans son environnement afin dvaluer ses
performances pour en dduire les paramtres optimaux qui garantissent une meilleure
efficacit du systme. Enfin, nous proposerons quelques procdures pour amliorer les
performances de notre systme.

57

Chapitre IV

Tests et rsultats

Chapitre IV

Tests et rsultats

IV.1. Preambule
Ce chapitre reprsente les resultats des tests effectus avec la mthode des Eigenface sur
les bases de donnes dcritent dans le chapitre prcdent. Rappelons que notre travail consiste
concevoir un systme didentification biomtrique de personnes par reconnaissance faciale se
basant sur une analyse en composante principale qui peut tre utilise pour simplifier un
ensemble de donnes, en rduisant sa dimention. Plusieurs tapes sont ncessaires, ltape
dextraction des caractristiques est la plus importante car les performances du systme en
dpendent (rsultats et robustesse, un temps de latence acceptable pour des applications
temps rel ). Nous valuerons dans ce chapitre les resultats obtenus sur plusieurs bases de
donnes sous diffrentes conditions et attributs de la mthodes.
IV.2 Environnement du travail
Dans cette section, nous prsenterons les environnements matriel et logiciel de notre travail.
IV.2.1 Environnement matriel
Afin de mener bien ce projet, il a t mis notre disposition un ensemble de matriels dont les
caractristiques sont les suivantes :
Un ordinateur FUJITSU avec les caractristiques suivantes :

Processeur : Intel Pentium Dual CPU T3400 @ 2.16Ghz


RAM : 2.00 Go de RAM
Disque Dur : 250 Go
OS : Microsoft Windows Seven

2.17Ghz

IV.2.2. Outils de dveloppement :


Nous avons eu recours lors de llaboration de notre systme Matlab 7.12.0 que nous
prsenterons ci-dessous.
IV.2.2.1. Matlab 7.12.0 (R2011a) :
Matlab et son environnement interactif est un langage de haut niveau qui permet lexcution de
tches ncessitant une grande puissance de calcul et dont la mise en uvre sera bien plus simple
et rapide quavec des langages de programmation traditionnels tels que le C, C++. Il dispose de
plusieurs boites outils en particulier celle du traitement dimages ImageProcessing ToolBox
qui propose un ensemble dalgorithme et doutils graphiques de rfrence pour le traitement,
lanalyse, la visualisation et le dveloppement dalgorithmes de traitement dimages.
IV.3. Prsentation de lapplication :
On prsente dans cette section les diffrents aspects du sytme de reconnaissance.
IV.3.1. Interface Prsentation :
Cest une interface destine aux utilisateurs, elle est simple et permet dillustrer les principaux
processus du systme de reconnaissance ( identification, visage moyen, reconstruction de

58

Chapitre IV

Tests et rsultats

limage, visage propre). Ces oprations sont effectues sur les bases de donnes dcritent dans
le chapitre prcdent.

2
3
1
4

5
8

Figure 41 : Interface graphique de reconnaissance faciale

1- panel MENU : regroupant 3 sous panel (voir figure 42)


Eigenface
Fisherface
Database

Figure 42 : panel MENU

2- Panel Eigenface : contient 3 boutons (voir figure 43) :


Recognition : permet de lancer lalgorithme Eigenface pour la reconnaissance
faciale ;
Mean Face : affiche le visage moyen de la base de donnes ;
Reconstruction : permet daffiche limage reconstruite du visage identifier.
59

Chapitre IV

Tests et rsultats

Figure 43 : panel Eigenface

3- Panel Fisherface : regroupant 2 boutons (voir figure 44) :


Recognition : lance lalgorithme fisherface pour la reconnaissance faciale ;
First eigenface : affiche le premier visage propre de la base de donnes.

Figure 44 : panel Fishserface

4- Panel Database : regroupant 4 boutons (voir figure 4.5) :


Select image : slectionne limage de visage identifier ;
Select database : slectionne la base de donnes employer pour lidentification ;
Delete database : permet de supprimer la base de donnes ;
Add to database : permet dajouter une image de visage dans la base de donnes
employe.

Figure 45 : panel Database

5- Static text : nous informe sur le nombre dimages de visage se trouvant dans la base de
donnes ;
6- Axe 1 : affiche divers images de visages dont :
Limage de visage identifier ;
Limage de visage reconstruite ;
Limage moyenne de la base de donnes.
7- Axe 2 : affichage du rsultat de la reconnaissance ;
8- Axe 3 : zone o saffichent les diffrentes distances euclidiennes entre la projection du
visage identifier et les visages de la base de donnes.
60

Chapitre IV

Tests et rsultats

IV.4. Dmarche suivre pour la reconnaissance faciale


1. Pour slectionner une base de donnes, il faut cliquer sur le bouton select database, qui ouvre
une fentre permettant de parcourir le disque et de choisir le dossier de la base de donnes du
visage cibl.

Figure 46 : recherche du dossier de la base de donnes

Un chiffre apparait dans le static text (voir figure 47) qui nous informe du nombre dimages
existantes dans la base de donnes.

Figure 47 : Nbr dimage de visage dans la BD

2. pour slectionner limage de visage de la personne identifier, il faut cliquer sur le bouton
select image (voir figure 45), il permet douvrir une fentre pour parcourir le disque et choisir
limage du visage identifier.
3. lancer lalgorithme Eigenface en appuyant sur le bouton Recognition du panel Eigenface
(voir figure 43), il apparaitra un visage dans lAxe 2 qui sera le plus ressemblant (qui aura la
plus petite distance euclidienne). Les distances euclidiennes entre la projection du visage
identifier dans un sous espace vectoriel et celles de la base de donnes seront affiches dans
lAxe 3 (voir figure 4.8).

61

Chapitre IV

Tests et rsultats

Figure 48 : Rsultat de lapplication de lalgorithme Eigenface


4. pour visualiser le visage moyen de la base de donnes, un clic sur le bouton mean face du
panel Eigenface et il saffichera sur lAxe 1 (voir figure 43).
5. pour visualiser la qualit du visage reconstruit partir du visage moyen et des visages propres
de la base de donnes, cliquez sur le bouton reconstruction du panel Eigenface et il saffichera
dans lAxe 1 (voir figure 49).

Figure 49 : Reprsentation de limage reconstruite

62

Chapitre IV

Tests et rsultats

6. pour lancer lalgorithme Fisherface aprs avoir choisi limage du visage identifier comme
dcrit dans ltape 1, cliquez sur le bouton recognition du panel Fisherface et une fentre
apparaitra (voir figure 4.10) qui nous permettra de choisir le nombre de classe par personne
existante dans la base de donnes, puis cliquer OK pour que lalgorithme poursuive son
excution jusqu ce quune image saffiche sur lAxe 2 qui sera la plus proche (qui aura la plus
petite distance euclidienne).

Figure 50 : Choix du nombre de classe

IV.5. Fonctionnement du systme :


Notre systme permet dillustrer le processus didentification. Nous allons dcrire dans ce qui
suit les diffrents vnements qui sy passent lors de ce processus.
Il comporte deux phases : la phase dapprentissage pendant laquelle les modles sont construits
et la phase didentification (phase de comparaison).
IV.5.1. Phase dapprentissage :
Dans le cadre dune mthode supervise (les modles doivent tre connus priori) pour
lidentification des personnes par le visage, un modle pour la reprsentation de chaque classe
est construit. Le modle peut tre dfini comme suit :
- Le vecteur correspondant la distance minimale entre le vecteur recherch et lensemble de
lchantillon dapprentissage, ceci permet daboutir un modle ayant les caractristiques les
plus proches du vecteur recherch au sens de la distance utilise. Une fois les modles des
individus dfinis, lopration didentification peut seffectuer, voici les tapes de la phase
dapprentissage :
1- Collecte des M images faciales et construction de la matrice T de taille M, par
concatnation des colonnes des images faciales. Prtraitement des images collectes.
2- Calcul du visage moyen en sommant les colonnes de la matrice T et divisant le vecteur
rsultant par le nombre dimage dentre (M).
3- Soustraction du visage moyen de la matrice T pour obtenir la matrice A ; o chaque
lment reprsente la variance des valeurs dintensit de chaque pixel.
63

Chapitre IV

Tests et rsultats

4- Calcul de la matrice

5- Calcul des vecteurs propres de C et les tris dans un ordre descendant selon les valeurs
propres associes.
6- Calcul des vecteurs propres de la matrice de covariance C et obtention des visages
propres en multipliant les vecteurs propres de C par la matrice A.
7- Choix des K meilleurs valeurs propres et les vecteurs propres associs.
8- Dtermination du poids des images dentre en projetant chaque image dans lespace
visage.
9- Chaque visage est maintenant reprsent par un vecteur qui est utilis pour reconstruire
les images. Et enfin sauvegarde des calculs du visage moyen, des eigenfaces et du
poids des images.
IV.5.2. Phase didentification :
Prtraitement de limage dentre et soustraction du visage moyen.
Dtermination du poids de limage dentre par la projection de celleci dans lespace
visage en multipliant le vecteur rsultant de ltape (1) par les eigenfaces de la base de
donnes.
Rcupration du vecteur le plus proche au sens de la distance utilise (euclidienne,
Manhattan).
Affichage du rsultat (identit trouve).
Phase didentification :
Calcul des distances entre le vecteur identifier
et les modles des individus

Rcupration du vecteur le plus proche


(distance minimale)

Affichage du rsultat (identit


trouve)

Figure 51 : Phase didentification.

64

Chapitre IV

Tests et rsultats

4.6. Dtermination du seuil didentification


Lors de la phase de dcision, le systme de reconnaissance associe limage identifier,
quelle soit dune personne connue ou inconnue, une image de la base dapprentissage (la plus
ressemblante). Do la ncessit dutiliser un seuil de dcision pour permettre laccs seulement
aux personnes connues du systme.
La mthode de reconnaissance optimale est celle qui naccepte pas les inconnus (taux de fausse
acceptation FAR = 0) et qui ne rejette aucun des connus (taux de faux rejet FRR = 0). En ralit
on ne peut pas avoir ceci, cest pour cela quon cherche un seuil qui garantit la fois un faible
FRR et un faible FAR.
Pour trouver le seuil optimum, on calcule les FRR et FAR pour diffrentes valeurs du seuil.
Lensemble de ces rsultats est reprsent sous forme dun graphe standard (courbe ROC).

Figure 52 : Graphe des valeurs de FRR et de FAR en fonction de la valeur du seuil


Laxe horizontal de ce graphe reprsente la valeur du seuil et laxe vertical reprsente les
valeurs de FRR et de FAR.
Toute base de donnes utiliser est divise en deux parties : les personnes incluses dans la base
de donnes et les inconnues. Les images des personnes inclus dans la base de donnes sont elles
aussi rparties en deux catgories : les images dapprentissage et les images de test.
Dans la courbe du FAR et du FRR en fonction du seuil, on a linformation du taux du non rejet
des sujets connus (accepts par le systme). Cest sujets l, peuvent tre soit bien identifis soit
mal identifis par le systme. Et pour avoir linformation du taux de la bonne identification, on
trace une courbe qui donne le taux de la bonne limination (bon seuillage) des inconnus et le
taux de la bonne classification des sujets connus, en fonction de la valeur du seuil.
65

Chapitre IV

Tests et rsultats

Figure 53:Graphe des taux du bon seuillage des inconnus et des taux de la bonne classification
des sujets connus en fonction de la valeur du seuil
Pour les tests on a utilis deux bases de donnes base, FEI et MUCT. On a pris 100 images
dapprentissage (20 personnes, avec 5 photos par personne), 60 images de test (20 personnes,
avec 3 photos par personne), et 60 images dinconnus (20 personnes, avec 3 photos par
personne) de la base FEI et on a pris la mme rpartition pour la base MUCT.
Les figures ci-dessous reprsentent les diffrents ensembles dimages utiliss et les
graphes les rsultats des tests effectus sur la base MUCT

Figure 54 : Lensemble des images dapprentissage de la base MUCT utilises pour la


dtermination dun seuil pour llimination des personnes inconnues
66

Chapitre IV

Tests et rsultats

Figure 55 : Lensemble des images de test de la base MUCT utilises pour la dtermination
dun seuil pour llimination des personnes inconnues

Figure 56 : Lensemble des images des inconnus de la base MUCT utilises pour la
dtermination dun seuil pour llimination des personnes inconnues

67

Chapitre IV

Tests et rsultats

Figure 57 : Le graphe des valeurs de FRR et de FAR en fonction de la valeur du seuil


Les figures ci-dessous reprsentent les diffrents ensembles dimages utiliss et les graphes les
rsultats des tests effectus sur la base FEI

Figure 58 : Lensemble des images dapprentissage de la base FEI utilises pour la


dtermination dun seuil pour llimination des personnes inconnues

68

Chapitre IV

Tests et rsultats

Figure 59 : Lensemble des images de test de la base FEI utilises pour la dtermination dun
seuil pour llimination des personnes inconnues

Figure 60 : Lensemble des images des inconnus de la base FEI utilises pour la
dtermination dun seuil pour llimination des personnes inconnues

69

Chapitre IV

Tests et rsultats

Figure 61 : Le graphe des valeurs de FRR et de FAR en fonction de la valeur du seuil


On constate que lors de lutilisation des deux bases de donnes, les seuils qui garantissent un
bon compromis offrant la fois un bas FAR et un bas FRR sont presque les mmes pour les
deux bases. Ces tests nous ont donns des rsultats assez concluants mais il est possible
daugmenter les performances de classification en fixant les meilleures conditions de poses et
dclairages.
IV.7. Evolution du taux didentification suivant le changement de poses et dclairages
Pour ce qui suit, nous allons voir les effets du changement de la pose et de lclairage sur le taux
de bonne identification du systme de reconnaissance :
Pour les tests on a utilis deux bases de donnes : AT&T et CVRP. On a pris 90 images
dapprentissage (30 personnes avec 3 photos par personne), 60 images de test (30 personnes,
avec 2 photos par personne), et 60 images dinconnus (20 personnes, avec 3 photos par
personne) de la base AT&T et on a pris la mme rpartition pour la base CVRP.
IV.7.1. Le changement de pose
Pour ce test on fera une comparaison entre une identification classique avec un seul exemple
dimage de visage par individu (une seule classe) dans la base dapprentissage et une
identification avec une multitude dimage de visage dans divers poses, une du profile droite, une
frontale et une du profile gauche (plusieurs classes).

70

Chapitre IV

Tests et rsultats

Et voici les graphes relatifs aux deux bases de donnes AT&T et CVRP

Figure 62 : Graphe du taux de reconnaissance avec la base AT&T

Figure 63 : Graphe du taux de reconnaissance avec la base CVRP

71

Chapitre IV

Tests et rsultats

Et lensemble des rsultats obtenus est rsum dans le tableau ci-dessous :


Bases de donnes
AT&T
CVRP

Identification simple
83,7%
80,4%

Identification plusieurs classes


90,6%
91,2%

Tableau 1 : Comparaison du taux de reconnaissance de la mthode simple


et celle avec divers poses
Dans le tableau 1, nous remarquons que la mthode utilisant plusieurs classes dun mme
individu amliore le taux de reconnaissance par rapport celle utilisant une seule, plus le
nombre de classes augmente plus le taux de reconnaissance samliore, toute fois la pose doit
respecter certaines rgles : le profil du visage ne doit pas dpasser 35 par rapport la pose
frontale. Linconvnient de cette mthode est quon se retrouve avec une base de donnes de
taille importante do une augmentation du temps de calcul (excution).
IV.7.2. Le changement des conditions dclairages
Pour ce test on fera une comparaison entre une identification avec et sans prtraitements en
utilisant une base dapprentissage contenant une multitude dimages de visage dans divers
conditions dclairages, une faible clairages, une normal et une avec un fort clairage.
Voici les graphes relatifs aux deux bases de donnes AT&T et CVRP

Figure 64 : Graphe du taux de reconnaissance avec la base AT&T


72

Chapitre IV

Tests et rsultats

Figure 65 : Graphe du taux de reconnaissance avec la base CVRP


Et lensemble des rsultats obtenus est rsum dans le tableau ci-dessous :
Bases de donnes
AT&T
CVRP

Sans prtraitements
83,2%
85,7%

Avec prtraitements
92,4%
90,1%

Tableau 2 : Comparaison du taux de reconnaissance de la mthode simple


et celle avec divers conditions dclairages.
Ce qui ressort du tableau confirme que lutilisation des prtraitements amliore les taux de
reconnaissance surtout pour une base de donnes contenant des images prises sous de mauvaises
conditions dilluminations. Cependant, le temps de calcul est plus lent.
IV.8. Temps dexcution
Estimation du temps dexcution en fonction de la taille de limage
Pour ce test, nous avons redimensionn les images de visage normalises de taille (480x640) de
la base de donnes CVRP en diffrentes rsolutions {25x50, 50x100, 100x150, 200x250,
300x400}. Pour chaque rsolution, nous avons effectu une comparaison entre les signatures
(projections) associes aux vecteurs image dapprentissages et de tests selon la distance
Euclidienne.
73

Chapitre IV

Tests et rsultats

Le tableau 4.3 montre les rsultats du taux didentification obtenus pour les diffrentes valeurs
de rsolution ainsi que les temps de calcul. Nous remarquons quune diminution de la
rsolution, dans certain cas, nengendre pas une baisse significative du taux didentification.
Nous constatons aussi que le taux didentification le plus lev correspond une rsolution de
300x400. Nous avons donc choisi de prendre une rsolution de 200x250 pour avoir un meilleur
compromis entre temps de calcul et prcision.
25x50

50x100

100x150

200x250

300x400

Taux
didentification

52%

72%

85%

90%

92%

Temps
dexcution

57s

93s

230

510s

1200s

Tableau 3 : Les rsultats des EER, lintervalle de confiance 90% associ et le temps excution

Estimation du temps dexcution avec et sans prtraitements


Nous comparons, dans ce paragraphe, le temps dexcution de notre systme didentification
avec et sans prtraitements. Le temps dexcution pris par le processus didentification sans
prtraitements est relativement de faible cot par rapport celui avec prtraitements, mais le
taux didentification se voit rduit aussi.
Base de donnes
AT&T
CVRP

Sans prtraitements
Taux identifi
Temps execut
82,3%
406s
80,7%
390s

Avec prtraitements
Taux identifi
Temps execut
89,1%
492s
90,6%
480s

Tableau 4 : Comparaison des temps dexcution en seconde de lapproche avec et sans


prtraitements
Le temps dexcution varie suivant plusieurs paramtres. Tout dabord, un nombre de classes
important augmente la complexit de lidentification, la taille des vecteurs attributs (rsolution
de limage) utiliss pour lidentification finale influe sur la vitesse dexcution de la recherche.
Des vecteurs attributs plus volumineux (nombre de classe) ncessitent plus despace mmoire et
plus de temps de calcul. Et enfin, la phase de prtraitement qui est une tape cruciale pour
lobtention dun bon taux didentification gnre des calculs qui risquent daffecter visiblement
le temps dexcution du systme.
Cette tude ralise sur deux (02) base de donnes (AT&T, CVRP) de taille moyenne
nous a permis de dcouvrir le potentiel de notre approche didentification la fois en termes de
prcision et de vitesse dexcution. Lextension du corpus de travail lchelle dune grande
base de donnes est ncessaire pour valuer correctement notre approche.
74

Chapitre IV

Tests et rsultats

IV.9. Lamlioration des performances de PCA


Dans la littrature on parle toujours de leffet nfaste la fois de la pose et de lclairage,
qui dtriorent les performances de tout systme biomtrique bas sur le visage. Et dans notre
approche, on sest intress rechercher des bonnes conditions de pose et dclairage
considrer pour amliorer les performances et exploiter ainsi toute la puissance de lalgorithme.
IV.9.1. Les conditions optimales de pose et dclairage
En gnral, il semble que tous les systmes de reconnaissance bass sur le visage
adoptent tous les mmes conditions. Par exemple dans le systme Face VACS-SDK Version
4.0.3 qui a t dvelopp et commercialis par la grande firme allemande Cognitec Systems
GmbH, on a fix les rgles suivantes [60] :
la procdure dapprentissage
Une bonne procdure dapprentissage, o on fait lacquisition des images utilises lors de cette
phase, augmente sensiblement les performances de reconnaissance. Voici quelques procds
suivre pour augmenter la qualit de lapprentissage :
Employez plusieurs images du visage, montrant des vues lgrement
diffrentes. Ceci peut tre accompli en demandant l'utilisateur de faire
de lgers mouvements du visage dans la direction horizontale et verticale
ou en employant un arrangement appropri de plusieurs appareils photo.
Informez l'utilisateur que prendre des photos d'apprentissage n'est pas
identique faire un portrait chez le photographe. Ainsi il ne devrait ni
poser ni sourire, mais montrer une expression journalire du visage, qui
sera susceptible d'tre la mme lors de la vrification.
Si le systme prouve des difficults reconnatre les personnes portant
des lunettes, fusionnez des images avec et sans lunettes dans la phase
dapprentissage, ou demandez la personne de faire l'apprentissage et la
reconnaissance sans lunettes.
linfluence et larrangement des conditions d'clairage
Dans les circonstances o on peut contrler les conditions d'clairage, on devrait prter
l'attention aux recommandations suivantes :
L'clairage du visage devrait tre une lumire frontale diffuse ou dirige,
pour viter les ombres volatiles dans la rgion de visage.
Eviter lclairage produisant de la lueur dans les lunettes, ou sur une peau
brillante.
L'clairage du visage ne devrait pas changer avec la position ou la taille de
l'utilisateur.
Protgez la zone biomtrique contre l'clairage additionnel,
particulirement contre, la lumire du soleil.

75

Chapitre IV

Tests et rsultats

Les conditions dclairage devraient tre tout fait semblables sinon identiques, la fois dans la
phase dapprentissage et la phase de reconnaissance.
Dans beaucoup de cas, des tubes fluorescents placs gauche et droite de l'appareil photo,
fournissent une illumination approprie.
IV.10. Avantages et inconvnients du systme :
Dans ce chapitre, nous avons dcrit les tapes de la conception du systme de reconnaissance,
et linterface dveloppe pour lui. En vue de ce qui a t fait dans la conception et la ralisation,
on peut dgager plusieurs avantages :
Systme trs interactif :
Cest un systme trs interactif. En effet, en plus du fait quil permette lidentification
dindividus avec de bons taux, il permet aussi de voir la reconstruction du visage aprs sa
projection dans un sous espace vectoriel, le visage moyen, que la distance entre le vecteur
projet ainsi quil nous informe sur le nombre dimages de la base de donne
Systme performant :
Le systme est performant car les taux de reconnaissance sont bons.
Interface simple et rapide :
Cest une interface que toute personne ayant peu de connaissances sur la biomtrie peut utiliser.
Nanmoins, ce systme prsente quelques faiblesses, entre autres :
Processus de normalisation long :
Cet inconvnient est d aux prtraitements qui sont appliqus sur toutes les images de la base de
donnes pour rduire limpact nfaste du milieu extrieur sur le systme en appliquant un
redimensionnement et une galisation de lhistogramme sur les images.
Absence dun systme dacquisition des images :
Faute de la disponibilit dun systme dacquisition, les seules donnes utilises par le systme
proviennent des bases. Cela rend les oprations didentification une simple simulation.
Liaison du systme lenvironnement :
Lemplacement des donnes biomtriques utilises par le systme le rend dpendant de
lenvironnement dans lequel le systme sexcute.

76

Chapitre IV

Tests et rsultats

IV.11. Discussion
Dans ce chapitre nous avons test notre systme de reconnaissance sur plusieurs bases de
donnes savoir : CVRP, AT&T, FEI et MUCT. Le seuil de rejet des individus inconnus a t
trouv en minimisant le taux de lEER. De plus, nous avons tudi linfluence des changements
de poses et dclairages sur le taux de reconnaissance. Lensemble des tests effectus a permis
de conclure, quavec lutilisation de PCA sous un clairage uniforme tout en ayant plusieurs
poses par personne permet dobtenir des performances optimales.
En validant notre approche sur un corpus de donnes de grande taille et assez vari le rendant
ainsi plus raliste, nous avons apport une amlioration considrable au taux didentification
grce aux prtraitements effectus en avale sur les images dapprentissages et aux tests, toute
fois le temps de calcul sest vu lgrement augment.
Plusieurs enseignements peuvent tre tirs pour minimiser ce temps de calcul comme le choix de
la distance Euclidienne L2 qui est beaucoup plus rapide que la distance de Mahalanobis L1 et de
la rsolution des images de la base de donnes adquate.

77

Conclusion

Conclusion :

La biomtrie est un domaine la fois passionnant et complexe. Elle tente, par des
outils mathmatiques souvent trs volus, de faire la distinction entre des individus, nous
obligeant travailler dans un contexte de trs grande diversit. Cette diversit se retrouve
galement dans le nombre considrable dalgorithmes qui ont t proposs en reconnaissance
faciale.
Dans ce mmoire, nous nous sommes intresss au problme de la reconnaissance
faciale. Notre travail consiste la mise au point dun algorithme robuste destin reconnatre
un individu par son visage en utilisant la mthode Eigenface qui se base sur une analyse
en composante principale(ACP). LACP est une mthode mathmatique qui peut tre utilise
pour simplifier un ensemble de donnes, en rduisant sa dimension. Elle est utilise pour
reprsenter efficacement les images de visages, qui peuvent tre approximativement
reconstruites partir dun petit ensemble de poids et dune image de visage standard.
Une analyse des diffrentes techniques de reconnaissance dveloppes au cours de
ces dernires annes a t prsente, et cela pour mettre en vidence les particularits ainsi
que les avantages et les inconvnients de chacune dentre elles.
Nous avons soulign durant ce travail linfluence nfaste du changement de pose et
dclairage sur le taux de reconnaissance du systme et pour cela nous avons propos
quelques solutions qui ont t values durant la phase de test. Ces solutions ont donn
dassez bon rsultats. Malgr tous les progrs qui ont t raliss, les problmes de pose et
dclairage et de lidentification dans des environnements extrieurs restent des challenges qui
susciteront les efforts des chercheurs. LACP reste une mthode efficace et simple pour grer
ce type de problme. Cest pour toutes ces raisons que nous avons opt pour cette approche
de reconnaissance du visage.
Nous estimons avoir ralis un systme rpondant lobjectif que nous nous sommes
fixs au dpart, savoir la mise en uvre dun systme permettant la reconnaissance
dindividus et le contrle daccs
En guise de perspectives, une extension de ce travail peut tre ralise en intgrant un
systme dacquisition des images pour viter que ces oprations didentification et de
vrification soient de simples simulations. Par ailleurs, il serait aussi intressant dappliquer,
la mthode dveloppe dans ce mmoire, dans un systme de scurit biomtrique utilisant
lacquisition vido. Dans ce cas, cet algorithme doit rpondre aux exigences du temps rel.
Mais, cela ne peut se faire sans le dveloppement dalgorithmes efficaces de dtection et de
poursuite des visages dans les squences vido.

78

Bibliographie

Bibliographie
[1]

John D. Woodward, Jr., Christopher Horn, Julius Gatune, and Aryn Thomas,
Biometrics A Look at Facial Recognition, documented briefing by RAND Public
Safety and Justice for the Virginia State Crime Commission, 2003.

[2]

Florent Perronnin, Jean-Luc Dugelay, Introduction la biomtrie : Authentification


des individus par traitement audio-vido , Institut Eurocom, Multimedia
Communications Department, Revue Traitement du signal, Vol. 19, N 4, 2002.

[3]

http://www.biometricgroup.com.

[4]

S. Liu, M. Silveman, A pratical Guide to Biometric Security Technology , IEEE


Computer Society, IT Pro-Security, Janvier-Fvrier 2001.

[5]

A. K. Jain, L. Hong, S. Pankanti, Biometrics : Promising Frontiers for Emerging


Identification Market , Communications of the ACM, pp. 91-98, February 2000.

[6]

C. Fredouille, J. Mariethoz, C. Jaboulet, J. Hennebert, J.-F. Bonastre, C. Mokbel,


F.Bimbot, Behavior of a Bayesian Adaptation Method for Incremental Enrollment in
Speaker Verification , International Conference on Acoustics, Speech, and Signal
Processing, pp. 1197-1200, Istanbul, Turquie, 5-9 Juin 2000.

[7]

Y. Hori, M. Kusaka, and T. Kuroda. A 0.79mm2 29mW Real-Time Face Detection


Core. Symposium on VLSI Circuits Digest of Technical Papers, pp. 188-189, June
2006.

[8]

D. Bolme, J. Beveridge, M. Teixeira, and B. Draper. The CSU Face Identi cation
Evaluation System : Its Purpose, Features, and Structure. In : Proceedings of the 3rd
International Conference on Computer Vision Systems (ICVS),

[9]

W. Bledsoe. The model method in facial recognition. Tech. Rep. PRI :15, Stanford
University, Palo Alto, CA, USA, 1964.

[10] T. Kanade. Computer Recognition of Human Faces. Interdisciplinary Systems


Research, Vol. 47, 1977.
[11] L. Sirovich and M. Kirby. Low-dimensional procedure for the characterization of
human faces. Journal of Optical Society of America, Vol. 4, No. 3, pp. 519524,
1987.
79

Bibliographie

[12] M. Turk and A. Pentland. Eigenfaces for recognition. Journal of Cognitive


Neuroscience, Vol. 3, No. 1, pp. 7186, 1991.
[13] Y. Jian, D. Zhang, A. Frangi, and J.-Y. Yang. Two-Dimensional PCA : A New
Approach to Appearance-Based Face Representation and Recognition. IEEE
Transactions on Pattern Analysis and Machine Intelligence, Vol. 26, No. 1, pp. 131
137, January 2004.
[14] P. Belhumeur, J. Hespanha, and D. Kriegman. Eigenfaces vs. Fisherfaces :
Recognition Using Class Speci c Linear Projection. IEEE Transactions on Pattern
Analysis and Machine Intelligence, Vol. 19, pp. 711720, 1997.
[15] M. Bartlett, J. Movellan, and T. Sejnowski. Face recognition by independent
component analysis. IEEE Transactions on Neural Networks, Vol. 13, No. 6, pp.
14501464, 2002.
[16] G. Brown, S. Yamada, and T. Sejnowski. Independent Component Analysis at the
Neural Cocktail Party. Trends in Neuroscience, Vol. 24, pp. 5463, 2001.
[17] B. Schlkopf, A. Smola, and K.-R. Mller. Nonlinear component analysis as a kernel
eigenvalue problem. Neural Computation, Vol. 10, No. 5, pp. 12991319, 1998.
[18] S. Mika, G. Ratsch, J. Weston, B. Schlkopf, and K.-R. Mller. Fisher Discriminant
Analysis With Kernels. In : Neural Networks for Signal Processing IX, pp. 4148,
1999.
[19] C. Liu and H. Wechsler. A Uni ed Bayesian Framework for Face Recognition. In :
Proceedings of the IEEE International Conference on Image Processing, pp. 151155,
1998.
[20] G. Guo, S. Li, and K. Chan. Face Recognition by Support Vector Machines. In :
Proceedings of the IEEE International Conference on Automatic Face and Gesture
Recognition, pp. 196201, 2000.
[21] T. Ahonen, A. Hadid, and M. Pietikainen. Face Recognition with Local Binary
Patterns. 2004.
[22] S. Arca, P. Campadelli, and R. Lanzarotti. A Face Recognition System Based On
Automatically Determined Facial Fiducial Points. Pattern Recognition, Vol. 39, No.
3, pp. 432443, 2006.

80

Bibliographie

[23] P. Penev and J. Atick. Local features analysis : A general statistical theory for object
representation. Neural Systems, Vol. 7, No. 3, pp. 477500, 1996.
[24] V. Perlibakas. Face recognition using Principal Component Analysis and Log-Gabor
Filters. March 2005.
[25] Y. Adini, Y. Moses, S. Ullman, Face recognition: The problem of
compensating for changes in illumination direction. IEEE Trans. Patt. Anal. Mach.
Intell. 19, 721732, 1997.
[26] D. Blackburn, M. Bone, P. J Phillips. Face recognition vendor test 2000. Tech. rep.
http://www.frvt.org, 2001.
[27] R. Gross, J. Shi, J. Cohn. Quo Vadis Face Recognition?. Third Workshop on
Empirical Evaluation Methods in Computer Vision, December, 2001.
[28] A.M Martnez, R. Banavente. The AR face database. Tech. Report 24 CVC Barcelone,
Espagne, June 1998.
[29] D. Blackburn, M. Bone, P. J Phillips. Face recognition vendor test 2000. Tech. rep.
http://www.frvt.org, 2001.
[30] Ming-Hsuan Yang, David J. Kriegman et Narendra Ahuja. Detecting faces in images
: A survey. Dans IEEE Transactions on Pattern Analysis and Machine
Intelligence, volume 24(1), pages 3458, 2002.
[31] H. A. Rowley, S. Baluja, et T. Kanade, "Neural Network based Face
Detection", IEEE Trans, Pattern Anal. Mach, Intell, 23-38, January 1998
[32] C. Kotropoulos and I. Pitas. Rule-Based Face Detection in Frontal Views. Proc.
Intl Conf. Acoustics, Speech and Signal Processing, vol. 4, pp. 2537-2540, 1997.
[33] T. Kanade. Picture Processing by Computer Complex and Recognition of Human
Faces, PhD thesis, Kyoto Univ., 1973.
[34] J.Yang, D. Zhang, A.F. Frangi, J.Yang, Two-dimensional PCA: a new approach
to appearance-based face representation and recognition, IEEE Trans. Pattern
Anal. Mach. Intell. 131137,2004.
[35] P. Sinha, Processing and Recognizing 3D Forms, PhD thesis,
Massachusetts Inst. of Technology, 1995.

81

Bibliographie

[36] A. Yuille, P. Hallinan, and D. Cohen, Feature Extraction from Faces Using
Deformable Templates, Intl J. Computer Vision, vol. 8, no. 2, pp. 99-111, 1992.
[37] R. Brunelli, T. Poggio. Face recognition: features versus templates. IEEE Trans.
Pattern Anal. Mach. Intell, pp-10421062, 1993.
[38] Principal components analysis.
Document available at : http://en.wikipedia.org/wiki/Principal_components_analysis.
[39] A. S. Tolba, A.H. El-Baz, and A.A. El-Harby, Face Recognition: A Literature
Review, INTERNATIONAL JOURNAL OF SIGNAL PROCESSING VOLUME 2
NUMBER 2 2005 ISSN 1304-4494.
[40] Cherng Jye Liou, A Real Time Face Recognition System, DSP/IC Design Lab,
Department of Electrical Engineering, National Taiwan University, June 1997.
[41] Alex Chirokov, Karhunen-Loeve, for face recognition. Matlab code available at :
http://www.mathworks.com/matlabcentral/fileexchange/loadFile.do?objectId=6995&o
bjectType=file.
[42] Linear discriminant analysis.
Document available at : http://en.wikipedia.org/wiki/Linear_discriminant_analysis.
[43] Dr. Andrzej Drygajlo, ELE 233, BIOMETRICS.
Document available at : http://scgwww.epfl.ch/courses.
[44] Juwei Lu, Kostantinos N. Plataniotis, and Anastasios N. Venetsanopoulos, Face
Recognition Using LDA-Based Algorithms, IEEE TRANSACTIONS ON NEURAL
NETWORKS, VOL. 14, NO. 1, JANUARY 2003.
[45] M. Bartlett and H. Lades and T. Sejnowski, Independent component representations
for face recognition, in T. Rogowitz, B. & Pappas, editor, Proceedings of the SPIE
Symposium on Electonic Imaging: Science and Technology; Human Vision and
Electronic Imaging III, volume 3299, San Jose, CA, January 1998. SPIE Press. 1998.
[46] Wen Gao, Shiguang Shan, Face Verification for Access Control, Biometrics
Solutions for Authentication in an E-World, Edited by David Zhang, Kluwer
Academic Publishers, Chapter 13, pp339-376, 2002.
[47] Modules complmentaires MATLAB.
Document disponible sur : http://www.ryounes.net/cours/modules.pdf.

82

Bibliographie

[48] L. Png, Morphological Shared-Weight Neural Network For Face Recognition, A


dissertation submitted to the University of Manchester Institute of Science
and Technology for the degree of MSc, August 2004.
[49] Support vector machine.
Document available at : http://en.wikipedia.org/wiki/Support_vector_machine.
[50] Visual Object Recognition using Template Matching.
Document available at : http://www.araa.asn.au/acra/acra2004/papers/cole.pdf.
[51] Cotrell and Fleming. Face recognition using unsupervised feature extraction. In
Proceedings of International conference on Neural Network, pages 322325, Paris,
France, 1990.
[52] S. Lawrence, C.L. Giles, C. Tsoi, and A.D. Back. Face recognition : A convolutional
neural network approach. IEEE Transactions on Neural Networks, 8 :98113, 1997.
[53] S.H. Lin, S.Y. Kung, and Lin. Face recognition / detection by probabilistic
decision-based neural network. IEEE Transactions on Neural Networks, 8(1) :114
132, 1997
[54] S.C. Chen, J. Liu, Z.-H. Zhou, MakinG. FLDA applicable to face
recognition with one sample per person, Pattern Recognition 37 (7), 15531555, 2004.
[55] B.S. Manjunath, R. Chellappa, C.V.D. Malsburg, A feature based approach to face
recognition, in: Proceedings, IEEE Conference on Computer Vision and Pattern
Recognition, vol. 1, pp. 373378, 1992.
[56] H.S. Le, H. Li. Recognizing frontal face images using hidden Markov models
with one training image per person, Proceedings of the 17th International
Conference on Pattern Recognition (ICPR04), vol. 1, pp. 318321, 2004
[57] tlchargement des images de visage teste
http://en.pudn.com/downloads339/sourcecode/graph/detail1485237_en.html
[58] Tlchargement de la base de donnes de visage
http://web.mit.edu/emeyers/www/face_databases.html#orl
[59] Tlchargement de la base de donnes de visage
http://cswww.essex.ac.uk/mv/otherprojects.html
[60] FaceVACS-SDK
Version
4.0.3.
Document
available
at
http://www.cognitec-systems.de/documentation/frsdk_public/index.html
83

Anda mungkin juga menyukai