Passionné(e) de lecture ? Inscrivez-vous gratuitement ou connectez-vous pour rejoindre la communauté et bénéficier de toutes les fonctionnalités du site !  

Un modele invariant generique pour l'apparence de categories d'objets

Couverture du livre « Un modele invariant generique pour l'apparence de categories d'objets » de Taffar-M aux éditions Presses Academiques Francophones
Résumé:

De nos jours, les approches émergentes pour la reconnaissance des objets sont basées sur les traits locaux invariants. L'approche par apparence locale a permis d'améliorer et d'accélérer considérablement l'identification des objets dans les images et les flux vidéo. Méthode locale parce que... Voir plus

De nos jours, les approches émergentes pour la reconnaissance des objets sont basées sur les traits locaux invariants. L'approche par apparence locale a permis d'améliorer et d'accélérer considérablement l'identification des objets dans les images et les flux vidéo. Méthode locale parce que utilise une description locale calculée au voisinage de points d'intérêt. La reconnaissance du genre est la dernière étape d'un long processus comprenant l'extraction de points d'intérêt, leurs mise en correspondance, la détection de l'apparence faciale, sa localisation et enfin la classification du genre. Par ce travail, nous proposons un nouveau modèle pour détecter les visages puis reconnaître leur genre. Ce modèle est invariant aux transformations géométriques et photométriques qui apparaissent fréquemment entre les visages pris dans différentes conditions. De part le modèle proposé, l'approche présente également une tolérance à la variabilité intra-classe des objets visage. Nous nous concentrons sur le problème d'invariance à l'éclairage et au point de vue étant donné que les visages ont une grande sensibilité liée à ces deux types de variations et peuvent complètement changer d'apparence.

Donner votre avis

Donnez votre avis sur ce livre

Pour donner votre avis vous devez vous identifier, ou vous inscrire si vous n'avez pas encore de compte.