Télécharger La thèse :

Titre: Algorithmes de vision pour l'aide à la conduite

Domaine: Mathématiques informatique (MI)

Filière: Informatique

Option: SCIENCES ET CIENCES ET TECHNOLOGIES INFORMATIQUES

Auteur: MOUMENE Mohammed El Amine

Soutenu (e) le: 06/03/2018

Sous la direction de: NOURINE Rachid, M.C.A., Université Oran 1

Le président du jury : LEBBAH Yahia, Professeur, Université Oran 1

Examinateur1: BENAMRANE Nacéra, Professeur, USTO-MB Oran

Examinateur2: FIZAZI Hadria, Professeur, USTO Oran

Examinateur3: HAMDADOU Djamila, M.C.A, Université Oran 1

Examinateur4: GHOMARI Abdelghani, M.C.A, Université Oran 1

Mention: Très Honorable

Résumé:

L'aide à la conduite est devenue un domaine de recherche très actif et pluridisciplinaire ayant pour objectif d'apporter au conducteur le maximum de confort et de sécurité sur les routes. Les systèmes d'aide à la conduite les plus prometteurs sont souvent basés sur la vision. Parmi eux, on retrouve le système d'anti franchissement involontaire de la voie routière. A l'aide d'une caméra orientée vers l'avant, les marquages routiers sont détectés en appliquant la transformée de Radon sur les images. Cet algorithme de vision permet la localisation et le maintien du véhicule sur sa voie. Malgré qu'ils soient déjà commercialisés, les systèmes d'aide à la conduite basés sur la caméra restent peu fiables. Leur robustesse qui n'a pas arrêté de croitre au fil des dernières années se heurte aux limites de la camera. Des limites dues à certaines conditions particulières de capture telles que les scènes à grande plage dynamique. Un exemple de ce genre de scènes problématiques serait de capturer des images face à un soleil éblouissant. La caméra étant incapable de restituer toute la grande plage dynamique de la scène en une seule photographie, elle fournit des images avec une perte considérable de détails. Afin de capturer tous les détails d'une scène à grande plage dynamique, les photographes appliquent des algorithmes de photographie computationnelle tels que la fusion d'expositions. Cependant, ce genre de processus est lourd pour la réalisation d'un système d'aide à la conduite nécessitant de fonctionner en temps réel. Nous proposons dans cette thèse trois méthodes originales de fusion d'expositions qui produisent des images riches en détails face aux scènes à grande plage dynamique, fonctionnants en temps réel. Ces méthodes sont non seulement rapides, mais elles produisent aussi une qualité d'images comparable à celle issue de méthodes pertinentes de la littérature. La première méthode est basée sur la segmentation d'histogrammes. Les deux autres sont basées sur un apprentissage supervisé. La transformée de Radon reste l'une des méthodes les plus utilisées pour la détection des marquages routiers sur les images. Cette technique est utilisée à la base pour la détection des structures linéaires dans la scène naturelle qui se transforment en lignes dans les images. Cependant, les marquages routiers sont présents dans les images sous forme de bandes (des lignes considérablement épaisses). Cette épaisseur des lignes à détecter engendre une certaine ambiguïté dans l'espace de recherche de la transformée de Radon classique et génère souvent une perte considérable de précision durant la détection. Nous avons proposé dans cette thèse l'utilisation d'une généralisation de la transformée de Radon afin d'achever une meilleure précision durant la détection des lignes routières. Cette généralisation consiste à exploiter les propriétés d'une fonction Gaussienne au lieu d'utiliser l'impulsion de Dirac pour la sélection des pixels, dans le but de prendre en considération l'épaisseur des marquages routiers à détecter.


Mots clefs: Imagerie à grande plage dynamique; Fusion d'expositions; Segmentation d'Histogrammes; Apprentissage supervisé; Détection de lignes; Transformée de Radon; Fonction Gaussienne.


Publications associées à la thèse

Article 1:

Titre: Fast Exposure Fusion Based on Regression Analysis

Revue: International Journal of Imaging and Robotics

Référence: Volume 17 ; issue No.4 ; year 2017 ; Int. J. Imag. Robot. (ISSN 2231-525X) pp 89-96

Date: Octobre 2017