vocabulaire de la visibilité routière

images numériques

 

 



Images numériques

Analyse d’images

L’analyse d’images désigne tout procédé permettant d’extraire d’une image matricielle une information sémantique : présence d’un contour, d’un objet de telle catégorie (un véhicule à moins de trente mètres), absence de tel type d’objet (une tumeur cancéreuse), etc. Les techniques utilisées sont issues des méthodes de traitement du signal, puisque l’image numérique est un cas particulier de signal bidimensionnel.

La manière la plus simple de caractériser un capteur consiste à observer sa réponse impulsionnelle (image produite en observant un objet ponctuel). Un des outils d’analyse les plus classiques consiste à décrire l’image (et la scène observée) comme une combinaison d’images périodiques de différentes fréquences spatiales (analyse de Fourier). La fonction de transfert (entre la scène réelle et l’image) décrit alors la manière dont ces fréquences spatiales sont modifiées par la matrice de capteurs, en comparant leur structure en entrée et en sortie des capteurs. La fonction de transfert de modulation (FTM) donne, pour les différentes fréquences spatiales, la perte d’intensité du signal qui résulte des propriétés du capteur (la FTM est toujours comprise entre 0 et 1, et tend vers zéro lorsque la fréquence spatiale augmente).

La notion de qualité d’image, comme celle de bruit, est délicate d’utilisation parce qu’elle suppose une référence absolue qui permette de distinguer le « signal » (sous-entendu, significatif) du « bruit » (sous-entendu, non significatif). Autrement dit, il est nécessaire de se référer à des informations sémantiques liées à la scène observée (objets, fond, texture, etc.).

Pour construire une représentation 3D de l’environnement à partir d’une image, des hypothèses sont nécessaires, comme celle du « monde plan » qui permet de supposer que les pixels de l’image (les éléments de la matrice) sont d’autant plus éloignés (dans le monde physique 3D) qu’ils sont situés haut dans la matrice. Moyennant de informations précises concernant l’optique de la caméra, et un calibrage du système d’acquisition, on peut quantifier cette distance. Une hypothèse plus réaliste, dans le cas général comme dans le cas des images routières, consiste à supposer que le monde n’est pas plan ; on peut alors utiliser la vision stéréoscopique (deux prises de vue synchronisées, depuis des points différents, selon une géométrie calibrée) qui permet de construire un modèle de terrain plus conforme à la réalité.

Images de synthèse

Plusieurs techniques ont été développées pour simuler, dans une scène virtuelle, la propagation de la lumière à partir des sources lumineuses, de manière à calculer l’image qui serait vue par un observateur situé dans cette scène (c’est ce qu’on appelle un calcul de « rendu », de l’anglais rendering). Ces techniques de calcul (radiosité, lancer de rayons) permettent de prendre en compte les propriétés photométriques des sources lumineuses et des matériaux, ainsi que celles de l’atmosphère (par exemple du brouillard).

L’un des axes de développement majeurs dans ce domaine est celui des images « réalistes », c’est-à-dire proches des scènes représentées. Cette notion de réalisme implique un jugement subjectif, et plusieurs approches ont essayé de rendre cette notion opérationnelle, voir de la rendre objective au moyen de modèles de calcul sur les images elles-même. On distingue principalement le photo-réalisme (jugement subjectif qualitatif, utilisant des consignes du type « laquelle parmi ces images ressemble le plus à X ? ») ; le réalisme photométrique (métrique objective comparant les valeurs photométriques de l’image et celles de la scène modélisée) ; et le réalisme perceptif (fondé sur des critères précis d’apparence ou de performance visuelle). Dans tous les cas, la notion de réalisme ne peut être appréhendée qu’en tenant compte du système de visualisation des images et des conditions d’observation (distance d’observation, éclairage de la pièce, etc.).