Images
numériques
Analyse d’images
L’analyse d’images désigne tout procédé permettant
d’extraire d’une image matricielle une information sémantique : présence
d’un contour, d’un objet de telle catégorie (un véhicule à moins de trente
mètres), absence de tel type d’objet (une tumeur cancéreuse), etc. Les
techniques utilisées sont issues des méthodes de traitement du signal,
puisque l’image numérique est un cas particulier de signal bidimensionnel.
La manière la plus simple de caractériser un capteur
consiste à observer sa réponse impulsionnelle (image produite en
observant un objet ponctuel). Un des outils d’analyse les plus classiques
consiste à décrire l’image (et la scène observée) comme une combinaison
d’images périodiques de différentes fréquences spatiales (analyse de Fourier).
La fonction de transfert (entre la scène réelle et l’image) décrit alors la
manière dont ces fréquences spatiales sont modifiées par la matrice de
capteurs, en comparant leur structure en entrée et en sortie des capteurs. La fonction
de transfert de modulation (FTM) donne, pour les différentes fréquences
spatiales, la perte d’intensité du signal qui résulte des propriétés du capteur
(la FTM est toujours comprise entre 0 et 1, et tend vers zéro lorsque la
fréquence spatiale augmente).
La notion de qualité d’image, comme celle de bruit,
est délicate d’utilisation parce qu’elle suppose une référence absolue qui
permette de distinguer le « signal » (sous-entendu, significatif) du
« bruit » (sous-entendu, non significatif). Autrement dit, il est
nécessaire de se référer à des informations sémantiques liées à la scène
observée (objets, fond, texture, etc.).
Pour construire une représentation 3D de l’environnement à
partir d’une image, des hypothèses sont nécessaires, comme celle du « monde
plan » qui permet de supposer que les pixels de l’image (les
éléments de la matrice) sont d’autant plus éloignés (dans le monde physique 3D)
qu’ils sont situés haut dans la matrice. Moyennant de informations précises
concernant l’optique de la caméra, et un calibrage du système d’acquisition, on
peut quantifier cette distance. Une hypothèse plus réaliste, dans le cas
général comme dans le cas des images routières, consiste à supposer que le
monde n’est pas plan ; on peut alors utiliser la vision stéréoscopique
(deux prises de vue synchronisées, depuis des points différents, selon une
géométrie calibrée) qui permet de construire un modèle de terrain plus conforme
à la réalité.
Images de synthèse
Plusieurs techniques ont été développées pour simuler, dans
une scène virtuelle, la propagation de la lumière à partir des sources
lumineuses, de manière à calculer l’image qui serait vue par un observateur
situé dans cette scène (c’est ce qu’on appelle un calcul de « rendu »,
de l’anglais rendering). Ces techniques de calcul (radiosité, lancer
de rayons) permettent de prendre en compte les propriétés photométriques
des sources lumineuses et des matériaux, ainsi que celles de l’atmosphère (par
exemple du brouillard).
L’un des axes de développement majeurs dans ce domaine est
celui des images « réalistes », c’est-à-dire proches des scènes
représentées. Cette notion de réalisme implique un jugement subjectif, et
plusieurs approches ont essayé de rendre cette notion opérationnelle, voir de
la rendre objective au moyen de modèles de calcul sur les images elles-même. On
distingue principalement le photo-réalisme (jugement subjectif
qualitatif, utilisant des consignes du type « laquelle parmi ces images
ressemble le plus à X ? ») ; le réalisme photométrique
(métrique objective comparant les valeurs photométriques de l’image et celles
de la scène modélisée) ; et le réalisme perceptif (fondé sur des
critères précis d’apparence ou de performance visuelle). Dans tous les cas, la
notion de réalisme ne peut être appréhendée qu’en tenant compte du système de
visualisation des images et des conditions d’observation (distance
d’observation, éclairage de la pièce, etc.).