Capteurs
optiques
Technologies
La principale technologie utilisée dans les applications de
traitement d’images est celle des matrices de capteurs optiques, basées sur la
technologique CCD (la plus répandue) ou CMOS (qui a une courbe de
réponse plus logarithmique). Les capteurs des caméras numériques sont en
général sensibles à la lumière visible, mais on doit également mentionner un
autre type de capteurs : les caméras infrarouge (FIR pour far
infrared, par opposition à NIR, near infrared). Les corps chauds
émettant un rayonnement infrarouge, cette technique est bien adaptée de nuit pour
identifier les véhicules à moteur, et dans une moindre mesure, les mammifères
(dont les humains).
Les systèmes de type radar sont également basés sur des
principes optiques, la différence principale étant qu’il s’agit de capteurs
« actifs » (ils émettent un signal et recueillent le résidu de ce
signal), par opposition aux caméras qui sont des capteurs passifs (ils se
contentent de recueillir la lumière présente dans la scène). Le principe du radar
est principalement utilisé, dans le domaine automobile, par le lidar,
qui émet des impulsions et analyse le signal renvoyé (détection principalement
des objets métalliques). Le radar anti-collision, installé à l’arrière du
véhicule, n’est pas un radar, contrairement à ce qu’indique son nom, mais un
sonar.
Caractéristiques techniques
La courbe de réponse d’un capteur donne la relation
entre le signal d’entrée et le signal de sortie du système. Dans le cas d’un
capteur optique passif, elle décrit le comportement d’un élément d’une matrice
(CCD ou CMOS), à savoir la valeur numérique de sortie en fonction de
l’intensité lumineuse reçue. Comme le signal d’entrée est un spectre de
rayonnement, deux informations sont nécessaires pour décrire la réponse du
capteur. D’une part, la courbe de sensibilité, qui donne la réponse du
capteur en fonction de la longueur d’onde de la lumière, pour une intensité
radiométrique constante ; d’autre part la courbe de réponse elle-même, qui
donne (pour une longueur d’onde ou une distribution spectrale fixée) la valeur
de sortie en fonction du niveau du signal d’entrée.
Les
caméras numériques peuvent être « noir
et
blanc » ; dans ce cas elles n’ont qu’un
seul canal et délivrent un
signal en niveaux de gris. Leur courbe de sensibilité est
répartie sur
l’ensemble du spectre (éventuellement dans le
domaine infra-rouge). Elles peuvent être
« couleur », auquel
cas elles utilisent trois canaux, pour lesquels elles utilisent trois
types de
filtres (Rouge, Vert, Bleu ou Jaune, Magenta, Cyan). La technique la
plus
courante consiste à utiliser une matrice de Bayer : les
capteurs de la
matrice sont organisés par carré de quatre (Fig. 29) dans
lequel on trouve deux
pixels associés à des filtres verts, un filtre rouge et
un filtre bleu.
Les capteurs CCD et CMOS sont à sortie numérique, ce qui
signifie que le signal de sortie n’est pas analogique mais à valeurs discrètes ;
il est codé sur un certain nombre de bits par canal, 8 pour les capteurs
ordinaires, mais ce nombre peut monter jusqu’à 12 ou 16. La sensibilité
d’un capteur est la plus petite différence de signal qu’il est capable de
détecter ; dans le contexte d’un codage numérique, cela désigne la
différence de signal d’entrée nécessaire pour incrémenter le signal de sortie
d’une unité. Cette sensibilité varie, pour un capteur donné, selon le niveau
lumineux (sauf si la courbe de réponse est parfaitement linéaire).
La résolution d’une caméra fait référence au nombre
de pixels dans l’image, autrement dit au nombre de capteurs (horizontalement et
verticalement) dans la matrice. Cette résolution peut également être exprimée
par rapport au champ visuel du capteur, qui est la taille angulaire de la scène
vue par le système optique (la notion de champ visuel a le même sens ici que
pour la vision humaine).