vocabulaire de la visibilité routière

capteurs optiques

 

 



Capteurs optiques

Technologies

La principale technologie utilisée dans les applications de traitement d’images est celle des matrices de capteurs optiques, basées sur la technologique CCD (la plus répandue) ou CMOS (qui a une courbe de réponse plus logarithmique). Les capteurs des caméras numériques sont en général sensibles à la lumière visible, mais on doit également mentionner un autre type de capteurs : les caméras infrarouge (FIR pour far infrared, par opposition à NIR, near infrared). Les corps chauds émettant un rayonnement infrarouge, cette technique est bien adaptée de nuit pour identifier les véhicules à moteur, et dans une moindre mesure, les mammifères (dont les humains).

Les systèmes de type radar sont également basés sur des principes optiques, la différence principale étant qu’il s’agit de capteurs « actifs » (ils émettent un signal et recueillent le résidu de ce signal), par opposition aux caméras qui sont des capteurs passifs (ils se contentent de recueillir la lumière présente dans la scène). Le principe du radar est principalement utilisé, dans le domaine automobile, par le lidar, qui émet des impulsions et analyse le signal renvoyé (détection principalement des objets métalliques). Le radar anti-collision, installé à l’arrière du véhicule, n’est pas un radar, contrairement à ce qu’indique son nom, mais un sonar.

Caractéristiques techniques

La courbe de réponse d’un capteur donne la relation entre le signal d’entrée et le signal de sortie du système. Dans le cas d’un capteur optique passif, elle décrit le comportement d’un élément d’une matrice (CCD ou CMOS), à savoir la valeur numérique de sortie en fonction de l’intensité lumineuse reçue. Comme le signal d’entrée est un spectre de rayonnement, deux informations sont nécessaires pour décrire la réponse du capteur. D’une part, la courbe de sensibilité, qui donne la réponse du capteur en fonction de la longueur d’onde de la lumière, pour une intensité radiométrique constante ; d’autre part la courbe de réponse elle-même, qui donne (pour une longueur d’onde ou une distribution spectrale fixée) la valeur de sortie en fonction du niveau du signal d’entrée.

Les caméras numériques peuvent être « noir et blanc » ; dans ce cas elles n’ont qu’un seul canal et délivrent un signal en niveaux de gris. Leur courbe de sensibilité est répartie sur l’ensemble du spectre (éventuellement dans le domaine  infra-rouge). Elles peuvent être « couleur », auquel cas elles utilisent trois canaux, pour lesquels elles utilisent trois types de filtres (Rouge, Vert, Bleu ou Jaune, Magenta, Cyan). La technique la plus courante consiste à utiliser une matrice de Bayer : les capteurs de la matrice sont organisés par carré de quatre (Fig. 29) dans lequel on trouve deux pixels associés à des filtres verts, un filtre rouge et un filtre bleu.

Les capteurs CCD et CMOS sont à sortie numérique, ce qui signifie que le signal de sortie n’est pas analogique mais à valeurs discrètes ; il est codé sur un certain nombre de bits par canal, 8 pour les capteurs ordinaires, mais ce nombre peut monter jusqu’à 12 ou 16. La sensibilité d’un capteur est la plus petite différence de signal qu’il est capable de détecter ; dans le contexte d’un codage numérique, cela désigne la différence de signal d’entrée nécessaire pour incrémenter le signal de sortie d’une unité. Cette sensibilité varie, pour un capteur donné, selon le niveau lumineux (sauf si la courbe de réponse est parfaitement linéaire).

La résolution d’une caméra fait référence au nombre de pixels dans l’image, autrement dit au nombre de capteurs (horizontalement et verticalement) dans la matrice. Cette résolution peut également être exprimée par rapport au champ visuel du capteur, qui est la taille angulaire de la scène vue par le système optique (la notion de champ visuel a le même sens ici que pour la vision humaine).