Comment fonctionne l’appareil photo numérique

Pour un contrôle complet du procédé de production d’une image numérique il faut avoir l’idée générale de la conception ainsi que du fonctionnement d’un appareil photo numérique.La seule différence fondamentale de l’appareil photo numérique de celui argentique consiste en la nature du matériel sensible à la lumière – dans les cas des appareils photo argentiques c’est la pellicule, et pour l’appareil photo numérique c’est le capteur d’image.

Et comme un procédé photographique traditionnelle est inséparable des propriétés du film, le processus de l’obtention d’une photo numérique dépend en grande partie sur la façon dont le capteur numérique convertit la lumière focalisée par la lentille en code numérique.

Le principe du fonctionnement du capteur numérique

Le capteur numérique est un circuit intégré constitué de minuscules éléments sensibles à la lumière – les photodiodes.

Il existe deux principaux types de capteurs: CCD (Charge-Coupled Device – dispositifs à transfert de charge) et CMOS (Complementary Metal Oxide Semiconductor – semi-conducteur complémentaire à l’oxyde de métal).

Les capteurs de deux types convertissent l’énergie de photon en signal électrique, qui est ensuite soumis à la numérisation.

Cependant, dans le cas du capteur CCD, le signal généré par les photodiodes est d’abord envoyé dans le processeur de l’appareil photo sous une forme analogique et seulement ensuite est numérisé, chaque photodiode du capteur CMOS est doté d’un individuel convertisseur analogique dédié – le processeur reçoit des données sous un format discret.

En général, les différences entre les capteurs CMOS et CCD sont importantes pour les ingénieurs, mais ne sont guère relevantes pour les photographes. Les fabricants du matériel photographique tiennent également compte du fait que le capteur CMOS, plus complexe et plus cher lors du développement, s’avèrent plus rentable que CCD lors de la production de masse – ainsi, à l’avenir, la technologie CMOS gagnera la place principale pour les raisons purement économiques.

Les photodiodes – dont tout capteur photo est constitué – sont capables de transformer l’énergie du flux lumineux en une charge électrique. Plus de photons sont détectés par les photodiodes, plus d’électrons sont obtenus au final. Évidemment, plus la surface totale de toutes les photodiodes est élevé, plus de lumière peut être absorbée – plus sensible le capteur photo est.

Malheureusement, les photodiodes ne peuvent pas être situés près l’un de l’autre – sinon il n’y aurait pas de place sur le capteur pour l’électronique d’accompagnement (ce qui est particulièrement important pour le capteur CMOS).

La surface du capteur sensible à la lumière est en moyenne égale à 25-50% de sa superficie totale.

Pour réduire la perte de lumière, chaque photodiode est couvert par une microlentille qui dépasse sa zone et se trouve en contact avec les microlentilles des photodiodes adjacentes.

Les microlentilles recueillent la lumière et la dirigent à l’intérieur des photodiodes, en améliorant ainsi la sensibilité du capteur.

La lumière est la base de toute photo. La lumière pénètre dans la caméra à travers l’objectif, dont les lentilles forment une image de l’objet sur le capteur photosensible. Lorsqu’on appuie sur le déclencheur, le verrou de l’appareil photo s’ouvre (habituellement, pour une fraction de seconde) et l’image se fait exposer – le capteur de l’appareil photo est éclairé d’un flux de lumière d’une intensité déterminée. Selon le souhait d’obtenir une image claire ou sombre, on aura besoin de différentes quantités de lumière – des expositions différentes.

A la fin de l’exposition, la charge électrique générée par chaque photodiode est analysée, amplifié et est converti en un code binaire qui est ensuite traité par le processeur de l’appareil. En règle générale, chaque photodiode du capteur correspond à un pixel de l’images future.

La profondeur de bits détermine le nombre des nuances de couleurs – les gradations de luminosité pour chaque pixel. Plus la profondeur de bits est élevée, plus lisses transitions de teintes l’appareil photo est capable d’enregistrer. La plupart des appareils photo numériques est capable de stocker de 12 à 14 bits d’information pour chaque pixel (12 bits signifie 4.096 nuances, et 14 bits – 16.384 nuances).

Plage dynamique

Sous le terme de la plage dynamique du capteur photo on entend le rapport entre le niveau de signal maximal des photodiodes et le bruit de fond du capteur – donc, le rapport entre d’intensité maximale et minimale de lumière que le capteur peut absorber.

Les plus de photons la photodiode est capable de saisir avant qu’il atteigne la saturation, plus grande sera la grande plage dynamique du capteur dans son ensemble. La capacité des photodiodes est proportionnelle à leur taille physique – un appareil photo avec une grande matrice (donc, avec plus grandes photodiodes) aura une plus large plage dynamique et moins de bruit.

En outre, un grand capteur signifie généralement une plus grande sensibilité ISO maximale pour un modèle concret d’appareil photo – après tout, l’augmentation du paramètre ISO dans l’appareil photo numérique est l’amplification du signal électrique avant sa numérisation. Naturellement, ensemble avec le signal utile, le bruit est aussi amplifié à son tour – donc, un capteur avec un plus grand rapport signal // bruit fournit une image plus claire aux paramètres d’ISO plus élevés.

La formation d’une image en couleurs

Peut-être de certains lecteurs ont déjà remarqué que le capteur d’un appareil photo numérique tel que décrit ci-dessus ne sera capable que de percevoir les images en noir et blanc uniquement. C’est absolument correct – la photodiode ne détecte que l’intensité de la lumière, mais n’est pas capable de déterminer la couleur – qui varie en fonction de la longueur d’onde de la lumière, ou bien en d’autres termes, en fonction de l’énergie spécifique des photons.

Pour résoudre ce problème, chaque photodiode se fait munir d’un filtre de lumière rouge, verte ou bleue. Le filtre rouge transmet les rayons rouges, mais retarde les rayons bleus et verts – les filtres vert et bleu fonctionnent de façon similaire en laissant passer uniquement les rayons de la même couleur. En conséquence, chaque photodiode devient sensible seulement à une gamme limitée des ondes lumineuses.

Les filtres colorés couvrant les photodiodes forment un motif – ou une mosaïque – appelé un réseau de filtres couleur. Il existe de nombreuses variantes des positions mutuelle des filtres, mais la plupart des appareils photo numériques utilisent le filtre de filtre, constitué à 25 % des éléments rouges, à 25 % des éléments bleu et à 50 % des éléments verts (l’utilisation de la double quantité des filtres verts est due au fait que l’œil humain est extrêmement sensible aux rayons lumineux vert, ce qui fait que toute inexactitude au niveau du canal de transmission du vert dans l’image sera particulièrement visible).

L’image obtenue par le réseau de filtres couleur n’est pas en pleine couleur, car chaque photodiode de l’appareil photo n’indique au processeur que les informations d’une des couleurs primaires seulement: rouge, vert ou bleu. Le processeur de l’appareil photo analyse les données des éléments voisins – grâce aux algorithmes d’interpolation, il calcule les valeurs des couleurs rouge, vert et bleu pour chaque pixel et obtient en fin de compte une image RGB en couleur.

Malheureusement, le prix à payer pour l’image en couleur est la diminution de la sensibilité du capteur – en cas du filtre Bayer, un tiers du flux lumineux atteigne les photodiodes. En outre, la netteté se fait réduire également. La résolution du capteur déclarée par le producteur photo se réfère à la résolution d’une image en noir et blanc, tandis que l’image de couleur est formée par interpolation des pixels voisins ce qui estompe l’image.

En outre, le capteur avec un réseau de filtres couleur fonctionne assez mal dans les conditions d’un éclairage monochrome – par exemple, uniquement les photodiodes rouges fonctionnent pleinement dans les conditions de la lumière des lampes au sodium basse pression, les verts reçoivent un minimum de lumière, et les bleus ne perçoivent aucune information. La photo en résultante devient donc granuleuse même lors des valeurs modérées de l’ISO – l’image est restaurée presque exclusivement sur la base des pixels rouges qui ne font que seulement 25 % de la surface totale capteur.

Il existe des approches alternatives pour l’obtention d’une image en couleur – comme les systèmes 3CCD ou Foveon X3 – mais ils ont d’autres désavantages, à leur tour, et sont nettement moins répondus par rapport au filtre Bayer.

La pré-filtration de la lumière

Au-dessus du filtre Bayer et les microlentilles, le capteur est couvert par un filtre supplémentaire, transparent pour la lumière visible mais imperméable aux rayons infrarouges. La nécessité de filtrer les rayons infrarouges est dictée par une haute sensibilité du capteur aux rayons. Le filtre infrarouge coupe les rayons de lumière ayant la longueur d’onde supérieure à 700 nm et accorde la gamme des fréquences perçues par le capteur avec la sensibilité de l’œil humain.

Pour réaliser la prise des photos dans la plage infrarouge, il existe des appareils photos spéciaux sans filtre infrarouge.

Le capteur de l’appareil photo numérique est peu sensible envers les UV (dont la longueur d’onde est inférieure à 400 nm) – on n’a pas besoin de UV filtre spécial.

À part du filtre infrarouge, le capteur est souvent doté d’un filtre à baise fréquences – un filtre de lissage dont la tâche est de flouer légèrement l’image: si l’objet photographié a des zones avec de fins détails minuscules dont la taille est comparable à celle des photodiodes du capteur, lors de la numérisation de l’image il peut apparaître des artefacts non-naturels tels que le moiré. Le filtre lisse les détails minuscules de l’image – il diminue la fréquence du signal analogique jusqu’à un niveau qui ne dépasse pas le taux d’échantillonnage. Cela permet de réduire le risque d’apparition des artefacts au coût d’une légère baisse de la netteté de l’image finale.

Plus élevée est la résolution de l’appareil photo numérique, moins on nécessite l’utilisation du filtre de lissage – les modèles les plus récents sont de plus en plus produits sans un tel filtre. Si la capteur a une résolution de 15 à 20 mégapixels, les aberrations d’objectif et la diffraction à l’ouverture du diaphragme fournissent un inévitable flou naturel, ce qui rend la détérioration de la netteté à l’aide d’un filtre de lissage superflue.

Maintenant vous êtes plus familiers avec le fonctionnement d’un appareil photo numérique, et avez une idée assez précise des faiblesses techniques de la photographie numérique à l’étape actuel de son développement.

Il va sans dire que ces données complètent, mais en aucun cas ne remplacent guère la compréhension profonde et complète de l’exposition.

This entry was posted in appareils photo, Conseils photo and tagged , .

Post a Comment

Your email is never published nor shared. Required fields are marked *

*
*