Un APN ressemble a priori, vu de l'extérieur, à un appareil photo d'antan : il y a aujourd'hui un écran qui permet de visualiser la photo après sa capture, mais on y retrouve une optique, un capteur - qui remplace le film d'antan, mais, chose que l'on sait moins, il y a un traitement d'image embarquée, que l'on appelle communément un ISP, qui aura pour mission de générer l'image. L'ISP fait ce que réalisait la chimie du temps du film.
Si on regarde comment est fait un capteur, c'est un ensemble de cellules photosensibles, sur lesquelles on place une mosaïque de Bayer. Premier problème : le capteur ne va recevoir qu'une information par photosite, l'information de la couleur rouge, ou verte, ou bleu.
Deuxième problème : le capteur ne voit pas les couleurs comme l'oeil - il est difficile de réaliser des capteurs qui vont avoir, pour le vert par exemple, la meme réponse spectrale que les cellules de l'oeil. Ainsi, la réponse au bleu et au vert dans le cas du capteur vont être très proche, le capteur va avoir du mal à discriminer ces deux couleurs.... Le capteur est presque daltonien.
Première étape : reconstruire les 3 information pour chaque pixel : le dématriçage. Il s'agit d'interpoler le vert pour les pixels ne possédant pas le vert...
L'image obtenue en sortie de ce processus n'est pas vraiment exploitable : le capteur va capturer la dynamique de la scène avec une dynamique plus grande que celle de l'image numérique finale : celle-ci est codée avec 1 octet, donc entre la valeur la plus grande et la valeur la plus petite il y a un facteur 256, donc une dynamique de 1 à 256 alors que les scènes ont des écarts de lumière plus importants que cela. Les capteurs aujourd'hui captent avec une dynamique de 1 pour 1000 jusqu'à 1 pour plusieurs millions pour certains capteurs. Donc en général les images sont très sombres et il faut réajuster le contraste, remettre la dynamique de la scène capturée par le capteur dans celle de l'image.
L'oeil fait une adaptation à la lumière, il neutralise la lumière de façon à voir les choses de façon constante : en extérieur, la lumière est essentiellement bleue - couleur du ciel - avec des nuances selon si le soleil est au zénith ou couchant ; en intérieur, les couleurs sont plus chaudes (jaune ou rouge). On ne s'en rend pas compte car l'œil neutralise l'illuminant et va mettre la partie la plus lumineuse de ce qu'il perçoit au blanc. L'oeil ne fait pas l'adaptation chromatique sur l'image qu'on lui restitue mais en fonction du contexte, c'est à l'appareil photo de faire la neutralisation de l'illuminant.
Autre problème : les réponses spectrales du capteur ne sont pas les mêmes que celle de l'oeil, le capteur ne voit pas les couleurs comme l'oeil. Il y a un traitement numérique qui va consister à faire des appariements de couleurs : à partir de couleurs classiques qui correspondent à des objets, des végétaux, des scènes naturelles, des associations entre ce que voit le capteur et ce qu'aurait vu l'oeil. Après cette correction, on a de belles couleurs.
Voilà le minimum de ce que doit faire le traitement d'image embarqué, c'est ce que faisait la chimie sur les photos argentiques.
Plutôt que de restituer l'image telle qu'elle est, telle que l'aurait vu l'oeil humain, l'appareil photo la restitue comme on aime la voir. On est habitué - pour des raisons culturelles (habitude aux écrans) - à voir des images saturées et le souvenir des images que l'on a est beaucoup plus saturé en couleurs que la véritable image... et on préfère les images saturées.Un objectif du traitement d'image consiste à les rendre plus belles, au sens où comme on les préfère.
L'ISP est devenu un différentiateur entre les fabricants (hors appareils réflex) : les fabricants de compact ont accès aux mêmes fabricants de capteurs, aux mêmes fabricants d'optique, ils font la différence avec le traitement d'image, l'ISP.
Le traitement d'image embarqué permet des choses que la chimie d'antan ne permettait et c'est en ce sens qu'il va révolutionner l'appareil photo : avant il fallait une bonne optique, une bonne chimie et si un seul de ces éléments était défectueux, l'image était mauvaise... on peut, grâce au numérique, compenser les défauts du capteur ou de l'optique : on peut améliorer les images dans un premier temps, puis reconcevoir l'appareil photo autrement.
Longtemps, ces corrections n'existaient pas dans l'appareil mais dans des logiciels type photoshop. Désormais, ces algorithmes sont embarqués dans les APN.
On peut non seulement compenser les défauts mais aussi contourner les limites de l'optique et aussi du capteur :
L'augmentation de la profondeur de champ (les objets à toutes les distances ne peuvent pas être nets en même temps sur l'image) : on ne peut pas voir nets en même temps ce qui est proche et ce qui est loin. L'autofocus déplace/déforme les lentilles pour une meilleure mise au point. Mais l'autofocus est trop cher, trop gourmand en énergie et trop gros pour être mis dans un smartphone. On peut faire cela sans autofocus avec le numérique, on introduit des aberrations chromatiques longitudinales - au lieu de demander aux opticiens de les compenser, on va leur demander d'en mettre. On va focaliser les trois couleurs à différentes distances (par exemple le rouge à l'infini, le vert à une distance intermédiaire, le bleu à une distance très proche) : pour toutes les distances-objets, on aura donc au moins un canal qui sera net. Le canal qui sera net va porter les détails que l'on va pouvoir transporter sur les deux autres canaux.