Votre appareil photo vous ment ! (mais le contraire serait bien embêtant)

Des photons à l'image finale : l’odyssée de la création d'une photographie numérique

Un appareil photo, c’est à priori quelque chose de conceptuellement simple. Un système optique (une ou plusieurs lentilles, l’objectif) projette une image sur un capteur (anciennement une pellicule). Les données de ce capteur sont lues, enregistrées en JPG, et voilà :

Eh bien non !

La vie n’est hélas pas si simple ! Votre appareil photo fait tout un tas de traitements et donc de choix dans votre dos, dont vous n’aviez probablement même pas conscience, et que l’on va voir dans cet article.

Cet article ne nécessite aucune connaissance particulière. De plus, je ne vais pas détailler les concepts, mais les illustrer et renvoyer vers tout un tas d’articles externes pour ceux que ça intéresse. Nous allons voir comment un appareil photographique peut transformer un gros tas de photons en cette image :

Photographie de bibliothèque

Cliquez sur l’image pour télécharger le véritable fichier créé par l’appareil (3,6 Mo)

Et pour ce faire, je vais refaire à la main les différentes opérations dans des logiciels de traitement de RAW1, pour vous montrer les résultats intermédiaires.

Comment lire cet article ?

Cet article possède plusieurs niveaux de lecture, selon votre intérêt pour les détails et les explications techniques :

  1. Le texte principal se suffit normalement à lui-même si vous avez un peu de vocabulaire en photographie.
  2. Des blocs explicatifs comme celui-ci détaillent les notions photographiques indispensables à la compréhension de l’article. Vous pouvez les sauter si vous êtes à l’aise avec le vocabulaire utilisé dans les paragraphes précédents.
  3. Les notes en bas de page donnent des informations annexes et contiennent des réflexions personnelles qui digresseraient trop si leur contenu était dans le texte principal.
  4. L’article contient beaucoup de liens pour qui est intéressé par des explications détaillées sur les divers phénomènes et techniques utilisées. Libre à la personne qui lit d’aller y piocher les informations jugées intéressantes.

Bonne lecture !


  1. Ici darktable et RawTherapee, mais à l’exception de la version sans dématriçage qui est rarement proposée, ces étapes devraient être reproductibles avec n’importe quel logiciel de traitement des RAW.

Le capteur ne voit qu'en noir et blanc – mais il a des lunettes de couleur

Le cœur de votre appareil photo, l’organe qui convertit la lumière en signaux qui vont être interprétés en images, c’est le capteur photographique. Mais si votre matériel prend des images en couleur, à de rares exceptions près, les capteurs ne sont sensibles qu’à la luminosité, indépendamment de la longueur d’onde – en d’autres termes, ils ne « voient » qu’en noir et blanc.

Mais alors, comment fait l’appareil pour créer des photos en couleur ?!

Le filtre UV/IR

Pour commencer, l’œil humain n’est sensible qu’à la lumière visible (par définition…) mais le capteur, lui, est réceptif aussi aux ultraviolets proches et surtout aux infrarouges. Mais en temps normal1, l’utilisateur ne veut pas que son capteur enregistre de telles longueurs d’onde, parce que si on les conserve, ces fréquences invisibles vont être rendues dans le domaine visible, ce qui va fausser les couleurs2.

On dote donc les capteurs photographiques de filtres destinés à bloquer ces lumières parasites.

La Matrice de Bayer (et ses amies)

On obtient donc un capteur qui n’est réceptif qu’à la lumière visible… mais qui fonctionne toujours en noir et blanc : chaque photosite du capteur ne sait faire qu’une chose, indiquer la quantité totale de lumière qui le frappe.

Pixels et photosites

On peut appeler pixel un élément sensible du capteur3 – c’est d’ailleurs sous cette dénomination qu’on les retrouve dans les fiches techniques des constructeurs.

Ces éléments sensibles à la lumière prennent aussi le nom de photosites, et c’est ce terme que je vais utiliser dans la suite de ce tutoriel, pour éviter la confusion avec les pixels de l’image. Donc : photosite → élément physique du capteur, pixel → élément de l’image générée.

Pour récupérer l’information de couleur, on va donc mettre des « lunettes » de couleur (rouge, vert, bleu, soit les couleurs primaires en synthèse additive) devant ces photosites. Chacun ne renverra que l’intensité de la couleur primaire associée, ce qui permettra de reconstituer les couleurs.

Pour des raisons de cohérence avec la vision humaine, on trouve deux fois plus de filtres verts que de filtres rouges ou bleus, et ces filtres sont organisés selon une matrice de Bayer ou une variante chez Fujifilm.

Matrice de Bayer devant un capteur
Matrice de Bayer devant un capteur
Photographie du capteur d’une webcam, on y voit la matrice de Bayer
Photographie du capteur d’une webcam, on y voit la matrice de Bayer

Donc, si on représente chaque photosite du capteur par un pixel sur l’image finale en utilisant uniquement la couleur du masque employé à cet endroit-là, on obtient ceci :

Correspondance 1 photosite → 1 pixel coloré selon le masque, découpe au centre de l’image
Correspondance 1 photosite → 1 pixel coloré selon le masque, découpe au centre de l’image
Zoom x4 sur l’image : on voit bien la reproduction matrice de Bayer
Zoom x4 sur l’image : on voit bien la reproduction matrice de Bayer

C’est aussi lors de cette transcription que le système corrige l’orientation au besoin – ici le processus est invisible, car l’image comme le capteur étaient à l’horizontale.

Dématriçage

On est d’accord pour dire que c’est très laid et pas du tout ce qu’attend l’utilisateur. Et pour cause : notre image n’est pas réellement en couleurs à cette étape du processus, elle ne contient que des pixels en niveaux de rouge, de vert ou de bleu.

Il faut donc reconstruire les vraies couleurs4 à partir de ces informations. C’est ce que l’on appelle le dématriçage.

Beaucoup d’algorithmes différents existent pour cette opération. L’une des difficultés vient du fait qu’il manque des informations : chaque photosite n’est recouvert que d’une seule lentille colorée (sinon ça ne fonctionnerait pas), mais on veut un pixel par photosite5. Or, la moitié des pixels n’ont que les données du vert (ceux des photosites sous les filtres verts), un quart n’ont que l’information du rouge et un quart que celle du bleu. On doit donc interpoler les données absentes sans générer d’artéfacts visibles sur l’image finale.

Après ce processus, on obtient une image de ce type :

Résultat après dématriçage
Résultat après dématriçage

  1. Hors astrophotographie et photographie « infrarouge ».
  2. Contrairement aux « audiophiles », aucun photographe ne prétend que reproduire des informations imperceptibles – UV et IR pour l’image, infrasons et ultrasons pour l’audio – ne va améliorer sa photo.
  3. En réalité c’est souvent un peu plus compliqué que ça, mais cette simplification fonctionne bien dans le cadre de cet article.
  4. On peut reconstruire une image en noir et blanc à cette étape du processus, même si c’est inhabituel, car ça ne permet aucun réglage.
  5. Ou presque, en réalité les capteurs ont légèrement plus de photosites que de pixels dans l’image finale (les deux valeurs sont données dans les spécifications, sous les noms « nombre réel de pixels » et « nombre effectif de pixels »). La différence permet d’empêcher des artéfacts en bordure de capteur après dématriçage, et évite un trop gros recadrage à cause des opérations vues dans la suite de cet article.

Mais… les couleurs n'ont aucun sens ?! Corrigeons tout ça, voulez-vous ?

L’image produite à cet instant du processus est… franchement verte, ce qui doit être corrigé.

Une balance des blancs bien choisie…

Avant toute chose, il faut que ce qui nous apparaissait blanc à la prise de vue soit blanc sur l’image. Or, le blanc est une couleur très spécifique, car c’est en fait l’impression colorée que nous laisse un matériau qui renvoie toute la lumière qui l’éclaire. Et cette lumière elle-même peut être de différentes couleurs en fonction de la source – c’est ce qu’on appelle la température de couleur.

Mais la température de couleur du blanc d’un écran bien réglé1 est d’environ 6500 K (lumière dite « lumière du jour »), ce qui ne correspond probablement ni à la température de couleur de la scène photographiée, ni à celle de la pièce dans laquelle vous vous trouvez, et jamais à celle d’une image en sortie de dématriçage.

On doit donc faire une opération appelée balance des blancs pour que le blanc de l’image apparaisse blanc sur votre écran.

Le résultat, avec la mesure automatique du boitier, est le suivant :

Image avec la balance des blancs corrigée
Image avec la balance des blancs corrigée
Boitier

Le boitier d’un appareil photo désigne le corps principal, ce qui contient le capteur et qui fait les calculs. Typiquement sur un réflex, un boitier unique peut accueillir divers objectifs et accessoires tant que les connectiques sont compatibles.

Choix de l’appareil – réglable

L’appareil choisit le réglage de la balance des blancs pour vous. Elle est généralement correcte sauf en cas d’éclairages multiples par des lumières de couleurs différentes, et on peut souvent changer ce réglage.

Correction de l’exposition

Le résultat a de meilleures couleurs, mais est très terne. C’est parce que l’exposition, même automatique, est rarement parfaite (notamment à cause de quelques rares pixels très lumineux par rapport au reste de l’image, qui peuvent fausser les mesures automatiques – regardez les reflets par exemple).

La balance des blancs effectuée, l’appareil peut2 décider de corriger l’exposition pour donner une photo mieux équilibrée dans son rendu.

Une fois l’exposition corrigée
Une fois l’exposition corrigée

C’est aussi à cette étape que le boitier peut décider de reconstruire les hautes lumières, une technique qui permet d’aller récupérer des détails dans des parties de l’image qui seraient grillés par la correction d’exposition. La photo de test n’autorise hélas pas la visualisation de cet effet.

Courbe de tonalité, choix du constructeur et modes automatiques

C’est mieux… mais il reste un défaut majeur : c’est très « plat », dans le sens où ça manque de contraste et semble terne. Cette impression vient du fait que le capteur numérique a une réponse linéaire (il faut ajouter une quantité L de lumière en entrée pour augmenter le signal d’une quantité q) alors que l’œil humain3 a une réponse logarithmique (il faut multiplier la quantité de lumière en entrée pour augmenter la perception de luminosité d’une quantité q).

De plus, l’œil humain a une gamme dynamique4 bien plus élevée que le support de reproduction de la photographie (écran ou impression)5. Il faut donc soit compresser cette gamme dynamique, soit choisir d’ignorer des informations dans les zones très lumineuses et/ou très sombres.

L’appareil photographique va donc appliquer une courbe de correction, parfois appelée courbe de tonalité (mais elle peut avoir d’autres noms) pour un rendu plus naturel. On obtient ce genre de résultat :

Après application d’une courbe de tonalité proche de celle du boitier
Après application d’une courbe de tonalité proche de celle du boitier

La courbe de correction exacte dépend du fabricant du matériel6. Si votre appareil propose des styles d’image, ils correspondent généralement à des variantes de cette courbe de correction.

Choix majeur de l’appareil

Avec les courbes de tonalité, les appareils imposent un choix fort au rendu final. S’il y a une possibilité de réglage de ces courbes, elle est limitée à quelques présélections aux noms abscons.

Le choix d’un espace de couleur

C’est aussi vers ce moment du traitement que le système définit l’espace de couleurs de sortie. Si vous avez le choix, c’est généralement entre sRGB et Adobe RGB, et à moins de savoir exactement ce que vous faites, conservez sRGB7.


  1. Beaucoup d’écrans sont assez mal réglés, et les modes « nuit » disponibles forcent volontairement des températures de couleurs de blanc beaucoup plus basses. Désactivez ces modes si vous traitez des photographies ou faites n’importe quelle activité qui nécessite une bonne reproduction des teintes !
  2. La correction d’exposition n’est pas systématique, et je n’ai pas de règle qui indiquerait si le boitier décide ou non d’en appliquer une.
  3. Tous nos sens, en première approximation, ont une réponse logarithmique et non linéaire.
  4. Le rapport entre les intensités lumineuses minimales et maximales que le système peut capter.
  5. L’œil humain a une gamme dynamique d’environ un million sur une scène unique (sans changement de la luminosité globale) contre à peu près 250 pour un écran non HDR ou une impression. La gamme dynamique générale de la vision humaine, entre l’éblouissement dans une scène très lumineuse et le détail le plus sombre d’une scène très obscure, est encore bien supérieure, mais les auteurs ne semblent pas d’accord sur les chiffres exacts.
  6. Les choix des constructeurs peuvent avoir des impacts assez importants sur le rendu des couleurs. Par exemple la courbe « Standard » de mon Nikon D5600, qui a servi à faire le JPG en introduction du présent article, sature assez violemment le contraste et donne une teinte assez curieuse aux rouges vifs. Les rouges de la courbe recréée depuis le RAW avec Darktable sont beaucoup plus proches de la réalité. Pour comparaison, regardez-les au milieu de la section en bas à droite.
  7. Aucun écran grand public n’affiche des couleurs significativement au-delà de l’espace sRGB. Les écrans bas de gamme en montrent même sensiblement moins. Adobe RGB n’est pertinent que pour l’impression et nécessite d’avoir une chaine de traitement complète compatible (écrans, imprimantes) pour être vraiment utile.

Vous reprendrez bien un peu d'améliorations ?

Les lois de la physique m’imposent un objectif imparfait…

Un appareil photographique, c’est un capteur, mais aussi un objectif. Or, les lois de la physique interdisent que cet objectif soit parfait : l’image produite va toujours contenir des défauts – l’une des difficultés, qui explique le prix de ces objets, est de réduire ces défauts au maximum.

Cependant, certaines aberrations sont systématiques et tout à fait connues. Donc, en sachant la taille du capteur et l’objectif choisi, on peut les corriger ! Cela dit, ceci n’est pas réalisé sur toutes les gammes d’appareils…

Des droites qui sont courbes ? C’est le moment de les redresser !

Le défaut le plus fréquent, et parfois très visible, est que l’image d’une droite à travers un objectif n’est plus une droite. C’est ce qu’on appelle la distorsion1. Elle peut être en barillet, en coussin ou en moustache, selon la forme que prennent les droites vues par l’objectif.

Distorsion en barillet Distorsion en coussin Distorsion en moustache

Grilles distordues en barillet, en coussin et en moustache, respectivement.

Si on connait le modèle d’objectif, la taille du capteur et, dans le cas d’un zoom la focale réellement utilisée, on peut en déduire le type de distorsion et son importance, et la corriger. Ceci impose par contre un léger recadrage de la photo.

Peut-on enlever ces franges colorées ?

La lumière est composée de différentes longueurs d’onde, qui ont la mauvaise habitude de ne pas être déviées exactement de la même façon par le verre des objectifs. Ça donne un défaut appelé aberration chromatique, surtout visible en bordure d’image sur les objectifs grand-angles2.

Exemple de franges colorées provoquées par des verres pour forte myopie
Exemple de franges colorées provoquées par des verres pour forte myopie

Cette aberration peut se corriger en connaissant l’optique et l’ouverture utilisées.

Application des corrections :

Voici à quoi ressemble notre image après application des corrections géométriques :

Comme la différence ne saute pas aux yeux sans point de comparaison, voici une image ou j’ai superposé les versions corrigées et non corrigées :

Les aberrations chromatiques sont aussi en grande partie éliminées, mais n’étaient que peu présentes sur la photo d’origine et nécessiteraient un détail à 100 % d’agrandissement dans un coin de l’image pour être vraiment visibles.

Enfin, les appareils bas de gamme n’appliquent probablement pas ces corrections.

Réduisons tout ce vilain bruit

Du bruit ? Je n’entends rien !

L’image d’origine a été prise à 3200 ISO, ce qui est une sensibilité élevée3. L’appareil utilisé – un Nikon 5600 – étant récent, on s’attend à ce qu’il gère très bien ce genre de sensibilité puisque le sélecteur autorise des valeurs 8 fois supérieures avec un réglage à 25 600 ISO. Or, voici un zoom sur le centre de l’image :

Centre de l’image avec tout le bruit du capteur, sans réduction
Centre de l’image avec tout le bruit du capteur, sans réduction

C’est très visiblement bruité. Les couleurs en bas sont particulièrement horribles. Est-ce qu’on aurait fait une fausse manœuvre ? Zoomons sur la même portion de l’image du JPG produit par le boitier :

Même zone, mais sur la version produite par le boitier
Même zone, mais sur la version produite par le boitier

Il faut nous rendre à l’évidence : l’appareil réduit automatiquement le bruit des photographies.

La réduction du bruit par profil

Chaque capteur introduit du bruit selon un profil connu, et surtout mesurable. On peut donc créer des traitements qui prennent en compte ces données spécifiques au capteur pour réduire une partie du bruit. Le résultat est le suivant :

Une fois éliminé le bruit statistiquement connu
Une fois éliminé le bruit statistiquement connu

C’est mieux, mais ça n’est pas encore parfait, loin de là. Peut-on améliorer notre résultat ?

D’autres types de réductions de bruit

Il existe d’autres techniques de réduction de bruit, comme la réduction de bruit bilatérale et l’élimination des pixels chauds (ce phénomène qui donne l’impression qu’on a renversé un peu de sel et de poivre sur la photo), et bien plus encore. En jouant avec ces types de réductions de bruit supplémentaires, on peut trouver quelque chose de plus proche du résultat du boiter au prix de lourds calculs :

Après avoir appliqué plusieurs filtres de réduction de bruit
Après avoir appliqué plusieurs filtres de réduction de bruit

Mais… ce n’est pas encore ça (regardez les textures ou l’aspect du bas de la planche), et pour cause.

Les constructeurs gèrent très bien le bruit

Les constructeurs connaissent très précisément le bruit provoqué par leurs capteurs, et ont développé des algorithmes de traitement extrêmement poussés et très efficaces4. Or, ces algorithmes ne sont appliqués qu’aux JPG, pas aux données brutes (et c’est logique).

En 2019, il est hélas pratiquement impossible d’obtenir une réduction de bruit aussi efficace et performante que celle intégrée par les constructeurs à l’aide d’outils libres, ou alors au prix d’efforts importants et de longs réglages. Les logiciels de dérawtisation fournis par les fabricants, ou ceux d’entreprises spécialisées comme DxO, peuvent par contre, rivaliser avec voire dépasser les fichiers produits par les boitiers.

Les réglages de débruitage via l’appareil, s’ils existent, sont souvent limités à l’intensité du traitement appliqué.


  1. Tous les porteurs de lunettes font l’expérience de ce type d’aberration en permanence, heureusement le cerveau corrige la plupart des cas lui-même.
  2. Les myopes porteurs de verres minces et fortement divergents, type « verres amincis », font l’expérience de cette aberration au quotidien à travers leurs lunettes, s’ils regardent loin du centre de celles-ci.
  3. Pour rappel, les films argentiques grand public courants avaient des sensibilités de 100, 200 ou 400 ISO – et ces derniers avaient un grain (le « bruit » argentique) visible sur un tirage standard en 15 x 10 cm.
  4. Le principal reproche que l’on puisse faire aux algorithmes de traitement du bruit intégrés par les constructeurs et qu’ils sont assez agressifs et éliminent pratiquement toute forme de grain de l’image, quitte à manger un peu les détails et textures. Probablement pour répondre à la demande actuelle qui fait préférer des images très lisses.

En route vers le fichier JPG !

La photo est devenue floue ? Augmentons la netteté !

Le problème avec tous ces traitements, c’est qu’on s’est sensiblement éloignés de l’idéal un photosite du capteur = un pixel de l’image finale. Tous nos pixels ont été triturés, modifiés, interpolés plusieurs fois… et donc la photo est légèrement floue.

Pour contrebalancer ça, l’appareil renforce la netteté (opération aussi appelée accentuation) pour en améliorer l’aspect final.

Toujours la zone du centre, cette-fois ci accentuée
Toujours la zone du centre, cette-fois ci accentuée

Un peu de compression pour la route ?

Bien, maintenant que tous ces traitements sont terminés, il est temps d’enregistrer l’image obtenue dans un format compréhensible par n’importe quel ordinateur.

C’est exactement le travail de la compression JPEG qui va fournir le précieux fichier JPG tant attendu ! Mais c’est une compression destructrice, qui va éliminer plus ou moins d’informations dans la photo, selon la qualité choisie…

Et voici un aperçu de notre image finale, où l'on a refait manuellement toutes les opérations automatiques !
Et voici un aperçu de notre image finale, où l’on a refait manuellement toutes les opérations automatiques !
La version automatique du boiter, pour rappel
La version automatique du boiter, pour rappel

En résumé et en un schéma

Voici un schéma récapitulatif de la création d’une image par un appareil photographique numérique. En pointillé les opérations effectuées uniquement si nécessaires, et dans un cadre en gras celles qui impliquent des choix forts (donc très visibles sur le rendu final) de la part du fabricant du matériel.

Notez que l’ordre est purement théorique et ne reflète probablement pas l’organisation des traitements d’un appareil réel :

Schéma des traitement menant à la création d’une photographie
Schéma des traitement menant à la création d’une photographie

Et pour les curieux, la source de ce graphique en DOT :

digraph G {
  node [shape=box];
  splines=ortho;
  subgraph cluster_1 {
    node [style=filled];
    Photons -> Filtre -> Matrice -> Photosite;
    label = "Capture des données";
  }
  
  subgraph cluster_2 {
      node [style=filled];
      pixel -> sens -> deraw -> blancs
      label = "Conversion en image"
  }
  
  subgraph cluster_3 {
      node [style=filled];
      expo -> hauteslumieres
      expo -> tonalite
      hauteslumieres -> tonalite
      tonalite -> disto -> bruit
      tonalite -> franges -> bruit
      bruit -> net
      label = "Post-traitement"
  }
  
  
  Photosite -> RAW -> pixel
  blancs -> brut -> expo
  net -> jpg -> final
  
  Filtre [label="Filtre UV/IR"]
  Matrice [label="Matrice de Bayer"]
  
  RAW [label="Données brutes (RAW)"]
  
  pixel [label="Attribution des pixels"]
  sens [label="Orientation" style=dashed]
  deraw [label="Dématriçage"]
  blancs [label="Balance des blancs" style=bold]
  
  brut [label="Image « brute »"]
  expo [label="Exposition" style=bold]
  hauteslumieres [label="Correction des\nhautes lumières" style=dashed]
  tonalite [label="Courbes de tonalité" style=bold]
  disto [label="Correction des\ndistorsions"]
  franges [label="Correction des\naberrations\nchromatiques"]
  bruit [label="Réduction du bruit" style=bold]
  net [label="Accentuation"]
  
  jpg [label="Compression JPG"]
  final [label="Image finale"]
}

Au-delà des tripotages automatiques de l'appareil photo…

Tout ça, c’était pour un appareil simple !

Tout ce que raconte cet article est valable pour un appareil photographique de conception simple – quoique certains traitements soient réservés à des modèles plutôt haut de gamme, comme la correction automatique des déformations induites par les objectifs.

Mais la réalité peut être beaucoup plus compliquée, notamment avec les appareils embarqués dans les smartphones. Pour pallier l’extrême miniaturisation des objectifs et des capteurs tout en présentant des chiffres affriolants, les inventeurs redoublent d’ingéniosité.

Taille des capteurs photographiques les plus courants. Le cadre bleu correspond au format d’une pellicule standard ou à un capteur de réflex numérique haut de gamme. Le petit capteur de 1/2,5 pouces est un grand capteur pour smartphone.

Sur ce genre de matériel, il n’est pas rare de combiner les images issues de plusieurs capteurs, voire d’une série de photos prises par un capteur pour produire une unique image. Les traitements effectués sont alors autrement plus complexes que ceux que je vous ais présentés ici !

Les formats RAW

Les fichiers RAW correspondent aux données brutes du capteur et à une poignée de métadonnées. Ils dépendent donc directement du capteur utilisé, et conséquemment du fabricant de celui-ci.

C’est pourquoi on trouve une quantité de formats différents malgré quelques initiatives pour obtenir une standardisation. La multiplicité des formats et leur aspect propriétaire et non documenté pose aussi la question de la conservation de tels fichiers : sera-t-il toujours possible de les lire dans le futur ?

Repenser le flux de travail et les outils de la photographie numérique ?

Presque tout le flux de travail en photographie numérique date d’une époque où les plages dynamiques des capteurs, des écrans et du papier d’impression étaient assez proches les unes des autres. Or, ce n’est plus du tout le cas. De plus, ce qui était cher et complexe au moment de la conception de ces outils s’est très largement démocratisé : aujourd’hui tout un chacun peut s’improviser photographe et avoir envie de bidouiller quelques images. Pire : contrairement à des loisirs comme la musique (où personne ne prétend savoir jouer d’un instrument au bout d’une poignée d’heures de pratique), tout le monde ou presque a un appareil photographique dans sa poche et s’improvise photographe, sans connaitre ne serait-ce que le début des bases de la technique.

Une technologie qui devrait se complexifier, un art qui se répand partout : voilà qui donne lieu à de passionnantes réflexions sur l’avenir du traitement de la photographie numérique.


C’est une photo même pas retouchée, ça doit être vrai !

Maintenant, vous savez que cette assertion est doublement fausse : en plus des choix effectués par la personne qui a pris l’image, l’appareil photographique lui-même a réalisé énormément d’opérations pour que vous puissiez obtenir le résultat que vous avez sous les yeux. Et ce alors que votre image semble naturelle, sans aucun effet ni traitement particulier !


Outils utilisés pour cet article :

Sources et crédits des illustrations


Merci à rezemika et à Aabu pour leurs commentaires pendant la bêta, et à Holosmos pour la validation !

Ces contenus pourraient vous intéresser

15 commentaires

Et oui, je sais, mon étagère n’est pas droite…

La liste des bouquins dans l’étagère, de gauche à droite (je recommande pratiquement tout) :

Colonne de gauche

Rangée du haut

  • L’atelier des sorciers
  • ReLife
  • Ranma ½
  • Beyond the clouds
  • Re:Zero (arcs 1, 2 et 3)
  • Moi, quand je me réincarne en Slime

Rangée du milieu

  • Bonne nuit Punpun
  • Dead Dead Demon’s Dededededestruction
  • Full metal panic
  • L’habitant de l’infini
  • Dragon Head
  • Un monde formidable
  • Le quartier de la lumière
  • Solanin
  • La fille de la plage
  • Errance
  • Made in Abyss
  • Dark Angel
  • Le blog de Maliki

Et Inari-sama en peluche. Oui, j’aime bien Inio Asano.

Rangée du bas

  • Peter Pan1
  • Garulfo
  • De cape et de crocs
  • Universal War 1 et 2
  • Trolls de Troy
  • Lanfeust de Troy
  • Blacksad
  • Le Vent dans les Sables
  • Hibakusha
  • Robot
  • Ornithomaniacs
  • Mickey’s crazyest adventures et Donald’s crazyest adventures

Colonne de droite

Rangée du haut

  • Gunslingers Girl
  • Spice and Wolf
  • Les vacances de Jésus et Bouddha
  • A Silent Voice1

Rangée du milieu

  • Fire Punch
  • One punch man
  • Les Enfants de la Baleine
  • Gunnm
  • Gleipnir
  • Platinum End

Rangée du bas

  • Iznogoud
  • Le génie des alpages
  • Achille Talon
  • Cédric
  • Les femmes en blanc
  • Gaston Lagaffe
  • Robin
  • Les Psy
  • Les nouvelles aventures de Lapinot
  • Mélusine
  • Les aventures de Lapinot
  • Spirou et Fantasio
  • Léonard
  • Le roi catastrophe
  • Donjon (Potron-minet, Zénith, Monsters)
  • Yorgi le Nain
  • L’appel de Cthulhoo
  • Jack Wolfgang
  • Rubrique à brac
  • Jeangot
  • Les Schtroumpfs
  • Calvin et Hobbes
  • Boule & Bill
  • Raghnarock

  1. Visible uniquement avant le recadrage induit par les corrections d’objectif – ce qui prouve que le recadrage est minime mais existe.

Excellent article. J’ai découvert la plupart de ces aspects par moi-même très récemment quand j’ai eu à retraiter des photos de mariage que le photographe m’avait mis à disposition en JPG et en RAW.

Les JPG générés par l’appareil avaient une tonalité bien trop chaude à mon goût qui dénaturait les scènes.

J’ai donc installé Darktable et découvert la pile de traitements "par défaut" de l’appareil. Avec darktable j’ai pu retravailler la courbe de tonalité, la balance des blancs et l’exposition pour un résultat bien plus satisfaisant.

La morale de l’histoire, c’est que pour des prises de photos importantes, il faut absolument avoir accès aux fichiers RAW. Les JPG, même en résolution maximale, ne permettent pas de retravailler beaucoup l’image finale, ou bien au prix de détérioration significative.

Merci pour l’article, complet sans être trop technique. J’ai une question doublé d’une surprise : ton paragraphe sur la réduction du bruit par profil laisse penser que ce traitement est appliqué seulement lorsque l’appareil génère un JPG. Est-ce que tu confirmes qu’il n’y a aucune réduction du bruit sur le RAW que me fournit l’appareil ? Ou alors, peut-être que le RAW que je récupère n’est pas réellement un fichier brut, mais que certaines corrections sont déjà appliquées ?

Ça me semble contre-productif de devoir faire confiance à un logiciel qui sait manipuler les RAW comme Lightroom (qui est celui que j’utilise avec mon compact expert Lumix) pour supprimer un bruit que l’appareil aurait su réduire de bien meilleure manière. Si c’est bien le cas, il vaudrait peut-être mieux que j’arrête de shooter en RAW…

Je te confirme @octopusnodes que le RAW sont les données brutes du capteur, sans aucun traitement effectué dessus – en particulier sans réduction de bruit.

Ce que tu soulèves est pour moi le principal problème du traitement des RAW aujourd’hui : arriver à faire aussi bien que le boitier sur le point précis de la réduction de bruit. Cela dit, de mémoire Lightroom y arrive plutôt bien.

Retraiter le bruit via les RAW permet aussi de choisir d’autres réglages anti-bruit que ceux du boitier, en particulier d’avoir un peu de grain (les boitiers modernes ont tendance à sortir des images très lisses, quitte à noyer les détails).

Personnellement, quand je travaille avec Darktable, je laisse la correction de bruit par profil sans me prendre plus la tête, sauf en basse lumière.

Faut noter aussi, je shoote avec des valeur d’iso spécifiques, parce que j’avais appris que les autres valeurs étaient en fait du traitement numérique.

+0 -0

L’info que j’avais, c’est :

  • Les photosites ont une sensibilité native qui dépend de leur taille, généralement assez faible sur les capteurs courants
  • Il y a une amplification électronique jusqu’à un certain point (et donc prise en compte dans les RAW
  • Au-delà, c’est un traitement 100 % logiciel (les « modes étendus » HI, HI1 / HI2… ou LOW chez Nikon).

Mais j’ai aucune source sous la main pour étayer mon propos.

PS : Je n’ai pas d’information sur les ISO intermédiaires. Dans le doute, tu fais le test avec Darktable, y’a un outil pour vérifier les valeurs qu’il a utilisé comme point noir et point blanc.

Merci pour l’article !

Clair, précis, compréhensible 👏👌👍.

Quelle tristesse que Darktable ne gère pas mon hybride :(

Parfois les JPG sortis du boîtier sont géniaux (notamment lorsqu’ils émulent des films d’époque) mais parfois j’aimerais bien pouvoir retraiter les RAW dans Darktable comme je le faisais avec mon vieux EOS 500D.

+0 -0

A priori, parfois l’appareil photo ment un peu trop, comme dans ce tweet récent.

Pour ceux qui ne veulent pas avoir accès à twitter (je comprends), une femme (Tessa Coates, actrice) va dans une boutique de robe de mariée, essaie une robe et pose devant plusieurs miroir. Un proche la prend en photo avec son smartphone et ce dernier… affiche une pose différente dans chaque miroir.

La photo mensongère
La photo mensongère
+2 -0

À la réflexion, je me pose des questions sur la réalité de cette image.

Oui, les smartphones travaillent avec une pile d’images pré-capturées et es traitent quand on déclenche. C’est facile à observer : image affichée qui change brutalement moins d’une seconde après avoir déclenché, parties en mouvement dédoublées…

Que les iphones modernes puissent détecter des personnes et les traiter indépendamment me semble crédible.

Ce qui me fait tiquer, c’est la grande différence de pose entre les bras et mains. La pile d’images à traiter n’est pas infinie, une seconde grand max (la note sur le tweet parle de 0,1 s, sans source). Il faudrait une grosse coïncidence pour que toutes les étapes du mouvement soient comprises dans la fenêtre de capture et assez nettes pour être isolées et prises en compte.

Pour moi, sans plus de source, l’explication la plus crédible est que c’est un montage – par ailleurs amusant et simple à faire.

PS : https://daringfireball.net/linked/2023/12/01/fake-iphone-computational-photography-glitch

Je ne peux pas lire le dernier lien de cette source, quel genre de dingue se lance dans des grandes explications en story Instagram ?!

Connectez-vous pour pouvoir poster un message.
Connexion

Pas encore membre ?

Créez un compte en une minute pour profiter pleinement de toutes les fonctionnalités de Zeste de Savoir. Ici, tout est gratuit et sans publicité.
Créer un compte