Espaces colorimétriques

J'essaye de les comprendre

Le problème exposé dans ce sujet a été résolu.

Hello les zesteux,

Je fais un peu de photo et désormais même un peu de vidéo. Hier je terminais de monter une vidéo et j’en viens donc à la retouche colorimétrique. J’en suis venu alors à me poser plusieurs questions, notamment parce que j’y arrive mieux quand je comprends à quoi je touche. L’exemple le plus concret étant celui de la balance des blancs, pour laquelle mes cours de physique m’ont bien servi.

La première d’entre elle c’ëait est-ce que je dois filmer en Adobe RGB ou en sRGB ? La question se posant également pour la photographie. J’avais lu, vite fait en cherchant un picture control flat, que oui. Mais en me renseignant apparemment c’est beaucoup moins évident. L’Adobe RGB est apparemment utile uniquement en impression, mais nécessite d’être maîtrisé et surtout de bien calibrer son écran et l’éclairage. Semblerait que le sRGB, standard, resterait affiché pareil sur le web, ce qui est le cas pour ce que je fais, contrairement à l’adobe RGB qui est reconvertit par le navigateur.

J’ai vu des images expliquant la différence entre sRGB et Adobe RGB, et si j’ai bien compris sRGB englobe une partie du spectre visible, mais Adobe RGB a choisi une échelle de vert différente, pour avoir un vert plus vif ?

Passant par là, j’ai donc jeté un œil aux autres espaces colorimétriques. Bon, y en a plein mais 2 catégories ressortent. Ceux basés sur Luminance, Teinte, Saturation et ceux basés sur la luminance et 2 échelles, différentes je crois selon les espaces de couleur. Là encore, je me demande à quoi correspond physiquement la saturation ?

Mais surtout, la Lab est celle utilisée pour la retouche de photo RAW. L pour luminance, a pour le canal vert-magenta et b pour le canal ambre-bleu. Si j’ai bien compris cette représentation vise à se rapprocher du comportement de l’œil selon des méthodes psychologiques. Mais à quoi correspondent exactement ces canaux ? Pour la luminance ça va, mais pour les canaux a et b ? Cela veut-il dire que l’on perçoit les couleurs selon ces deux axes ? Donc que l’on peut voir un bleu-vert ou un bleu-magenta, mais pas un bleu-ambre ? Et quand je modifie les courbes, à quoi cela correspond-il ? J’ai un peu l’impression que cela modifie la saturation selon des couleurs précises.

Également, les photos RAW utilisent-elles un de ces espaces colorimétriques (pas les RGB ça je le sais) ? Et les retouches, sachant qu’on peut naviguerà travers les représentations, nécessitent-elles des conversions en boucle ?

+0 -0

Salut,

Tant de questions ! Commençons pas un peu de lecture de sur l’AdobeRGB et le sRGB. Mes études sur le sujet remontent à quelques déjà, donc à prendre avec des pincettes ;)

La première d’entre elle c’ëait est-ce que je dois filmer en Adobe RGB ou en sRGB ?

Tout dépend de tes ambitions et de ce que tu souhaite faire. En très gros l’Adobe RGB va te permettre de représenter un spectre de couleur plus large que le sRGB (ce qui est plutôt bien en soi). Mais le sRGB reste le standard notamment en informatique. Pour prendre un exemple concret ton écran d’ordinateur n’est probablement pas capable de restituer l’Adobe RGB correctement (l’ensemble des couleurs). Donc (en dehors de l’impression photo) ça à un intérêt limité. Note que tu pourras toujours passer d’un Adobe RGB à sRGB, mais l’inverse est faux (en réalité tu peux le faire, mais ça veut dire extrapolation des données de base).

Pour répondre à tes interrogations sur les espaces de couleur en général, il en existe plein. Chacun est différent dans son usage, la compatibilité du matériel, etc. Garder la luminosité dans un canal à part est quelque chose de très courant (YUV, Lab, YCbCr, etc.). C’est en effet plus proche du fonctionnement de notre oeil qui repose sur les cônes et les bâtonnets, ces derniers étant beaucoup plus sensible à la luminosité que les cônes (plus de détails). C’est aussi (parfois) un avantage en traitement du signal si tu souhaite faire une traitement différent sur la luminosité que sur les informations de couleur. Ou tout simplement pour utiliser un moniteur noir et blanc sans avoir à traiter le signal (malin, non ?)

Concernant ta dernière question. Peut importe l’espace colorimétrique quand tu shoot en RAW. Le RAW n’a pas d’espace colorimétrique a proprement parler (pas dans le sens où on l’entend dans ce post). La seule chose que ça affecte c’est éventuellement le fichier JPEG qui est peut être développé par ton appareil en même temps que le RAW (si tu shoot en RAW+JPEG). Il me semble qu’un logiciel comme lightroom ne convertit ton RAW dans un espace colorimétrique que quand tu exporte (développe) ta photo.

Je répond de manière assez large. Si tu veux plus d’infos sur un sujet en particulier ou si tu as des questions plus précises, n’hésites pas.

+1 -0

Merci beaucoup pour ces informations déjà :)

C’est bien ce qu’il me semblait pour adobe RGB. Je vais rester en sRGB alors, vu que je ne filme/shoot quasiment que pour du web ça éviterat je pense des problèmes.

Du coup, quand je retouche mes RAW en modifiant les canaux Lab, qu’est-ce que je modifie exactement ?

+0 -0

L’Adobe RGB est apparemment utile uniquement en impression, mais nécessite d’être maîtrisé et surtout de bien calibrer son écran et l’éclairage. Semblerait que le sRGB, standard, resterait affiché pareil sur le web, ce qui est le cas pour ce que je fais, contrairement à l’adobe RGB qui est reconvertit par le navigateur.

Phigger

Effectivement, le Adobe RGB à l’origine a été créé pour pouvoir représenter toutes les couleurs disponibles en quadrichromie (Cyan Magenta Jaune Noir), soit la technique utilisée en impression. Comme dit par Anto59290, le sRGB correspond au standard des écrans grand public, ce qui veut dire que tous les écrans sont capables d’afficher toutes les couleurs disponibles en sRGB, ce qui ne veut pas dire qu’elles s’afficheront partout pareil. Pour que deux écrans affichent des couleurs identiques, ils doivent avoir été calibrés (récemment). Donc, quelque soit l’espace que tu choisis, si tu veux faire de la colorimétrie, la calibration est un peu un préalable à ne pas négliger.

Sinon, je suis pas sûr à 100% de ce que j’affirme, mais le choix des axes rouge-vert (a) et jaune-bleu (b) vient de l’espace CIE XYZ, antérieur au CIE Lab. Dans l’espace CIE XYZ, le Y correspond à la luminance, le Z dépend de la stimulation des cônes S (bleu), et le X de la stimulation des cônes M et L (rouges et verts). Or la valeur de b est calculée en fonction de X et Y (donc sans prendre en compte la perception du de la couleur bleue) et la valeur a à partir de Y et Z (donc sans prendre en compte la perception des couleurs rouge et verte). Je demande quand même confirmation sur cette dernière affirmation, mais c’est comme ça que je le comprends.

Du coup, quand je retouche mes RAW en modifiant les canaux Lab, qu’est-ce que je modifie exactement ?

Phigger

Par définition le format RAW est l’enregistrement des données brutes du capteur: aussi brute que le permet ton appareil, certains traitements (comme les filtres optiques) sont toujours appliqués. Quand tu traite ton image dans un logiciel (Lightroom ou autre) tu visualise une interprétation de ton fichier RAW. Si tu veux une comparaison entre argentique et numérique : le fichier RAW est ton négatif, l’image finale (dans un espace colorimètrique) est ton tirage. Quand du développe une photo en argentique tu n’obtient pas le même résultat de couleur, de contraste, etc. en fonction du papier choisi. C’est un peu la même chose quand tu change d’espace colorimétrique, tu interpréte ton image dans UN espace.

Je sais pas si c’est plus clair pour toi ? :p

Connectez-vous pour pouvoir poster un message.
Connexion

Pas encore membre ?

Créez un compte en une minute pour profiter pleinement de toutes les fonctionnalités de Zeste de Savoir. Ici, tout est gratuit et sans publicité.
Créer un compte