test

Comment bien prendre une photo, partie 2 : récupérer les zones cramées. by Adrien Le Falher

Cet article fait partie de ma série Comment prendre une bonne photo, et est la suite directe de cet article : COMMENT PRENDRE UNE BONNE PHOTO : L'EXPOSITION

Dans l'article précédent, on a vu comment exposer correctement, c'est à dire à ne pas cramer les hautes lumières dans le fichier raw.

Cependant, des logiciels de développement raw comme Lightroom/CameraRaw ou CaptureOne permettent de "récupérer" des informations dans les hautes lumières qui seraient cramés.

Mais si c'est le cas, pourquoi s'embêter à bien exposer ? Comment algorithme marche-t-il, et à quel point peut-il vraiment récupérer vos erreurs ? C'est ce qu'on va voir aujourd'hui.

Il y a surex, et il y a SUREX.

Revenons à l'image de l'article précédent, où j'ai pris une exposition surexposée en testant les limites du zebra réglé sur 107+.

107NotOk.jpg

On peut y voir que certaines couches sont surexposées, mais pas toutes : uniquement les couches G1 et G2.

Parlons rapidement des couches, car c'est de ça dont il va beaucoup s'agir dans cet article.

A moins que vous ayez un appareil très particulier, votre appareil utilise une matrice de bayer : c'est à dire qu'au lieu d'enregistrer les valeurs pour le rouge, le vert et le bleu pour chaque pixel (les trois couleurs primaires à partir desquelles vous voyez une image en couleur sur un écran), votre appareil n'enregistrera qu'une seule de ces couleurs par pixel, et devinera les couleurs manquantes à partir des pixels à proximité. Ainsi, le capteur est organisé ainsi : il y a deux pixels (ou plutôt photosite, mais pour simplifier on va dire ici que c'est la même chose) verts pour un pixel rouge et un pixel bleu. Pourquoi ? Parce que notre oeil est très sensible au vert, et que pour des raisons physiques c'est aussi à partir du vert qu'on va faire une mesure de luminosité. Le plus important, c'est qu'un raw a quatre couches : deux de vert, une de rouge, une de bleu.

Or, toutes ces couches n'étant pas égales (à moins de prendre un sujet parfaitement monochrome, qui dans ce cas là aurait des valeurs égales pour chaque couche), il peut arriver, comme ici, qu'une couche ou plusieurs soit "pleine" sur certains de ses pixels, mais que d'autres, non.

C'est là que les algorithmes de récupération des hautes lumières travaillent : à partir des informations non cramés, il va essayer de deviner les valeurs non cramés qui manquent. Spoiler alert : c'est pas brillant.

Pour démontrer cela, j'ai pris à nouveau ma charte de couleur en photo, plusieurs fois. Sur le côté gauche de mes exemples, vous retrouverez une photo correctement exposée de la charte. Sur le côté droit, une photo surexposée, dont l'exposition a été baissée pour essayer de récupérer les informations, et avoir une luminosité égale à la photo bien exposée. Observons tout d'abord les couches séparément.

Couche Bleue :

DSC04690-RAW-B.jpg

Couche Rouge :

DSC04690-RAW-R.jpg

Couches Vertes :

Il est assez facile de distinguer sur les couches vertes quels sont les patchs de couleurs surexposés : vous les voyez en haut à gauche, au centre, et en bas à gauche. Ils sont tellement cramés qu'on ne les distingue plus du blanc de la charte.

Regardons d'abord le carré en haut à droite.

On voit bien que, si le carré n'est plus blanc une fois toutes les couches superposées, la couleur n'est plus la même : l'algorithme a bien essayé de compenser le manque d'information, mais cela ne peut être qu'une approximation mathématique et, on le voit bien, elle s'éloigne de la réalité.

En revanche, les deux patchs de couleur du dessous, n'étant pas cramé sur aucune des couches, gardent leur couleur correcte.

Passons ensuite à un cas encore plus extrême : ici, le violet un peu pastel se retrouve être un gris complètement désaturé. En effet, comme il y a peu de vert dans le violet, le fait d'en avoir beaucoup trop brouille complètement les pistes du logiciel. Ainsi, au lieu de recréer la bonne valeur de couleur (R : 211, V : 189, B : 196, on voit bien que le vert est bien plus faible que la couche rouge), il va considérer que c'est une couleur avec beaucoup de vert, et donner ces valeurs : R : 204, V : 205, B : 197

On voit bien que la couche de rouge et la couche de bleu n'ont quasiment pas été affectées (puisque pas cramés), mais la couche verte, elle, est bien trop haute ! Les valeurs sont très proches les unes des autres, ce qui donne cette faible saturation.

Toujours plus fort

Allons encore plus loin.

Jusque là, je faisais la comparaison entre une image bien exposée et une autre exposée 2,66 diaph au dessus. Nous allons maintenant comparer la même image avec une autre surexposée de 4 diaph !

La voici, corrigée par le logiciel, c'est a dit avec l'exposition baissée de 4 diaph.

Test ETTR - 3.2 s.jpg

Il n'y a même pas besoin de mettre les images cote à cote : ici, il manquait tellement d'information au logiciel que les trois carrés en bas à gauche (et d'autres) ont tout simplement disparus ! C'est presque un tour de magie : reflétés plus sombres par ma plaque de cuisine (que j'aurais pu mieux nettoyer pour ces tests, mon objectif macro ne pardonne rien), ils sont bien visibles, et complètement invisibles au dessus.

De même, on voit que les autres couleurs ne sont pas en reste : si toutes les couches n'ont pas été surexposées partout, on repère bien un énorme changement de couleur pour la plupart.

Conclusion : il n'y a qu'un dieu en photographie, c'est la lumière.

Oubliez toutes les promesses de computional photography et autres prophéties miracles : si les logiciels de retouches peuvent rendre énormément de service, aucune ne vous rendra les informations de votre image surexposée. Il y a beaucoup de choses rattrapables en post production (et je dirais lesquels dans de prochains articles), la surexposition n'est est malheureusement pas une.

Il est donc encore temps de revenir à mon article précédent et de bien régler votre appareil/calculer la déviation de votre cellule. Ainsi, vous serez sûr d'exposer au mieux vos images, et vous pourrez prendre les photos que vous avec en tête. N'attendez pas un nouveau saut technologique : c'est déjà possible.

Quelques liens pour aller plus loin :

https://www.fastrawviewer.com/blog/how-to-use-the-full-dynamic-range-of-your-camera

https://www.fastrawviewer.com/blog/determining-practical-dynamic-range

Comment prendre une bonne photo : l'exposition by Adrien Le Falher

Les deux fondamentaux : l’exposition, et le cadre

Une bonne photo, fondamentalement, c’est un sujet bien exposé, et bien cadré. Aujourd’hui, je ne parlerais pas du cadre, mais plutôt de l’exposition, et plus spécifiquement, comment bien exposer à droite (ou ETTR, pour Expose To The Right).

Exposer à droite ? Qu’est-ce que ça veut dire ?


Dans les différentes façons de représenter une image, il y a ce qui s’appelle un histogramme. C’est ce qu’on voit sur la droite de l’image. Il est parfois divisé en trois couleurs, comme ici, mais souvent celui-ci est une moyenne des trois couleurs. Ce graph représente la quantité de pixels pour une valeur (ou luminance donnée), de gauche à droite : plus la courbe monte haut à gauche, plus il y a de pixels sombres, et plus la courbe monte haut à droite, plus il y a de pixels clairs.

Dans l’optique de la photographie numérique, une bonne exposition ne répond qu’à un seul critère : un maximum de pixels vers la droite, sans qu’aucun ne dépasse la limite (sauf lumière spéculaire, c’est à dire le soleil ou son reflet, et encore).

Mais pourquoi ?

Parce qu’il est très simple de baisser l’exposition en post-production, avec Lightroom, Photoshop, ou CaptureOne par exemple, et ce, sans aucun inconvénient esthétique pour peux que votre image n’est pas surexposée.

Plus que celà, l’ennemi de la bonne exposition, c’est le bruit. Je parle bien de bruit ici, et pas de grain : il n’y a pas de grain dans l’image numérique, mais juste du bruit électronique, due à la fabrication même du capteur. Le bruit, en image, ce sont des dérives et approximations de couleur qui ne viennent pas direction de l’image, mais des limites du capteur. Plus votre image sera sous-exposée, plus ce bruit sera visible : en effet, si votre image est sous-exposée, vous devrez réhausser toute l’image et donc le bruit avec. Il y a des façons d’enlever le bruit (je prépare un article là-dessus), mais elles sont TOUTES imparfaites. Quand bien même, pour des raisons esthétiques, vous voulez du bruit dans votre image, vous pouvez toujours le rajouter sur une image propre. Bref, dans tous les cas, une bonne exposition sera celle avec les pixels les plus clairs possibles, pour éviter au maximum de devoir amplifier le bruit du capteur. Et pour celà, on expose à droite.

Le zebra : pour exposer à droite, même sans animaux.

Malheureusement, il n’est pas évident de savoir comment bien exposer : souvent, la mesure de l’appareil sera une moyenne sur une partie de l’image, et essayera de faire une image “balancée”, ni trop sombre, ni trop claire.

Le zebra, ce sont les rainures que l’on voit sur l’écran. Il indique les zones sur-exposées.

Mais heureusement, une aide à l’exposition est en train de se démocratiser : le zebra.

Le zebra est disponible sur tous les appareils sans miroirs (ou mirrorless) comme les Sony Alpha, les Fuji, et sur bon nombre de réflex, comme chez Canon ou Nikon.

Le zebra est le seul outil dont vous avez besoin pour faire votre exposition.

On l’a dit plus haut : une bonne exposition, c’est l’exposition la plus claire possible sans “cramer” son image. Ca tombe bien, le zebra ne sert qu’à ça : zébrer les parties cramés. Autrement dit, si vous voyez du zebra sur votre image, votre image est surexposée.

Enfin, ça , c’est la théorie…



Mais pourquoi shooter en RAW si c’est pour juger sur un JPG ?

A l’heure où j’écris ces lignes, aucun appareil photo sur le marché ne vous donne un histogramme ou un zebra qui correspond à votre image RAW. Pour des raisons de rapidité de calcul, tous se basent sur la preview JPG que vous voyez sur votre écran. Le problème ? Il y a de grande chance pour que le JPG affiché soit plus contrasté que votre fichier RAW ne le permette, et vous perdez beaucoup de dynamique à respecter les zebras ainsi affichés.

Combien ? Ca dépend des appareils et de leurs réglages, mais ça peut être beaucoup.

J’ai fait un test rapide avec mon Sony A7RIII et le merveilleux logiciel RawDigger. Avec les réglages que j’avais présentement, j’ai capturé une image à l’exposition même où le zebra commençait à apparaître sur mon écran. Voilà le résultat sur RawDigger.

L’important est entouré en rouge Pixels surexposés : 0%


J’utilise RawDigger pour analyser mon image, car ce logiciel permet de me donner des statistiques directement à partir de mon fichier RAW. Et ici, alors même que le zebra apparaît sur mon appareil photo, je ne vois que aucun de mes pixels sont surexposés.

Je continue alors à prendre des photos, en augmentant d’un cran (1/3 de diaph à chaque fois) l’exposition, jusqu’à arriver sur un fichier que RawDigger considère comme surexposé. Et enfin…

Cliquez sur l’image pour voir plus grand. Ici, on a 0,3% de pixels surex, dans les couches vertes.

Voilà, enfin, une image surexposée. Au-delà de l’écran des statistiques en haut, on voit bien la zone rouge sur l’image qui indique les pixels problématiques. Ici, on est à 0,3% de pixels surexposés, ce qu’on pourrait considérer comme une surexposition acceptable tellement elle est faible. Mais soyons rigoureux, et arrêtons nous là.

Cette exposition devrait donc être la première à afficher un zebra. Pourtant, sur mon Sony, le zebra s’est affichée pour une exposition à 1/13sec, tandis que la première exposition surexposée est à 1/4sec, soit une perte de 1 diaph 1/3 si on suit l’indication du zébra !

On voit donc que le zebra n’est pas forcément une aide fiable, et qu’il faut la calibrer.

Comment calibrer son zébra pour qu’il soit fiable ?

Maintenant que le problème est posé, voici une solution simple.

Pour que le zebra serve à quelque chose, il faut savoir quel est l’écart d’exposition entre celle où le zebra apparaît, et l’exposition qui est réellement trop haute.

Pour cela, achetez RawDigger : ce logiciel peu coûteux, comme on l’a vu plus haut, peut donner à vos images plus d’un diaph de dynamique en plus. Certaines marques vous font racheter un appareil pour de telles performances !

Ensuite, prenez une série d’image avec un point lumineux bien apparent et distinct du reste de l’image. Vous pouvez, comme je l’ai fait ici, pointer une lampe sur du papier blanc.

Prenez ensuite une suite d’expositions en ne faisant varier que la vitesse d’obturation, du plus sombre au plus clair. Notez surtout à quel exposition le zébra commence à apparaître sur votre écran, et continuez à exposer de plus en plus clair, même si l’image sur votre écran commence à devenir trop claire.

Une fois sur votre ordinateur, ouvrez d’abord avec RawDigger l’image qui correspond à l’exposition où le zebra est apparu, et regardez les statistiques données par le logiciel. Est-ce que votre image est surexposée ? Si oui, regardez l’image que vous avez prise juste avant, qui devrait être 1/3 de diaph plus sombre (ou 1/2 diaph, selon les réglages de l’appareil). Si cette image là n’est pas surexposée, félicitations, votre zebra est bien réglé. Si elle est encore surex, continuez à descendre en exposition jusqu’à trouver la première image qui n’est pas surexposée. Retenez bien l’écart d’exposition entre l’image où le zebra apparaît et l’image bien exposée : celui-ci sera constant, et vous devrez toujours compenser dans cette façon pour avoir une prise de vue correcte.

Même chose dans l’autre sens : il est probable, comme moi, que le zebra fasse un peu de zèle et considère comme cramées des zones qui ne le sont pas. Parcourez ainsi vos images avec RawDigger du plus sombre au plus clair jusqu’à trouver l’image qui commence à être surexposée. Là encore, vous savez comment compenser. Si vos paliers d’expositions sont d’1/3 de diaph, et que la première image surexposée est trois images après celle où le zebra apparaît, vous pouvez “surexposer” d’un diaph par rapport à ce que votre zebra indique !

Voilà, c’est tout ce qu’il y a à savoir, vous pouvez maintenant être sûr d’exposer vos photos correctement et d’utiliser pleinement la dynamique de votre appareil photo.

Bonus : régler le zébra sur les appareils sony.

Les appareils photos mirrorless de Sony sont clairement pensés par des ingénieurs, pour des ingénieurs. Cela donne des menus à rallonge, mais qui proposent au moins plein d’options à qui sait chercher.

Or, plutôt que de compter la compensation par rapport à ce qu’affiche votre zebra, vous pouvez régler celui-ci pour qu’il vous affiche une exposition correcte !


Le menu se trouve dans le deuxième onglet photo, sur la page 6/9. Là, vous pouvez régler un zebra personnalisé. Faites des test comme vous l’avez fait précédemment pour trouver une adéquation entre la bonne valeur de zebra pour votre style d’image et la bonne exposition. Pour moi (sRVB, mode créatif standard, pas d’effet de photo, pas de profil d’image), le bon réglage est Limite Inférieure, 107+. Vous pouvez utiliser ce réglage, mais je vous conseille grandement de faire le tests ! Il y a tellement de paramètres à prendre en compte que ça ne veut pas dire qu’il sera bon pour vous.

Et voilà mes résultats RawDigger une fois mon zébra réglé :

Ici, le zébra n’apparaît pas sur mon appareil, RawDigger me dit bien que je n’ai aucune zone cramée.

1/3 de diaph de plus, et rien ne va plus ! Le zebra s’affiche sur mon écran, et effectivement, je suis complètement cramé.

Conclusion

Voilà, c’est tout pour cette première partie sur l’exposition. Je prévois un autre article sur comment, et à quel point on peut récupérer les zones cramées, et une grand comparaison sur les logiciels anti bruit : photoshop, lightroom, DXO, CaptureOne, noise ninja, neat image, topaz Denoise AI… On verra que les meilleurs ne sont pas forcément ceux qu’on croit.

J’espère que vous avez appris des choses et qu’elles vous seront utiles, si vous avez des questions, n’hésitez pas à faire des commentaires !

Wide Angle Showdown: testing distortion on full frame cameras by Adrien Le Falher

Wide Angle Showdown

I'm writing a technical article again, sorry, we'll come back to art shortly!

One of the advantage of the Sony A7 line series is being able to use adapters, and therefore lenses from different manufacturers, on their camera. Being a Canon shooter, I regularly use the 17-40mm, which I find to be a decent lens on a 5dmkII. But how does it compare to Zeiss' 16-35mm for Sony E mount, and Voigtlander 15mm III? 

For wide angle lenses, distortion is the main issue. Therefore, this is what I wanted to test: does the Sony 16-35mm has less distortion than the older Canon 17-40mm? Does the Voigtlander 15mm has less than both? Let's find out!

For this test, I went to a camera shop that had a straight grid for a ceiling. The straight lines would then make the distortion very obvious. I then tested the cameras on Sony a7 R and Sony a7rII. 

Here are the pictures (you can download the raw files at the end of the article):

 

As you see, both the Sony 16-35 and the Canon 17-40 are pretty distorted at their widest, maybe the Canon a bit more so than the Sony. The Voigtlander, unsurprisingly, has almost no distortion, thanks to being a fixed lens made for short flange. 

The good news? Adobe Lightroom has corrected for each of these lenses, but you will lose some quality. 

You can download the raw files below, including shots at their longest, where distortion is minimal.