Les photos non retouchées n'existent pas by Adrien Le Falher

Cet article fait partie de ma série Comment prendre une bonne photo.

C'est probablement la question que l'on me pose le plus, et je suis sûr que mon expérience est partagée par nombre de photographes : "Mais tes images, elles sont retouchées ?". J'ai souvent envie de répondre par une autre question : "As-tu déjà vu une image non retouchée ?".

Je peux déjà vous donner la réponse : c'est non.

Ceci n'est pas une pipe.

Je vais commencer par asseiner une vérité, que j'expliquerais ensuite : toutes les images sont retouchées. La notion de "réalité" n'existe pas pour une image. De la même façon que le tableau de Magritte n'est pas une pipe mais la représentation artificielle d'une pipe, une photographie n'est pas son sujet, mais une représentation du sujet. Ce n'est pas une vue de l'esprit : vous ne pourrez pas gravir la représentation de la montagne dans la photo, vous ne pouvez pas tourner autour. Sa représentation n'existe même pas en trois dimensions.

La photographie c'est la translation artificielle d'un sujet d'après l'intention du photographe sur un support plane, ou presque.

Ainsi par le principe même, il y a une sélection, il y a une artificialité. Le photographe choisit son angle, aplatit son sujet, et cadre, c'est à dire soustrait son sujet du contexte réel dans lequel celui-ci existe.

Mais l'on pourrait dire : "Très bien, mais quel est le rapport avec la retouche ?"

Le rapport, c'est que la photographie c'est deux choses : artificialité, et le choix.

Votre appareil prend de bonnes photos.

Autre question que les photographes entendent souvent : "Et c'est quoi ton appareil ? Ha oui, c'est un gros machin, il doit prendre de super photos ton sony."

Non... et oui.

J'en ai déjà parlé dans un article précédent, et je pense qu'il est bon d'en parler ici : comment un appareil photo capte-il la lumière ?

Concentrons-nous d'abord sur un appareil numérique. Quelque soit la marque de votre appareil (à quelques très rares exceptions près), le fonctionnement est le même : la lumière est dirigée vers un capteur, qui est construit selon ce qu'on appelle la matrice de Bayer.

Lorsque vous regardez une image sur votre écran, chaque pixel est composé d'un mélange de trois couleurs : du rouge, du vert, et du bleu. C'est ce qu'on appelle le système additif, car l'addition des trois couleurs crée du blanc.

Ainsi, lorsque vous croyez voir du jaune, vous voyez en réalité un mélange de vert et de rouge.

1200px-Synthese+.svg.png

La matrice de bayer, elle, ne capture pas trois couleurs par pixel, mais une seule.

https://upload.wikimedia.org/wikipedia/commons/thumb/3/37/Bayer_pattern_on_sensor.svg/1200px-Bayer_pattern_on_sensor.svg.png

Sur cette représentation d'un capteur, on se rend compte que le capteur capture soit du bleu, soit du rouge, soit du vert. Si on compte, on se rendra compte qu'il y a même deux fois plus de vert que les autres couleurs. Sans trop entrer dans les détails techniques, c'est parce que les humains distinguent particulièrement bien les différentes teintes de vert.

Mais si l'appareil photo ne capte qu'une couleur par pixel et qu'une image affiche trois couleurs par pixel, comment passe-t-on de l'un à l'autre ?

C'est là que la première transformation, la première "retouche" arrive. On l'appelle debayerisation lorsque l'on veut être précis, ou développement lorsque l'on est nostalgique.

La debayerisation, c'est l'application d'un algorithme, d'une équation, pour deviner les couleurs manquantes à chaque pixels, en fonction de la couleur qui est connue et des couleurs qui l'entoure.

Un exemple tout simple : vous savez que votre pixel a une valeur de bleue de 255, ou 100%. Les quatre pixels verts autour de lui ont aussi une valeur de 255, ou 100%, et les pixels rouges aussi. C'est sûrement que vous êtes dans une zone qui est toute blanche. Ainsi, peut être que tous ces pixels ont une valeur de 255 en vert, rouge et bleu.

Mais deviner est bien le mot ici : l'algorithme, aussi intelligent soit-il, ne peut faire qu'une estimation de la couleur. Et surtout, celui-ci n'est en réalité pas fixe, ni standard. Toutes les images que vous avez vu ont été débayerisées. Mais elles n'ont pas toutes été débayerisées par les mêmes machines. Votre téléphone debayerise son capteur pour vous montrer votre image. Votre appareil photo aussi. Lightroom aussi. Mais ils le font tous selon un algorithme différent. C'est un algorithme moyen, pensé pour être rendre une image plaisante (j'ai bien dit plaisante, pas réaliste) dans une majorité de cas.

Mais rappelez-vous ce que je disais plus haut :

La photographie c'est la translation artificielle d'un sujet d'après l'intention du photographe.

C'est bien l'intention qui est importante ici. En tant que photographe, vous sélectionnez sciemment votre sujet. Vous le prenez parce que la lumière est belle, vous cadrez l'essentiel. Mais quid de la couleur ?

Vous pouvez dire que vous voulez des couleurs qui se rapprochent le plus possible de la réalité, cela peut être un choix artistique de votre part. Dans ce cas là, je vous dirigerais vers mon prochain article sur comment calibrer votre chaîne pour faire une debayerisation qui vous donne les couleurs les plus proches de la réalité (spoiler : c'est super dur). Mais le jpg que vous sort votre téléphone, votre appareil photo, ou lightroom à l'import ? Nous sommes très, très loin de la réalité.

C'est kodak qui prend vos photos.

La réalité, c'est que personne ne veut réellement prendre des photos qui sont 100% fidèles à la réalité. Vous voulez prendre des photos plaisantes, et cela est extrêmement subjectif. Ca tombe bien, la photographie est un art, et la subjectivité est à la base de l'art. Ce n'est pas quelque chose dont vous devez avoir honte, votre subjectivité est votre force.

Lorsque, en haut de la montagne que vous avez gravi, vous voulez en ramener une photo, vous ne passez pas votre appareil à quelqu'un d'autre ; ne pas prendre la main sur la debayerisation, c'est finalement laisser quelqu'un prendre la photo.

Depuis l'argentique, des ingénieurs travaillent pour donner des couleurs plaisantes à vos photos. La kodachrome avait un certain rendu, différent de la Velvia. Puis il y avait le tirage de la photo sur papier, qui là encore comprenait son lot de parti prix esthétiques, souvent pris par le laborantin qui développait et tirait vos photos à votre place.

Aujourd'hui, en numérique, le laborantin, c'est vous.

Si vous prenez une photo en JPG, vous déléguez une partie de votre subjectivité à un ingénieur, qui ne vous connaît pas, ni vos intentions, ni votre photo. Vous aurez un rendu qu'il aime bien, qu'il trouve plaisant et qu'il pensait être correct quelque soit votre photo, que ça soit de vos pieds, d'une montagne au coucher du soleil, ou des étoiles au milieu du désert.

Si vous prenez une photo en Raw, que vous l'importez dans lightroom et l'exportez en JPG tel quel, vous déléguez une partie de votre subjectivité à un ingénieur, qui ne vous connaît pas, ni vos intentions, ni votre photo. Vous aurez un rendu qu'il aime bien, qu'il trouve plaisant et qu'il pensait être correct quelque soit votre photo, que ça soit de vos pieds, d'une montagne au coucher du soleil, ou des étoiles au milieu du désert.

Ce n'est pas que la photo n'est pas retouchée. Elle n'a pas été retouchée par vous.

Si vous aviez ouvert la photo dans Capture One plutôt que Lightroom, votre même fichier raw aurait eu des couleurs complètement différentes. Démonstration :

On voit pas la tendance de Lightroom à pousser les contrastes et saturer un peu plus. La peau par exemple n’a pas du tout la même couleur que sur Capture One.

On voit pas la tendance de Lightroom à pousser les contrastes et saturer un peu plus. La peau par exemple n’a pas du tout la même couleur que sur Capture One.

Si vous prenez une photo en Raw, que vous l'importez dans lightroom, et que vous modifiez les paramètres dans l'outil de développement, vous modifiez en réalité les paramètres de l'algorithme de débayerisation. Une fois la photo exportée en JPG, la photo n'a pas été plus retouchée que si vous n'aviez touché à rien. Elle aura été retouchée par vous. De la même façon que vous aurez fait un choix dans votre cadre, vous aurez fait un choix dans vos couleurs. Ca sera votre photo, et non votre photo et celle de tous les ingénieurs qui ont pris les décisions pour vous.

La subjectivité est souvent bien plus réaliste que l'objectivité.

Pour mieux démontrer mon propos, j'ai décidé de vous montrer à quoi ressemble une photo à différentes étapes, et pourquoi la modification des paramètres de debayerisation donne non seulement une image plus plaisantes et plus proches de mon intention, mais aussi finalement plus réalistes.

Pour cette photo de Sans Francisco, je voulais vraiment garder du détail dans les parties les plus claires, pour bien voir le pont éclairé au loin. Comme je l'ai expliqué dans mon article sur la surexposition en photo, j'ai donc exposé le plus clair possible tout en prenant soin de ne rien cramer.

Je vais d'abord vous montrer la photo avec une debayerisation qui ne modifierait pas du tout les couleurs.

DSC00096.jpg

Sublime n'est-ce pas ? On aime les photos sans retouche.

Rappelez-vous : la matrice de bayer contient deux fois plus de vert que de rouge ou de bleu. L'image que prend l'appareil est donc en réalité extrêmement verte, et très sombre.

Pourquoi ? Parce qu'un appareil photo capture la lumière de façon linéaire. C'est à dire qu'une lumière de valeur de 20 est deux fois plus clair qu'une lumière de valeur de 10.

Problème : nos yeux ne voient pas de manière linéaire, mais de manière logarithmique. Là encore, la debayerisation devrait prendre ça en compte.

Regardons maintenant la photo après une debayerisation "standard".

2018-09-11 - San Francisco - DSC00096.jpg

Voilà la retouche "standard" que me propose mon logiciel. Est-ce proche de la réalité ? J'étais au milieu de la rue quelques heures après le lever du soleil, je n'étais pas tout à fait dans la pénombre... Ainsi, de la même façon que j'ai, par intention, cadré ma photo pour avoir le pont dans le cadre, j'ai, par intention, modifié les paramètres de debayerisation pour s'approcher de l'image que j'avais en tête en prenant la photo.

2018-09-11 - San Francisco - DSC00096 3.jpg

C'est tout de même beaucoup mieux.

En conclusion :

Ainsi, la question à poser n'est pas "est-ce que la photo est retouchée ?" mais "Qui a retouché la photo ?". Si vous posez la question à un photographe, quelqu'un qui pense, réfléchit son image, quelqu'un qui impose sa subjectivité car c'est bien là qu'est tout le sel de la photographie, espérez qu'il vous réponde "c'est moi", plutôt que "Je ne retouche pas mes photos/un inconnu l'a fait pour moi".

En bonus, un autre couple “vrai photo” vs “ce que votre logiciel vous montre”:

Sans appel…

Comment bien prendre une photo, partie 2 : récupérer les zones cramées. by Adrien Le Falher

Cet article fait partie de ma série Comment prendre une bonne photo, et est la suite directe de cet article : COMMENT PRENDRE UNE BONNE PHOTO : L'EXPOSITION

Dans l'article précédent, on a vu comment exposer correctement, c'est à dire à ne pas cramer les hautes lumières dans le fichier raw.

Cependant, des logiciels de développement raw comme Lightroom/CameraRaw ou CaptureOne permettent de "récupérer" des informations dans les hautes lumières qui seraient cramés.

Mais si c'est le cas, pourquoi s'embêter à bien exposer ? Comment algorithme marche-t-il, et à quel point peut-il vraiment récupérer vos erreurs ? C'est ce qu'on va voir aujourd'hui.

Il y a surex, et il y a SUREX.

Revenons à l'image de l'article précédent, où j'ai pris une exposition surexposée en testant les limites du zebra réglé sur 107+.

107NotOk.jpg

On peut y voir que certaines couches sont surexposées, mais pas toutes : uniquement les couches G1 et G2.

Parlons rapidement des couches, car c'est de ça dont il va beaucoup s'agir dans cet article.

A moins que vous ayez un appareil très particulier, votre appareil utilise une matrice de bayer : c'est à dire qu'au lieu d'enregistrer les valeurs pour le rouge, le vert et le bleu pour chaque pixel (les trois couleurs primaires à partir desquelles vous voyez une image en couleur sur un écran), votre appareil n'enregistrera qu'une seule de ces couleurs par pixel, et devinera les couleurs manquantes à partir des pixels à proximité. Ainsi, le capteur est organisé ainsi : il y a deux pixels (ou plutôt photosite, mais pour simplifier on va dire ici que c'est la même chose) verts pour un pixel rouge et un pixel bleu. Pourquoi ? Parce que notre oeil est très sensible au vert, et que pour des raisons physiques c'est aussi à partir du vert qu'on va faire une mesure de luminosité. Le plus important, c'est qu'un raw a quatre couches : deux de vert, une de rouge, une de bleu.

Or, toutes ces couches n'étant pas égales (à moins de prendre un sujet parfaitement monochrome, qui dans ce cas là aurait des valeurs égales pour chaque couche), il peut arriver, comme ici, qu'une couche ou plusieurs soit "pleine" sur certains de ses pixels, mais que d'autres, non.

C'est là que les algorithmes de récupération des hautes lumières travaillent : à partir des informations non cramés, il va essayer de deviner les valeurs non cramés qui manquent. Spoiler alert : c'est pas brillant.

Pour démontrer cela, j'ai pris à nouveau ma charte de couleur en photo, plusieurs fois. Sur le côté gauche de mes exemples, vous retrouverez une photo correctement exposée de la charte. Sur le côté droit, une photo surexposée, dont l'exposition a été baissée pour essayer de récupérer les informations, et avoir une luminosité égale à la photo bien exposée. Observons tout d'abord les couches séparément.

Couche Bleue :

DSC04690-RAW-B.jpg

Couche Rouge :

DSC04690-RAW-R.jpg

Couches Vertes :

Il est assez facile de distinguer sur les couches vertes quels sont les patchs de couleurs surexposés : vous les voyez en haut à gauche, au centre, et en bas à gauche. Ils sont tellement cramés qu'on ne les distingue plus du blanc de la charte.

Regardons d'abord le carré en haut à droite.

On voit bien que, si le carré n'est plus blanc une fois toutes les couches superposées, la couleur n'est plus la même : l'algorithme a bien essayé de compenser le manque d'information, mais cela ne peut être qu'une approximation mathématique et, on le voit bien, elle s'éloigne de la réalité.

En revanche, les deux patchs de couleur du dessous, n'étant pas cramé sur aucune des couches, gardent leur couleur correcte.

Passons ensuite à un cas encore plus extrême : ici, le violet un peu pastel se retrouve être un gris complètement désaturé. En effet, comme il y a peu de vert dans le violet, le fait d'en avoir beaucoup trop brouille complètement les pistes du logiciel. Ainsi, au lieu de recréer la bonne valeur de couleur (R : 211, V : 189, B : 196, on voit bien que le vert est bien plus faible que la couche rouge), il va considérer que c'est une couleur avec beaucoup de vert, et donner ces valeurs : R : 204, V : 205, B : 197

On voit bien que la couche de rouge et la couche de bleu n'ont quasiment pas été affectées (puisque pas cramés), mais la couche verte, elle, est bien trop haute ! Les valeurs sont très proches les unes des autres, ce qui donne cette faible saturation.

Toujours plus fort

Allons encore plus loin.

Jusque là, je faisais la comparaison entre une image bien exposée et une autre exposée 2,66 diaph au dessus. Nous allons maintenant comparer la même image avec une autre surexposée de 4 diaph !

La voici, corrigée par le logiciel, c'est a dit avec l'exposition baissée de 4 diaph.

Test ETTR - 3.2 s.jpg

Il n'y a même pas besoin de mettre les images cote à cote : ici, il manquait tellement d'information au logiciel que les trois carrés en bas à gauche (et d'autres) ont tout simplement disparus ! C'est presque un tour de magie : reflétés plus sombres par ma plaque de cuisine (que j'aurais pu mieux nettoyer pour ces tests, mon objectif macro ne pardonne rien), ils sont bien visibles, et complètement invisibles au dessus.

De même, on voit que les autres couleurs ne sont pas en reste : si toutes les couches n'ont pas été surexposées partout, on repère bien un énorme changement de couleur pour la plupart.

Conclusion : il n'y a qu'un dieu en photographie, c'est la lumière.

Oubliez toutes les promesses de computional photography et autres prophéties miracles : si les logiciels de retouches peuvent rendre énormément de service, aucune ne vous rendra les informations de votre image surexposée. Il y a beaucoup de choses rattrapables en post production (et je dirais lesquels dans de prochains articles), la surexposition n'est est malheureusement pas une.

Il est donc encore temps de revenir à mon article précédent et de bien régler votre appareil/calculer la déviation de votre cellule. Ainsi, vous serez sûr d'exposer au mieux vos images, et vous pourrez prendre les photos que vous avec en tête. N'attendez pas un nouveau saut technologique : c'est déjà possible.

Quelques liens pour aller plus loin :

https://www.fastrawviewer.com/blog/how-to-use-the-full-dynamic-range-of-your-camera

https://www.fastrawviewer.com/blog/determining-practical-dynamic-range

Comment prendre une bonne photo : l'exposition by Adrien Le Falher

Les deux fondamentaux : l’exposition, et le cadre

Une bonne photo, fondamentalement, c’est un sujet bien exposé, et bien cadré. Aujourd’hui, je ne parlerais pas du cadre, mais plutôt de l’exposition, et plus spécifiquement, comment bien exposer à droite (ou ETTR, pour Expose To The Right).

Exposer à droite ? Qu’est-ce que ça veut dire ?


Dans les différentes façons de représenter une image, il y a ce qui s’appelle un histogramme. C’est ce qu’on voit sur la droite de l’image. Il est parfois divisé en trois couleurs, comme ici, mais souvent celui-ci est une moyenne des trois couleurs. Ce graph représente la quantité de pixels pour une valeur (ou luminance donnée), de gauche à droite : plus la courbe monte haut à gauche, plus il y a de pixels sombres, et plus la courbe monte haut à droite, plus il y a de pixels clairs.

Dans l’optique de la photographie numérique, une bonne exposition ne répond qu’à un seul critère : un maximum de pixels vers la droite, sans qu’aucun ne dépasse la limite (sauf lumière spéculaire, c’est à dire le soleil ou son reflet, et encore).

Mais pourquoi ?

Parce qu’il est très simple de baisser l’exposition en post-production, avec Lightroom, Photoshop, ou CaptureOne par exemple, et ce, sans aucun inconvénient esthétique pour peux que votre image n’est pas surexposée.

Plus que celà, l’ennemi de la bonne exposition, c’est le bruit. Je parle bien de bruit ici, et pas de grain : il n’y a pas de grain dans l’image numérique, mais juste du bruit électronique, due à la fabrication même du capteur. Le bruit, en image, ce sont des dérives et approximations de couleur qui ne viennent pas direction de l’image, mais des limites du capteur. Plus votre image sera sous-exposée, plus ce bruit sera visible : en effet, si votre image est sous-exposée, vous devrez réhausser toute l’image et donc le bruit avec. Il y a des façons d’enlever le bruit (je prépare un article là-dessus), mais elles sont TOUTES imparfaites. Quand bien même, pour des raisons esthétiques, vous voulez du bruit dans votre image, vous pouvez toujours le rajouter sur une image propre. Bref, dans tous les cas, une bonne exposition sera celle avec les pixels les plus clairs possibles, pour éviter au maximum de devoir amplifier le bruit du capteur. Et pour celà, on expose à droite.

Le zebra : pour exposer à droite, même sans animaux.

Malheureusement, il n’est pas évident de savoir comment bien exposer : souvent, la mesure de l’appareil sera une moyenne sur une partie de l’image, et essayera de faire une image “balancée”, ni trop sombre, ni trop claire.

Le zebra, ce sont les rainures que l’on voit sur l’écran. Il indique les zones sur-exposées.

Mais heureusement, une aide à l’exposition est en train de se démocratiser : le zebra.

Le zebra est disponible sur tous les appareils sans miroirs (ou mirrorless) comme les Sony Alpha, les Fuji, et sur bon nombre de réflex, comme chez Canon ou Nikon.

Le zebra est le seul outil dont vous avez besoin pour faire votre exposition.

On l’a dit plus haut : une bonne exposition, c’est l’exposition la plus claire possible sans “cramer” son image. Ca tombe bien, le zebra ne sert qu’à ça : zébrer les parties cramés. Autrement dit, si vous voyez du zebra sur votre image, votre image est surexposée.

Enfin, ça , c’est la théorie…



Mais pourquoi shooter en RAW si c’est pour juger sur un JPG ?

A l’heure où j’écris ces lignes, aucun appareil photo sur le marché ne vous donne un histogramme ou un zebra qui correspond à votre image RAW. Pour des raisons de rapidité de calcul, tous se basent sur la preview JPG que vous voyez sur votre écran. Le problème ? Il y a de grande chance pour que le JPG affiché soit plus contrasté que votre fichier RAW ne le permette, et vous perdez beaucoup de dynamique à respecter les zebras ainsi affichés.

Combien ? Ca dépend des appareils et de leurs réglages, mais ça peut être beaucoup.

J’ai fait un test rapide avec mon Sony A7RIII et le merveilleux logiciel RawDigger. Avec les réglages que j’avais présentement, j’ai capturé une image à l’exposition même où le zebra commençait à apparaître sur mon écran. Voilà le résultat sur RawDigger.

L’important est entouré en rouge Pixels surexposés : 0%


J’utilise RawDigger pour analyser mon image, car ce logiciel permet de me donner des statistiques directement à partir de mon fichier RAW. Et ici, alors même que le zebra apparaît sur mon appareil photo, je ne vois que aucun de mes pixels sont surexposés.

Je continue alors à prendre des photos, en augmentant d’un cran (1/3 de diaph à chaque fois) l’exposition, jusqu’à arriver sur un fichier que RawDigger considère comme surexposé. Et enfin…

Cliquez sur l’image pour voir plus grand. Ici, on a 0,3% de pixels surex, dans les couches vertes.

Voilà, enfin, une image surexposée. Au-delà de l’écran des statistiques en haut, on voit bien la zone rouge sur l’image qui indique les pixels problématiques. Ici, on est à 0,3% de pixels surexposés, ce qu’on pourrait considérer comme une surexposition acceptable tellement elle est faible. Mais soyons rigoureux, et arrêtons nous là.

Cette exposition devrait donc être la première à afficher un zebra. Pourtant, sur mon Sony, le zebra s’est affichée pour une exposition à 1/13sec, tandis que la première exposition surexposée est à 1/4sec, soit une perte de 1 diaph 1/3 si on suit l’indication du zébra !

On voit donc que le zebra n’est pas forcément une aide fiable, et qu’il faut la calibrer.

Comment calibrer son zébra pour qu’il soit fiable ?

Maintenant que le problème est posé, voici une solution simple.

Pour que le zebra serve à quelque chose, il faut savoir quel est l’écart d’exposition entre celle où le zebra apparaît, et l’exposition qui est réellement trop haute.

Pour cela, achetez RawDigger : ce logiciel peu coûteux, comme on l’a vu plus haut, peut donner à vos images plus d’un diaph de dynamique en plus. Certaines marques vous font racheter un appareil pour de telles performances !

Ensuite, prenez une série d’image avec un point lumineux bien apparent et distinct du reste de l’image. Vous pouvez, comme je l’ai fait ici, pointer une lampe sur du papier blanc.

Prenez ensuite une suite d’expositions en ne faisant varier que la vitesse d’obturation, du plus sombre au plus clair. Notez surtout à quel exposition le zébra commence à apparaître sur votre écran, et continuez à exposer de plus en plus clair, même si l’image sur votre écran commence à devenir trop claire.

Une fois sur votre ordinateur, ouvrez d’abord avec RawDigger l’image qui correspond à l’exposition où le zebra est apparu, et regardez les statistiques données par le logiciel. Est-ce que votre image est surexposée ? Si oui, regardez l’image que vous avez prise juste avant, qui devrait être 1/3 de diaph plus sombre (ou 1/2 diaph, selon les réglages de l’appareil). Si cette image là n’est pas surexposée, félicitations, votre zebra est bien réglé. Si elle est encore surex, continuez à descendre en exposition jusqu’à trouver la première image qui n’est pas surexposée. Retenez bien l’écart d’exposition entre l’image où le zebra apparaît et l’image bien exposée : celui-ci sera constant, et vous devrez toujours compenser dans cette façon pour avoir une prise de vue correcte.

Même chose dans l’autre sens : il est probable, comme moi, que le zebra fasse un peu de zèle et considère comme cramées des zones qui ne le sont pas. Parcourez ainsi vos images avec RawDigger du plus sombre au plus clair jusqu’à trouver l’image qui commence à être surexposée. Là encore, vous savez comment compenser. Si vos paliers d’expositions sont d’1/3 de diaph, et que la première image surexposée est trois images après celle où le zebra apparaît, vous pouvez “surexposer” d’un diaph par rapport à ce que votre zebra indique !

Voilà, c’est tout ce qu’il y a à savoir, vous pouvez maintenant être sûr d’exposer vos photos correctement et d’utiliser pleinement la dynamique de votre appareil photo.

Bonus : régler le zébra sur les appareils sony.

Les appareils photos mirrorless de Sony sont clairement pensés par des ingénieurs, pour des ingénieurs. Cela donne des menus à rallonge, mais qui proposent au moins plein d’options à qui sait chercher.

Or, plutôt que de compter la compensation par rapport à ce qu’affiche votre zebra, vous pouvez régler celui-ci pour qu’il vous affiche une exposition correcte !


Le menu se trouve dans le deuxième onglet photo, sur la page 6/9. Là, vous pouvez régler un zebra personnalisé. Faites des test comme vous l’avez fait précédemment pour trouver une adéquation entre la bonne valeur de zebra pour votre style d’image et la bonne exposition. Pour moi (sRVB, mode créatif standard, pas d’effet de photo, pas de profil d’image), le bon réglage est Limite Inférieure, 107+. Vous pouvez utiliser ce réglage, mais je vous conseille grandement de faire le tests ! Il y a tellement de paramètres à prendre en compte que ça ne veut pas dire qu’il sera bon pour vous.

Et voilà mes résultats RawDigger une fois mon zébra réglé :

Ici, le zébra n’apparaît pas sur mon appareil, RawDigger me dit bien que je n’ai aucune zone cramée.

1/3 de diaph de plus, et rien ne va plus ! Le zebra s’affiche sur mon écran, et effectivement, je suis complètement cramé.

Conclusion

Voilà, c’est tout pour cette première partie sur l’exposition. Je prévois un autre article sur comment, et à quel point on peut récupérer les zones cramées, et une grand comparaison sur les logiciels anti bruit : photoshop, lightroom, DXO, CaptureOne, noise ninja, neat image, topaz Denoise AI… On verra que les meilleurs ne sont pas forcément ceux qu’on croit.

J’espère que vous avez appris des choses et qu’elles vous seront utiles, si vous avez des questions, n’hésitez pas à faire des commentaires !

VOUS ETES ICI : LE LUBERON by Adrien Le Falher

Luberon.jpg

Aucun projet ne s'arrête chez moi ; ils sont, au pire, en hibernation. C'était le cas de mon podcast "Vous êtes ici", qui depuis 2016 vous fait voyager grâce aux ambiances sonores prises autour du monde.

Pour ce 13ème épisode, je vous propose un ambiance très relaxante, qui sent l'été et les champs de la lavande. Imaginez : allongé sur un transat, à regarder les étoiles pendant que la piscine clapote à côté de vous. Une petite brise vous caresse le visage. A ce moment précis, tout est parfait.

Voici la bande son de cet instant.

Nouveau livre photo : 24 heures à l'Ouest de Denver ! by Adrien Le Falher

Après 3 mois de voyages en van dans l’Ouest des Etats-Unis, je suis heureux de vous présenter le fruit de mon travail, le livre 24 heures à l’Ouest de Denver !

S’il est quelque chose de marquant dans l’Ouest Américain, c’est bien sa diversité : les paysages immenses se succèdent mais ne se ressemblent pas, et je voulais créer une série cohérente qui reflétait cette diversité. Je voulais montrer les grands espaces et les petits détails merveilleux.

C’est ainsi que m’est venu l’idée de la série, et du livre : montrer, par une série de diptyques, la variété des Etats-Unis, en faisant cohabiter deux lieux différents pris à la même heure. Plus que juste extraire une image d’un paysage, le relier à un autre et créer une alchimie qui dit plus, je l’espère, que les deux photos seules.

J’ai déjà sorti plusieurs livres d’art et des magazines, mais jusque là la diffusion n’était que numérique. Mais je suis trop attaché au papier, à la dimension supplémentaire qu’il apporte à la photographie. Pour écrire avec de la lumière, il faut bien un support.

C’est pourquoi je lance une campagne de précommande qui permettra au livre de sortir : l’économie du livre d’art aujourd’hui nécessite un support initial pour lancer les machines. En un mot, je ne pourrais pas sortir le livre sans vous.

Ce livre est le fruit d’un travail de 6 mois, dont je suis très fier. La préparation du voyage, des photos, se lever tous les jours avant le soleil pour espérer en tirer de belles images, tout le travail de sélection parmi les 50.000 images, et tout le travail avec l’imprimeur… Tout se retrouve ici, sur cette centaine de pages de papier. J’espère qu’il vous plaira.

Cliquez sur la photo pour précommander le livre, et acheter des tirages exclusifs.

Cliquez sur la photo pour précommander le livre, et acheter des tirages exclusifs.

Storytelling et pluridisciplinarité by Adrien Le Falher

Image créée par une des IA artistiques que j’ai écrite en 2018.

Image créée par une des IA artistiques que j’ai écrite en 2018.

Depuis quelques années, un anglicisme est bien à la mode : le "storytelling". On l'entend dans la bouche des politiciens et leur spin-doctors, car se faire aimer c'est raconter une histoire, mais on l'entend aussi de manière plus pernicieuse dans la façon dont les gens se présentent. Chaque personne doit être le personnage de sa propre histoire, et pire, chaque oeuvre d'art se doit d'en raconter une.

D'un point de vue personnel, je remarque ça dans le monde de la photo, où de plus en plus de photographes se définissent comme "storytellers", où chaque photo se doit "de raconter une histoire".

Le problème dans tout cela, c'est qu'une histoire est forcément incomplète. Une histoire

simplifie. Une bonne histoire (puisque c'est de cela qu'on parle dans le storytelling, d'une

histoire efficace) va droit au but, se libère de ce qui n'est pas nécessaire au récit.

Nous sommes aujourd'hui, artistes, travailleurs freelance, dans la recherche de la création d'une certaine communauté, d'un groupe de gens qui nous "suivent", car c'est au final d'eux dont on dépend professionnellement : c'est notre réseau propre, celui qui nous amène crédibilité par les chiffres qu'ils nous offrent (like, followers) et possibilités professionnelles (offre d'emplois, collaboration, etc...). Chaque personne devient à la fois son propre réseau et maillon de pleins d'autres.

Revenons au storytelling : c'est un bon outil pour créer son réseau. On crée un avatar de soi, simple à comprendre, avec un style, une ligne éditoriale même. Je suis sur Instagram un photographe qui ne fait que des photos au drone de gens seuls sur une plage. JR ne fait que des grands portraits en noir et blanc, etc. Tout cela pousse à "trouver son style", à chercher en son soi intérieur LA CHOSE qui nous rend unique, singulier... et qui deviendrait donc la raison qui pousserait les gens à nous suivre.

A ce modèle je voudrais en proposer un autre : la pluridisciplinarité. L'anti-style, mais au contraire la curiosité infinie, la recherche non pas du soi profond mais des multiplicités du monde. Une ouverture bienveillante à l'apprentissage du Tout. Alors que je listais publiquement une partie de mes projets de 2018, des amis se sont étonnés de mon côté couteau-suisse, comme si j'étais miraculeusement affublé de multiples talents. Sans fausse modestie, il n'en est rien. Je refuse, en revanche, de plier ma vie au storytelling. D'ailleurs, il est déjà trop tard, voici un aperçu de mes dix dernières années :

18 ans: étudiant en droit anglais et français à Paris

19 ans : scénariste de série aux Philippines

20 ans : étudiant en droit anglais et français, fiancé à une Philippine, membre forcé d'une secte biblique très stricte

21 ans : étudiant en cinéma à Paris, toujours fiancé, toujours dans une secte

22 ans : étudiant en cinéma à Paris, célibataire et plus dans une secte

24 ans : étudiant en cinéma à Paris, plus célibataire

25 ans : étudiant en cinéma à New York

26 ans : assistant d'une geisha à Tokyo, homme de ménage à Kyoto, motion designer en Birmanie...

27 ans : motion designer en France

28 ans : photographe aux Etats-Unis.

Même simplifiée à l'extrême, ma vie ne semble pas avoir grand sens ; elle me paraît cependant comme une grande ligne droite. Cette ligne, c'est la pluridisciplinarité, une de mes valeurs les plus chères, et surtout une solution toute trouvée au manque d'inspiration qui vient forcément avec la production artistique.

Le cerveau ne peut produire constamment, et je ne me vois pas écrire des scénarios 8 heures par jour. Pendant longtemps, j'ai écrit et joué de la musique. Ces deux compétences étaient assez différentes pour ne pas s'assécher en même temps. Puis j'y ai rajouté la création visuelle, pour pouvoir encore plus jongler en cas de page/partition blanche. Puis la cuisine, puis le code...

Chaque moment de pause, d'épuisement artistique n'est pas une malédiction, mais une opportunité pour apprendre autre chose, grandir autrement. Mieux encore, on se rend compte rapidement que l'esprit humain n'est pas si cloisonné, mais qu'au contraire toutes ces passions, ces compétences, se mélangent et se nourrissent entre elles.

Tout cela, en revanche, crée un avatar brouillon, illisible, une ligne éditoriale trop large. Les modes sont cycliques, et en 2019, j'espère que l'on commencera à apprécier la complexité du monde pour les possibilités qu'elle offre plutôt que comme un phénomène à démêler.

D'ici là, je vous enjoins tous à essayer une nouvelle discipline lors de vos moments de creux, une nouvelle compétence à apprendre, ne serait-ce que pour la satisfaction de vous endormir un peu plus savant que vous vous êtes réveillé.

Trône de Sang - Episode 6, dernier épisode ! by Adrien Le Falher

trone de Sang - Logo 1 1400px.jpg

Tout s'emballe dans cet épisode ! La paix espérée n'est peut-être pas aussi simple qu'il n'y paraît, mais nos héros ont plus d'un tour dans leur sac ! Quelques grosses révélations encore, et des retournements de situations. On dira bonjour à de nouveaux amis, et au revoir à des personnages qui nous sont chers, pour finir sur une fin en apothéose. Merci à tous d'avoir suivi cette aventure, et à bientôt pour la prochaine !

Trône de Sang - Episode 5 by Adrien Le Falher

On commence à voir le bout ! Nos héros avancent dans leurs aventures et un grand palier est franchis. Mais la diplomatie n'est pas chose simple, surtout lorsque chaque camp garde pour lui ce qu'il sait. 
Beaucoup d'émotions à nouveau dans cet épisode, à la fois le plus tragique et le plus beau. C'est le début d'un nouveau monde et la fin d'un autre. Amusez-vous bien !

Audio Block
Double-click here to upload or link to a .mp3. Learn more