En photo, cinéma, Video, deux grands modes de mesures existent:
la mesure incidente
la mesure réfléchie
C’est la plus fiable, c’est elle que vous voyez utiliser par les cinéastes ou photographes de mode en extérieur.
La cellule utilisée est surmontée d’un dôme diffusant (intégrateur*)
*Le dôme diffusant permet de collecter (intégrer/additionner) la lumière venant de toutes les directions vers le sujet).
Le mode de mesure est inversé par rapport à l’usage plus courant d’une cellule classique: on amène la cellule devant le sujet, le dôme intégrateur (la partie sensible) dirigée vers l’appareil photo.
Quelque soit le type de sujet, clair sombre ou moyen, il n’influence pas la mesure. on peut donc se fier à cette mesure.
Une table (ou un calculateur et afficheur numérique comme dans les cellules modernes) reliant les “lux” mesurés (lux: unité d’éclairement) à la sensibilité du capteur utilisé permet de déterminer les paramètres d’exposition qui conviennent.
Son inconvénient c’est que l’on est obligé de prendre cette mesure a l’endroit où se trouve le sujet, donc de se déplacer à son niveau.
Ce n’est pas souvent possible et certainement pas en photo d’action ou au téléobjectif par exemple!
C’est la raison de l’utilisation de l’autre type de mesure dans nos appareils photo:
Dans ce type de mesure, la cellule, ou l’appareil photo qui la contient, est dirigée vers le sujet.
Ce que l’on mesure alors est la lumière réfléchie par le sujet, sa luminance.
Problème: selon que le sujet est clair ou sombre la quantité de lumière réfléchie ne sera pas du tout semblable et donc des mesures différentes alors que l’éclairage est le même!....laquelle est la bonne?
C’est la grande faiblesse du système! Mais devant sa plus grande commodité pratique, les constructeurs ont cherché le moyen de la rendre la plus efficace possible.
Voyons comment:
D’abord comme on ne dispose pas de la mesure d’une valeur absolue (la lumière qui éclaire le sujet) on va partir d’une constatation : une image courante est la plupart du temps à peu près équilibrée, c’est à dire composée à peu près équitablement de sujets sombres moyens et clairs. Si on “intègre” l’ensemble de ces valeurs (en “mélangeant” l’ensemble) on obtient une valeur qui se rapproche fréquemment d’un gris moyen....
Les constructeurs on donc basé la mesure réfléchie sur ce principe que l’on peut simplifier ainsi:
La cellule mesure la lumière réfléchie par l’ensemble de la scène. On obtient donc la valeur moyenne des luminosités de la scène.
Le calculateur de la cellule indique quels paramètres d’exposition utiliser (couple vitesse diaphragme) capable de produire avec cette luminosité le remplissage moyen des photosites du capteur. Ainsi on fait coïncider la luminosité moyenne de la scène et le remplissage moyen des photosites du capteur, ce qui permet d’enregistrer au mieux les valeurs extrêmes de la scène.

c’est un système pratique car on peut rester à distance du sujet. c’est commode si le sujet n’est pas accessible ou trop lointain par exemple. C’est bien adapté à l’usage d’objectif de différentes focales, on ne mesure que ce qui est pris dans le champ de cet objectif (mesure TTL = through the lens) et la mesure tient compte des éventuels filtres montés sur l’objectif.
Basé sur le principe d’une mesure moyenne sur l’ensemble de l’image et sur sa correspondance à un gris moyen, dès que la scène n’est plus équilibrée (présence majoritaire de tons sombres ou de tons clairs) la mesure est moins fiable.
Exemple: une scène de nuit sera éclaircie et une scène de neige sera assombrie car le système essaie toujours de ramener le résultat à un gris moyen.
Première amélioration: au lieu de mesurer l’ensemble de la scène la cellule devient extrêmement sélective, sa zone de mesure ne représente plus qu’une portion réduite du viseur :
La zone de mesure ne représente que 1 à 2% de la surface de visée. Dans ce cas c’est le photographe qui est maître, c’est lui qui choisit sur quel élément précis de la scène il prend sélectivement la mesure. Il doit tenir compte pour ce choix du fait que la zone choisie sera traduite par un gris moyen.
Avantage: le système n’est plus lié a une moyenne globale systématique, c’est le photographe qui choisit une zone de qui a réellement une valeur moyenne dans l’image.
Inconvénient: mesure extrêmement “piégeuse” si l’on choisit mal ...!
Solutions: les constructeurs on donc essayé d’affiner la qualité de cette mesure et d’éviter ce type de dérive en créant diverses sortes de “pondérations”.
Un exemple d'usage dans le cas d'une scène de neige: En mode manuel, on équilibre la mesure sur la neige en mode spot puis on corrige en ouvrant le diaph de 1,5 ou 2 valeurs ou en sélectionnant une vitesse 1,5 à 2 fois plus lente. Si un sujet de premier plan est proche on pourra utiliser un flash accessoire (légèrement sous exposé et en mode synchro haute vitesse) pour le déboucher, s'il est plus lointain le D-Lighting en mode auto conviendra mieux.
La mesure pondérée centrale couvre le centre du viseur. Par cette astuce on évite les pièges des ciels lumineux faussant la mesure et on favorise le sujet, situé statistiquement le plus souvent au centre.
Ce type de mesure par son efficacité statistiquement supérieure a permis de l’utiliser dans des appareils automatiques, car moins sélective que la mesure spot mais plus fiable que la mesure générale, trop facilement influencée par des zones extrêmes en luminosité ne concernant pas le sujet principal.
Mais on est toujours lié à l’étalonnage de la cellule selon une valeur moyenne, et de plus on ne prends en compte la position du sujet que s’il est au centre de la scène visée...
Inventée par Nikon, (et inaugurée dans le Nikon FA) c’est le premier système de mesure capable de déterminer le type de scène photographiée grâce à la présence plusieurs zones sensibles indépendantes bien délimitées dans le viseur.
Le principe de base simplifié était celui ci: le viseur est partagé en 5 zones de mesure, 4 plus le centre (c’était le cas à l’origine, mais davantage actuellement). Les ingénieurs ont réalisé et analysé des milliers d’images de tous types, dans toutes les conditions de cadrage et d’éclairement possibles.
Ils ont noté les types de mesure (globale, pondérée centrale) donnant les meilleurs résultats dans chaque cas ainsi que toutes les variations possibles des valeurs de pondération. (La pondération dans ce cas c’est l’influence plus ou moins importante donnée aux hautes ou au basses lumières dans la mesure).
Puis ils ont fait une synthèse de l’ensemble, avec laquelle ils ont créé une banque de données embarquée dans l’électronique de l’appareil.*
Dès lors, à chaque prise de vue, l’appareil compare les valeurs des mesures trouvées dans chacune des zones du viseur à celles des cas types stockées dans sa mémoire. Il utilise alors le type de mesure et les corrections (pondération sur les hautes lumières ou les basses lumières par exemple) du cas le plus proche trouvé.
Au final le système remplace la réflexion d'un photographe averti devant une scène donnée: quel mode de mesure choisi parmi ceux disponibles dans l'appareil (mesure moyenne, mesure pondérée centrale, et avec quelle pondération sur les hautes ou les basse lumières?).
Ce principe a bénéficié de nombreuses améliorations au fil des ans.
Le nombre de zones a été considérablement augmenté, le capteur AF actif a été pris en compte pour valider la position du sujet principal dans l’image, ce qui a permis d’affiner encore les résultats, et la puissance de calcul des processeurs embarqués est sans commune mesure avec ceux du FA!
* En fait les cas de prises de vues directes n’ont existé que pour créer ce que l’on nomme des algorithmes mathématiques (suites d’actions logiques) permettant de déterminer, grâce aux différentes mesures prises à quel type d’image on a affaire. Mais ces algorithmes ont bien été créés, à l’origine, grâce aux expériences pratiques sur des milliers d’images réelles.
En cas de photo de neige ou sur zone de sable clair à la plage, la mesure évaluative Nikon étant limitée à 16 IL1/3. Elle ne sous exposera donc pas trop. Mais une correction supplémentaire de +1IL peut être nécessaire en mode auto. Le D-Lighting auto, (ou le flash légèrement sous exposé et en mode synchro haute vitesse) pour les premiers plans proches seront aussi de bons compléments.
La mesure de lumière permet d’adapter la luminosité de la scène à la sensibilité du capteur.
La scène étant composée d’éléments de différentes luminosité et d’intérêts différents (sujet ou fond) les systèmes de mesures “intelligents” permettent de favoriser ce sujet dans le processus de mesure.
Mais le système, aussi perfectionné soit-il, se heurte à une difficulté majeure:
La dynamique de la scène et la dynamique enregistrable par le capteur
Compte tenu des ces deux paramètres on peut mieux comprendre le principe du gris moyen indiqué plus haut, utilisé par les cellules.
Le travail des cellules des appareils consiste à centrer la plage dynamique de la scène avec la plage dynamique enregistrable de l’appareil. Dans le cas ci-contre la dynamique de la scène (plage du haut) est égale à celle que peut enregistrer le capteur (plage du bas). Le système d’exposition ayant calé la moyenne des luminances de la scène sur la valeur moyenne de la plage enregistrable par le capteur, les deux plages sont centrées et les valeurs extrêmes sont équitablement enregistrées.
Dans l’exemple suivant, la dynamique de la scène est supérieure à celle que peut enregistrer le capteur. Le système de mesure ayant centré la moyenne des luminances de la scène sur la valeur moyenne de la plage enregistrable par le capteur, l’ensemble est enregistré “le mieux possible”, mais inévitablement une partie des hautes lumières et des basses lumières seront tronquées. Ce qui se traduira dans l’image par des basses lumières et des hautes lumières sans détails, uniformément noires et blanches.
NB: les constructeurs améliorent ce principe simple en favorisant les hautes lumières en ne centrant pas tout à fait les deux plages pour éviter le défaut le moins esthétique, les hautes lumières brûlées. Ce type d’exposition est complété avec les systèmes logiciels embarqués (D-Lighting) qui sont chargés d’éclaircir les basses lumières, ré-équilibrant ainsi la scène enregistrée.
il est impératif, d’exposer “à droite”, c’est à dire de caler l’histogramme à droite du graphique pour utiliser entièrement la plage dynamique du capteur, sans pour autant sur exposer les hautes lumières. On peut pour cela réaliser une image puis, en consultant son histogramme, apporter le cas échéant une correction d’exposition permettant ce résultat. Dans cette méthode il ne faut pas tenir compte des sources de lumières ou reflets divers. Il est normal que ces zones soient surexposées.
Pour ce faire, il est indispensable d’activer dans les options de visualisation de l’appareil, l’option des zones sur exposées clignotantes. Ainsi, en visionnant l'image et son histogramme, on aura une bonne appréciation de l’exposition optimale: histogramme bien à droite sans tenir compte des reflets et autres sources de lumières que l’on pourra laisser clignoter dans l’image.
Avec les derniers progrès des appareils numériques en haute sensibilité, réaliser des images en intérieur sans flash est devenu beaucoup plus facile. Mais cette facilité peut amener à des résultats curieux et perturbants car peu évidents à comprendre de prime abord.
Le plus souvent les salles de sport sont équipées d'éclairages de type décharge (fluorescents ou autres).
Le principe de fonctionnement de ces tubes ou lampes est basé sur la décharge d'un courant électrique à l'intérieur d'un gaz, entraînant son ionisation et la production de lumière. Ces décharges ne sont pas continues, mais se répètent à la fréquence du secteur (50 Hz=100 extinctions par seconde). De plus, la température de couleur de la lumière n'est pas régulière pendant la durée de chaque cycle d'allumage. Dans le cas ou on réalise des images dans une salle éclairée de cette manière, si l'on utilise une vitesse égale ou supérieure à 1/250e de seconde, on peut avoir des irrégularités fortes en luminosité et balance des blancs dans des séries d'images, car la vitesse élevée va sélectionner un instant seulement du cycle d'allumage des tubes, et donc une luminosité et température de couleur différente. Au 1/500e de seconde on peut même enregistrer l'image à un moment du cycle où il y a quasi extinction des lampes. Dans tous ces cas c'est la vitesse d'obturation élevée qui amplifie la visibilité du phénomène. Dans ces conditions bien sûr, votre appareil n'est pour rien dans ces irrégularités de couleurs et d'exposition qui sont plus particulièrement visibles en rafale.
Normalement le câblage de ces éclairages est réalisé de manière à éviter des extinctions complètes simultanées de toutes les lampes, on pourra alors remarquer simplement des modifications d'éclairage par zones. Même chose en ce qui concerne la couleur de l'éclairage et donc la balance des blancs.
Dans ces conditions, il est donc important d'utiliser une vitesse d'obturation la moins élevée possible pour limiter ces problèmes.
Sur ce graphique représentant 4 périodes du courant secteur durant chacune 1/50e de seconde, on a superposé des durées d'obturations de 1/100e de seconde en rose et 1/500e de seconde en vert.
On peut voir que les deux obturation au 1/100e de seconde, bien que placées à un moment différent de la période du secteur 220 V, englobent toujours une demi période d'allumage des lampes, à cette vitesse on aura donc une bonne régularité d'exposition et de couleur quelque soit le moment du déclenchement.
En revanche pour les trois obturations au 1/500e de seconde (en vert) on voit très bien que, selon l'instant précis du déclenchement, la prise de vue se trouvera dans une période de plein éclairage à gauche, d'éclairage moyen (à droite), ou d'éclairage nul au centre!
Donc ce n'est pas un phénomène nouveau simplement auparavant les appareils étaient trop peu performants en sensibilité pour permettre d'utiliser des vitesses d'obturation aussi élevées dans ces conditions d'éclairage...