Eine dumme Frage zum Verhältnis des Helligkeitsabfalls in der Realität und der EBV 157

14.11.2011
Original von VigarLunaris
Lesen verstehen - alle Diskussionen beendet :
http://www.luminous-landscape.com/tutorials/understanding-series/understanding-histograms.shtml
Da findest du sämtliche Antworten.


Das glaube ich nicht so ganz....denn auch dort im Artikel fehlt die Gammakorrektur. Und genau darum scheint es im Grunde genommen bei dieser Frage zu gehen
[gone] User_6449
14.11.2011
Original von Pixelspalter
Wahrscheinlich denke ich sowieso total falsch, weil Die Helligkeit des Ausgabemediums ja auch vom Kontrastumfang abhängt.....

So ist es ...

Programme wie z.B. "Silver Efex" gehen als darstellbaren Kontrastumfang vom
Zonensystem aus. Aso die üblichen 11 Lichtwerte, welche dann grob geteilt in
Schritten zu 25 von RGB 000 bis RGB 255 dargestellt werden:

Zone 00 = RBG Mittelwert 000 (Maximalschwarz)
Zone 01 = RBG Mittelwert 025
Zone 02 = RBG Mittelwert 050
Zone 03 = RBG Mittelwert 075
Zone 04 = RBG Mittelwert 100
Zone 05 = RBG Mittelwert 125 / 128 (18% Neutralgrau / Zone V)
Zone 06 = RBG Mittelwert 150
Zone 07 = RBG Mittelwert 175
Zone 08 = RBG Mittelwert 200
Zone 09 = RBG Mittelwert 225
Zone 10 = RBG Mittelwert 250 / 255 (Papierweiß)


Viele Grüße
Peter
[gone] VigarLunaris
14.11.2011
Nocheinmal lesen - - verstehen -- und all deine Fragen sind geklärt.

Bild auf einem digitalen Medium = eine Ansammlungen von Nullen und Einsen. Diese sind in verschiedenen Gruppen zusammengefasst.

Einmal Histogram Farbe ( RGB oder CYMK )
Einmal Histogram Helligkeit ( Luminance Kanal )
Einmal Histogram Contrast und Tiefenwert ( ein "semi" tiefen Kanal ).
Einmal ein Informations Kanal.

Alle Kanäle zusammen = Coloration + Farbe + Contrast + Tiefenwirkung
Das ganze wird dann in de Sprache der Fotoapparatebauer wie folgt benannt :
- Diskretisierung (Zerlegung in Bildpunkte) = die Nullen und Einsen
- Quantisierung (Umwandlung der Farbinformation in einen digitalen Wert) = die Histogramme


Alle Nullen und Einsen werden entweder DRUNTER oder DRÜBER gelegt = vollständiges Bild.

Das macht jede Kamera - egal welche - die digital Arbeitet. Analoge machen das einen hauch anders, aber das zugrendeliegende Prinzip ist fast das identische, abgesehen davon das Film da ein wörtchen Mitzureden hat, welches heutzutage der Chip direkt erledigt.

Ich könnte dir nun kiloweise Formeln um die Ohren hauen, aber kurz gesagt besteht ein Bild immer aus diesen Kanälen. Das ganze in seiner ganzen breite zu zerlegen ist too much. Der vorher genannte Beitrag erläutert die wichtigen Punkte dazu. Ich habe oftmals bei div. Bearbeitungen BEWUSST das Licht rausgenommen, es muss bei der Bearbeitung nicht abhanden kommen, wenn man das Prinzip hinter Luminance Kanälen und Co. verstanden hat.

Das ganzen bezieht sich nun auf die Diskussion rund um RGB nicht auf einer der anderen Farbsysteme.

[img=http://img151.imagevenue.com/loc445/th_288834360_Untitled_1_122_445lo.jpg]

Der Screenshot ist im übrigen echt. Die Kanäle werden in diesem Module zurückzerlegt in eine CCD oder CMOSE Information. Die Kanälen sind dann wieder getrennt bearbeitbar und somit Diskritierung und Quantisierung wieder auflösbar ( wenn RAW vorliegt ).

Danach kann wieder der Kanal einzeln und jeder Belichtungspunkt einzeln gesteuert werden. Daher 0/0 = Hell/ 100/100 = Dunkel. Oder um es einfach auszudrücken ( weil RGB mit 255/255/255 eine andere Codierung = Hell und 0/0/0 = Dunkel ). Dazwischen liegen Grauwerte und in den Grauwerten entweder eine Links oder Rechtsverschiebung in den Farberäumen ( wenn es ein Colorbild ist )
14.11.2011
@VigarLunaris, viele Worte aber ich muss gestehen den Zusammenhang mit der Frage des TO nicht völlig zu erkennen ;-)

Angenommen wir nehmen ein Foto mit Blende 8 auf und erhalten einen Pixel mit 200,200,200 (RGB).
Nun machen wir das gleiche Foto unter gleichen Bedingungen mit Blende 11.

Einen "linearen RAW" Konverter vorausgesetzt, welchen Wert hat der Pixel nun?

So zumindest habe ich die Frage des TO verstanden.
Welchen Wert muss der Pixel Deiner Meinung nach denn nun haben?
[gone] User_6449
14.11.2011
Original von Pixelspalter
Nehmen wir an, ich fotografiere ein weißes Blatt Papier so, daß ich genau das Reinweiß anschramme (sprich RGB 255,255,255). Jetzt mache ich eine Blendenstufe weiter zu. Kommt dann 50% Grau raus? (RGB 128,128,128)

Nein ...

Denn wie ich etwas weiter oben beschrieben habe, gilt die Einteilung für
Tonwerte mit jeweils einem vollen Lichtwert Unterschied:

Zone 10 = komplett weißes Fotopapier
Zone 09 = Weiß ohne Zeichnung
Zone 08 = Weiß mit leichter Zeichnung
Zone 07 = Weiß mit sehr guter Zeichnung
Zone 06 = Hellgrau
Zone 05 = Neutralgrau (18% Graukarte)

Wenn Dein Blatt Papier zum Beispiel bei Blende 2,8 noch mit Struktur auf
dem Bild erkennbar ist, wäre das also Zone 08 und Du müßtes auf Blende
8 gehen, damit das Blatt Papier dann auf dem Bild Neutralgrau erscheint.

Also von Blende 2,8 über 4 und 5,6 auf Blende 8, immer in vollen Licht-
werten gemessen.


Viele Grüße
Peter
[gone] Volker S.
14.11.2011
@Peter: hatte ich das da nicht schon vermutet? Oder mich nur unverständlich ausgedrückt :-)


Original von Don Photo
Genau. Der Sensor selbst hat natürlich auch eine Kennlinie. Trotzdem bleibe ich mal bei meiner Theorie: Wenn die Dynamik des Sensors (ähnlich wie beim Farbfilm) von Weiss zu Schwarz 9 Blenden beträgt (Blende 2 = weiss, Blende 64 = Schwarz), dann müsste halbe Helligkeit bei Blende 8 erreicht sein. Also nach 4x Abblenden.
[gone] User_6449
14.11.2011
Original von Don Photo
@Peter: hatte ich das da nicht schon vermutet? Oder mich nur unverständlich ausgedrückt :-)

[quote]Original von Don Photo
Genau. Der Sensor selbst hat natürlich auch eine Kennlinie. Trotzdem bleibe ich mal bei meiner Theorie: Wenn die Dynamik des Sensors (ähnlich wie beim Farbfilm) von Weiss zu Schwarz 9 Blenden beträgt (Blende 2 = weiss, Blende 64 = Schwarz), dann müsste halbe Helligkeit bei Blende 8 erreicht sein. Also nach 4x Abblenden.
[/quote]
Läuft natürlich genau auf das selbe hinaus, aber ich bin ja ein echter Fan
des "Zonensystems" und rechne gern alles gleich mal in Zonen um ... ;-)

Viele Grüße
Peter
14.11.2011
ich habe nur die erste Seite gelesen. Wenn deine Kamera zwei Blenden Dynamik-Umfang hätte, käme das "mittlere" Grau raus. Wenn sie nur eine Blende hätte, wäre schwarz das Ergebnis.

Die Frage ist also nur zu beantworten, wenn Du den Dynamik-Umfang deiner Kamera kennst.

Einfach, oder?

Jungs, versteht mal die Digital-Technik.

LG Rüdiger
[gone] Volker S.
14.11.2011
Du hast sowas von Recht! Hat aber mit Digital nüx zu tun...war beim Film auch schon so :-)


Original von Images at Twilight | neue Aufnahmebetreiche
ich habe nur die erste Seite gelesen. Wenn deine Kamera zwei Blenden Dynamik-Umfang hätte, käme das "mittlere" Grau raus. Wenn sie nur eine Blende hätte, wäre schwarz das Ergebnis.

Die Frage ist also nur zu beantworten, wenn Du den Dynamik-Umfang deiner Kamera kennst.

Einfach, oder?

Jungs, versteht mal die Digital-Technik.

LG Rüdiger
14.11.2011
ja stimmt, aber er wollte ja den RBG-Wert ;-)
[gone] User_6449
14.11.2011
Original von Images at Twilight | neue Aufnahmebetreiche
ich habe nur die erste Seite gelesen. Wenn deine Kamera zwei Blenden Dynamik-Umfang hätte, käme das "mittlere" Grau raus. Wenn sie nur eine Blende hätte, wäre schwarz das Ergebnis.

Das ist Unsinn, denn selbst bei nur einem Lichtwert Konrastumfang
wäre eine Halbierung der Blende nicht Schwarz, sondern die Mitte.

Die Korrekte Rechnung bei nur einem Lichtwert Konrastumfang ist
also:

1 Lichtwert - 1 Lichtwert = 0 Lichtwert = Schwarz


Original von Images at Twilight | neue Aufnahmebetreiche
Jungs, versteht mal die Digital-Technik.

Erwarte nicht von anderen, was Du selbst nicht verstehst ...

Viele Grüße
Peter
14.11.2011
sorry, ich weiß nicht, was "Lichtwert" ist.
[gone] VigarLunaris
14.11.2011
Original von Photowizard
@VigarLunaris, viele Worte aber ich muss gestehen den Zusammenhang mit der Frage des TO nicht völlig zu erkennen ;-)

Angenommen wir nehmen ein Foto mit Blende 8 auf und erhalten einen Pixel mit 200,200,200 (RGB).
Nun machen wir das gleiche Foto unter gleichen Bedingungen mit Blende 11.

Einen "linearen RAW" Konverter vorausgesetzt, welchen Wert hat der Pixel nun?

So zumindest habe ich die Frage des TO verstanden.
Welchen Wert muss der Pixel Deiner Meinung nach denn nun haben?


Omg - ist es denn so schwer zu verstehen :

Es gibt keinen Pixel mit 200,200,200 RGB.

Da es 200,200,200 NUR und außnahmslos in der Darstellung deines Rechners gibt.

Wir bewegen uns nun durch Jahrzehnte der Grafikdatei / Konvertierung und Darstellungslogik. Das ist wirklich ein komplexes Thema, was eigentlich für eine Forendiskussion bei weitem den Rahmen sprengt.

Blende beeinflusst nun einmal mehr als "nur" Licht. Es ist eben auch eine Focusierung.

Auch wenn der Punkt "unscharf" ist - kann er dennoch 200 Entsprechen also C:25%Y:17%:M:17%:K:1 oder eben H:0 S:0 B:78% oder eben L:81 a:0 b:0

Alle oben genannten Zahlen stellen 200,200,200 dar. Du kannst auch das Websystem nehmen und c8c8c8 dazu sagen. Du erhältst also einen Grauton. Das ist eben das was Rüdiger bennant hat also "Dynamik-Umfang"

Allerdings ist der Begriff Blende dort wieder zu einfach und vereinfacht angewendet worden.

Ich sagte ja schon vorher das wir uns nun Formel um Formel an den Kopf werfen könnten. Bei Blende werden wir dann irgendwann auf Besselfunktion stossen. Dabei findet man gerade bei Wikipedia eine wunderschöne und Belichtungsreihe.

http://de.wikipedia.org/wiki/Optimale_Blende

Neben der Schärfe fällt vorallem eines auf : Die Farben bleiben FAST! gleich. Fast deshalb weil durch das mehr an Licht, bei geöffneter Blende, einfach der Wert vom Licht zunimmt der auf den Chip fällt und somit in Helligkeit umgesetzt werden kann.

Frecherweise habe ich daher einmal eines der Bilder von Wiki genommen um daran Blende 8 und Blende 11 zu simulieren.

Das erste Bild zeigt dir Blende 11 und somit das was der "Chip" wahrnehmen würde um seinen Abstand zum Objekt / Focus und Licht zu bestimmen :

[img=http://img120.imagevenue.com/loc371/th_302022930_Untitled_3_122_371lo.jpg]


Der nächste nun eine Blende 8:

[img=http://img256.imagevenue.com/loc34/th_302219362_Untitled_4_122_34lo.jpg]


Dir wird auffallen das im Bild 2 mit Blende 11 GERINGSTFÜGIG mehr Anteile an hellen Stellen zu sehen sind. Ein Resultat davon das nun mehr Licht auf das Objekt übertragen wird und das Bild dadruc Heller werden würde. Das liegt bei diesem Beispiel im übrigen darin begründet das dies ein rein Formelbasierendes Konstrukt ist. Also mit einem 100% Sensor mit einer 100% neutralen Beleuchtung mit 100% gleichen Vorraussetzungen. Ein Zustand der in der Realität kaum zu erreichen ist.

Die reine fotografische Theorie wird halt hier betrachtet : http://www.fotolehrgang.de/3_4.htm

Auffallen wird immer wieder dass, egal welche Erklärungen man so durchschaut, der Begriff FARBE nicht auftauchen wird. Aber immer Begrifflichkeiten wie Schärfe und Lichtmenge/Stärke.

Daher spielen ja in der digitalen Fotografie dann wiederum Begriffe wie Zonenmessung / Focusfeld usw. eine wichtige Rolle, damit später wiederrum Formeln ihre Arbeit am Bild verrichten können.

Kurz gesagt ist Camera vernüftig und Objektiv ebenso, spielt Blend 8 / 11 nur dann eine Rolle bei "Grau" wenn der Fotograf die Kamera nicht richtig eingestellt hat. Sollte er es getan haben, bleibt 200,200,200 = 200,200,200 egal bei welcher Blende.

Der mystifizismus der um den Begriff Blende gemacht wird ist leider immer fehl am Platze.

Eine einfach Erklärung findet sich dann hier : http://kunst.gymszbad.de/fotografie/technik/blende/blende.htm das erklärt es wunderbar.

Und so kann man es auch als einfacher Mensch nachvollziehen. Denn kommst du aus einem vollkommen dunklen Raum in helles Licht - nimmst du erstmal keine Farben mehr wahr, bis das Auge die Lichtstärke soweit reduziert hat, das deine Sehrnerven wieder Hell, Dunkel und Farbe auseinander halten können. Nicht anders geht es einer Kamera.

Um nun zu deinem Beispiel von RGB 200 zu kommen :

Blende 8 = 200 Lichtmenge Effektiv am wirken : 64%
Blende 11 = 64 Lichtmenge Effektiv am wirken : 32%

Daher Blende 8 = dargestelltes Grau / Blende 11 = dargestelltes Schwarz. Das passiert dann aber, wie schon vorher gesagt, nur dann wenn der Fotograf das nicht versteht ODER die Kamera eben nur eine Blende hat.

Diesen Effekt korrigieren die Kameras dann durch die ZEIT ... indem sie einfach "länger" Licht auf den Chip fallen lassen um am Ende 100% Lichtausbeute zu erreichen oder Objektvibauer indem Sie das Objektiv im Durchmesser und somit in der Lichtmenge vergrössern.

Ich sagte ja schon in der Einleitung das Thema ist eigentlich viel zu viel für ein Forum, da es masse an Theorie vorraussetzt und ein wenig Mathe dazugehört. Ergo kann nur deine Kamera den echt "Aufnahmezeitpunkt" dokumentieren. Ein grund warum ich mir so gerne PNG Dateien zusenden lasse.Weil dies ein guter Mittelschritt zwischen Tiff und RAW darstellt und bei der Speicherung ( vorzugweise direkt aus der Cam ) eine Menge Arbeit bei Farbechtheit und Belichtung abnimmt.

Womit wir dann wieder beim Anfang wären : Im Prinzip ist es völlig egal was deine Camera aufnimmt - solange es so brauchbar ist das man alle Kontraste und Bildinformationen inkl. der Farben wiederherstellen kann. Denn bei der letzendlichen "Entwicklung" im Raw import begehen die meisten den Fehler das Sie direkt im importer eine Korrektur versuchen und das schlägt fast immer fehl ;)
[gone] VigarLunaris
14.11.2011
Original von Images at Twilight | neue Aufnahmebetreiche
sorry, ich weiß nicht, was "Lichtwert" ist.


Blendzeit im Quadrart / Belichtungszeit = Lichtwert.

Oder um es einfach zu sagen F8 + Zeit 2 S = Lichtwert 5
[gone] User_6449
14.11.2011
Original von Images at Twilight | neue Aufnahmebetreiche
sorry, ich weiß nicht, was "Lichtwert" ist.

Ein Lichtwert ist die Kombination aus Blende und Belichtungszeit,
bei einem entsprechenden ISO Wert. Der Kontrastumfang wird
also in Lichtwerten gemessen, weil viele Kombinationen zu der
selben Belichtung des Films oder des Sensors führen.

Auf Belichtungsmessern wird zur Messung des Kontrastumfangs
LW oder (in der in der englischen Version) EV gleichbedeutend
zur Messung angegeben.


Beispiel:

Wenn 1/125 s bei f8 und ISO 100 für die Zone V (5) gemessen
wird, entspricht das dem Lichtwert von 18% Neutralgraukarte
und dem Mittelwert von RGB 128 auf dem digitalen Fotoabzug.

Das wäre Lichtwert 13 und +/- fünf Lichtwerte würden noch in
den Kontrastumfang von "Papierweiß" bis zu "Maximalschwarz"
passen, wenn man von 11 möglichen Lichtwerten ausgeht.

Man kann also annähernd bestimmen, welcher Lichtwert hinterher
welchem RGB Wert auf dem digitalen Fotoabzug zugeordnet wird,
wenn man die gesamte Verarbeitungskette einigermaßen im Griff
hat. Darauf beruht das gesamte Zonensystem ...


Viele Grüße
Peter
[gone] Dirk Krauzig
14.11.2011
Original von Peter Herhold
[quote]Original von Images at Twilight | neue Aufnahmebetreiche
sorry, ich weiß nicht, was "Lichtwert" ist.

Ein Lichtwert ist die Kombination aus Blende und Belichtungszeit,
bei einem entsprechenden ISO Wert. Der Kontrastumfang wird
also in Lichtwerten gemessen, weil viele Kombinationen zu der
selben Belichtung des Films oder des Sensors führen.

Auf Belichtungsmessern wird zur Messung des Kontrastumfangs
LW oder (in der in der englischen Version) EV gleichbedeutend
zur Messung angegeben.


Beispiel:

Wenn 1/125 s bei f8 und ISO 100 für die Zone V (5) gemessen
wird, entspricht das dem Lichtwert von 18% Neutralgraukarte
und dem Mittelwert von RGB 128 auf dem digitalen Fotoabzug.

Das wäre Lichtwert 13 und +/- fünf Lichtwerte würden noch in
den Kontrastumfang von "Papierweiß" bis zu "Maximalschwarz"
passen, wenn man von 11 möglichen Lichtwerten ausgeht.

Man kann also annähernd bestimmen, welcher Lichtwert hinterher
welchem RGB Wert auf dem digitalen Fotoabzug zugeordnet wird,
wenn man die gesamte Verarbeitungskette einigermaßen im Griff
hat. Darauf beruht das gesamte Zonensystem ...


Viele Grüße
Peter[/quote]

Wie schön, daß es hier auch noch solides Wissen gibt
und das auch noch didaktisch gut verpackt....

Ich hab mich nämlich schon gefragt, ob die Elektronik gerade die Physik neu erfunden hat.... Old School sind eben einfach Basics!
14.11.2011
Gott oh Gott wird das allmählich kompliziert hier

Ich glaube ja die wirkliche Lösung ist deutlich einfacher ;)

Vor allem ist es reine simple Mathematik wie aus einer elektrischen Information auf dem Chip irgendein RGB Wert wird. Und es ist auch bestimmt genau so einfach berechenbar welcher RGB Wert aus einem Sensorpixel wird, welcher nur halb so viel Licht abbekommen hat....
[gone] User_6449
14.11.2011
Original von Pixelspalter
Vor allem ist es reine simple Mathematik wie aus einer elektrischen Information auf dem Chip irgendein RGB Wert wird. Und es ist auch bestimmt genau so einfach berechenbar welcher RGB Wert aus einem Sensorpixel wird, welcher nur halb so viel Licht abbekommen hat....

Ganz exakt läßt sich das nicht ausrechnen, da die Kameramodelle und die
weitere Bildverarbeitung je nach dem Ausgabemedium im Konrastumfang
voneinander abweichen.

Aber mit der Faustformel "11 Blendenstufen auf RGB 000 bis 255 verteilt"
hat man schonmal einen guten Anhaltspunkt.

Falls Du "Silver Efex" als Programm hast, ist die entsprechende Aufteilung
in 11 Stufen übrigens ganz unten rechts nach dem Zonensystem zu sehen.


Viele Grüße
Peter
14.11.2011
Mensch, hier schreiben ja wieder einige Leute viel Krams, der nichts zur Sache beiträgt (nicht alles unbedingt falsch, aber vollkommen an der Frage vorbei...)
Ich hab mal recherchiert, weil es mich auch interessiert; dabei kam folgendes heraus:

Die Spannung auf einem Pixel des Sensors (das ist bei fast allen Kameras, auch DSLRs inzwischen ein CMOS-Sensor und kein CCD) ist proportional zur einfallenden Lichtmenge, d.h. der Anzahl der eingefangenen Photonen (soviel ist ohnehin klar). Diese Spannung wird bei den meisten Kameras mit 14Bit digitalisiert, so dass ein Wert zwischen von 0 bis 16383 herauskommt, der ebenfalls noch proportional zur ursprünglichen Lichtmenge ist. Dieser Wert steht auch in der RAW-Datei an der entsprechenen Stelle für dieses (Sub-)Pixel!
Bei der Umwandlung in die 8 Bit eines JPEG findet (neben der Bayer-Interpolation und dem Weißabgleich) die Gamma-Korrektur statt, um den logarithmischen Eigenschaften des menschlichen Sehsystems nachzukommen (oben hatte ich irrtümlich die Rücktransformation angegeben):

JPG pixel level = (RAW pixel level)^(1/gamma) ~= exposure^(1/gamma)

Das gamma ist fürden sRGB-Farbraum dabei gleich 2,2.
D.h. nach etwas Rechnerei, dass nach Reduzierung um eine Blendenstufe (=halbe Lichtmenge), der Wert im A/D-Wandler und damit im RAW ebenfalls halb so groß ist und der entsprechende RGB-Wert im JPEG um 0,5^(1/2,2)=~0,73 kleiner ist.
Eigentlich ganz einfach und stimmt auch (recht grob) mit dem überein, was ich beim Ausprobieren rausbekommen habe.

Nachtrag: der Weißabgleich stellt ebenfalls noch eine Transformation dar, die aber die RGB-Werte untereinander verrechnet, um farbneutrale Ergebnisse zu erzielen. Das ändert aber nichts an der grundsätzlichen Aussage. Mit der reinen Helligkeitsinformation (unabhängig von der Farbe des Subpixels) ist es aber etwas leichter zu verstehen.

Ich denke, das sollte die Frage halbwegs beantworten ;-)
14.11.2011
Original von Pixelspalter
Gott oh Gott wird das allmählich kompliziert hier

Ich glaube ja die wirkliche Lösung ist deutlich einfacher ;) ...


Ja, es geht auch einfacher.

Versuchsaaufbau: Blitz gegen Wand, Kamera nicht fokussiert, Blitzleistung und ISO so eingestellt, dass bei Blende 2,8 die Belichtung leidlich in Ordnung war.
Farbtemperatur entsprechend des Blitzes an der Kamera eingestellt.

Je drei Aufnahmen pro Blende angefertigt und anschließend die RAW-Dateien (kleines Format) ausgelesen, Werte in eine Exceltabelle gestellt und Diagramme abgespeichert.


Auf der X-Achse ist der Wert des Analog/Digital Umsetzers aufgetragen und auf der Y-Achse die Anzahl der Pixel, die diesen Wert aufweisen. Ein Histogramm also (linear auf beiden Achsen).



Was sagen mir die Diagramme: Eine Digitalkamera arbeitet in weiten Bereichen linear und wenn die Daten nicht umgerechnet werden ist diese Linearität auch einfach zu erkennen. -Kann übrigens so auch aus den Datenblättern der CMOS-Chips entnommen werden.

Auswertung
Blende; Durchschnitt ADU

32__; 42
22__; 91
16__; 177
11__; 355
_8__; 714
_5,6; 1432
_4__; 2605
_2.8; 3439

Die Abweichung bei Blende 4 und 2,8 führe ich auf die Vignettierung zurück.

Weshalb allerdings die Werte bei einer 8-Bit Darstellung davon abweichen ist mir nicht klar. Hier wird 'irgendetwas' umgerechnet. Ist mir aber letztendlich auch egal, da die Daten vollständig im RAW vorhanden sind.

Bei starker Überbelichtung ist zu erkennen, dass die Kamera (5Dii) intern an den Daten auch noch Manipulationen vornimmt, da der Maximalwert unter 8000 liegt und dies nicht 14-Bit entspricht.

Topic has been closed