Bearbeitung in Photoshop oder RAW-Konverter...? 315

06.04.2011
Original von Pixelspalter
Also ich hab das hier nicht alles durchgelesen. Aber den zusammenhang zwischen Bittiefe und Dynamikbereich verstehe ich irgendwie auch nicht

Die Bittiefe gibt nur an, wie viel Information ich in einer Datei unterbringe
Der Dynamikbereich, wie ich diese Information gewichte um sie darzustellen.
Kein Mensch sagt, daß ich das linear machen muß


Bei der Aufnahme ist das der Sensor, der dir das sagt. Der bildet Helligkeit linear auf Spannungswerte ab, die nach der Digitalisierung dann ebenso linear in Zahlenwerten zur Verfügung steht. Dopelt so hell = doppelt so große Zahl. Praktischerweise ergibt bei Binärzahlen, deren Stellen wir hier mit Bits bezeichnen, jede weitere Stelle eine Verdopplung an. Daher ist der Zusammenhang zwischen Bittiefe und Dynamikumfang.

Theoretisch könnte man einen nichtlinearen Verstärker vor den AD-Wandler schalten und eine Gammakurve auf der analogen Seite anwenden. M.W. macht das aber niemand (hatte ich vor ein paar Jahren mal Phase1 vorgeschlagen).

Original von Pixelspalter

Hätte ich ein Ausgabegerät, welches 12 Blenden Dynamik darstellen kann, dann kann ich das auch mit einer 8-Bit Datei füttern mit Informationen für den dunkelsten und welche für den hellsten Bereich.
Aber den Bereich dazwischen strecke ich eben so, daß viel Banding entsteht. Bei 16-Bit tritt dieser Effekt nicht so stark auf, weil weichere Übergänge existieren durch mehr Information.


Hier ging es aber erstmal nur um die Frage, ob man Berechnungen am Bild (Gamma, Tonwert... ) im RAW Konverter machen soll, oder ob man die 16 Bit, die der RAW-Konverter aus den 12 Bits des AD-Wandlers ableitet auch in eine Datei schreiben kann, unverändert in PS laden und dort die selben Berechnungen ausführen. Meine These ist: man kann und es ergibt keinen Unterschied.

Original von Pixelspalter
Wer mal einen simplen Test machen will, kann ja einerseits eine 8-Bit Datei mittels Photoshop und einer Graduationskurve gewaltig aufhellen und dann das gleiche mit einer 16-Bit Datei. Da merkt man dann die Unterschiede in den Übergängen


Jo, aber hier gings nicht um 8-Bit Dateien :-)

LG
k|d
06.04.2011
Das stimmt so nicht ganz. Man muß ja nicht mit jedem Bit den Kontrast verdoppeln. Man kann genau so Zwischenstufen verwenden.
Der Dynamikbereich einer Kamera ist das, was sie elektronisch als höchsten Kontrast auflösen kann. Irgendwann ist zu wenig Licht da um die Photonen noch in elektrische Singale umzuwandeln. Und irgendwann so viel Licht, daß es keine Unterschiede mehr zu noch mehr Licht gibt.
Der Bereich dazwischen wird von der Kamera aufgelöst mit ihrem Dynamikbereich, z.B. 14 Bit

Ich kann aber das Bild welches rauskommt ebenso strecken, daß es auf einem dazu fähigen Ausgabegerät einen Dynamikbereich von 100 Blendenstufen hätte

Ebenso kann ich eine 1-Bit Datei (also nur schwarz oder weiß) so darstellen, daß schwarz das kopmlette fehlen von Licht ist und weiß der Helligkeit der Sonne enstpricht. Nur dazwischen gibt es eben nichts, weil keine weitere Information da ist

Und weil solche extremen Dynamiken meistens linear gar nicht richtig darstellbar sind mit der wenigen Information wird z.B. bei HDR oft eine logarithmische Skala verwendet:
http://de.wikipedia.org/wiki/High_Dynamic_Range#Kodierung

[edit]
An den beispielen dort sieht man auch recht gut, daß die Bittiefe überhaupt nichts mit dem Dynamikumfang zu tun hat, weil ich in 32 Bit genauso gut einen Dynamikumfang von 38 wie auch von 76 kodieren kann
Erst die Ausgabe erzeugt Dynamik. Nicht die Bilddatei selbst
[gone] User_6449
06.04.2011
Original von Pixelspalter
Hätte ich ein Ausgabegerät, welches 12 Blenden Dynamik darstellen kann, dann kann ich das auch mit einer 8-Bit Datei füttern mit Informationen für den dunkelsten und welche für den hellsten Bereich.
Aber den Bereich dazwischen strecke ich eben so, daß viel Banding entsteht. Bei 16-Bit tritt dieser Effekt nicht so stark auf, weil weichere Übergänge existieren durch mehr Information.

Die Theorie kommt schon ganz gut hin ...

Bei einer RAW Datei mußt Du die Dynamik von 12 Blendenstufen plus Maximalschwarz
und Papierweiß aber nicht strecken sondern komprimieren, um sie so auf den Kontrast-
umfang eines Fotopositvs zu reduzieren.

Ich empfehle hierzu folgende Lektüre von Ansel Adams:

- Die Kamera
- Das Negativ
- Das Positiv

Wer sich also fragt weshalb seine Fotos trotz aller Berechnungen der Bittiefe so scheiße
aussehen, kann das haarklein und perfekt formuliert beim alten Onkel Ansel nachlesen.

Viele Grüße
Peter
06.04.2011
Original von Peter Herhold
Bei einer RAW Datei mußt Du die Dynamik von 12 Blendenstufen plus Maximalschwarz
und Papierweiß aber nicht strecken sondern komprimieren, um sie so auf den Kontrast-
umfang eines Fotopositvs zu reduzieren.


Das hat nur mit Raw nichts zu tun. Ob ich ein Raw zu Papier bringe oder eine TIFF-Datei, die die gleichen Informationen enthält ist schnuppe.
Der Dynamikumfang von Papier bleibt immer gleich, egal was für eine Datei ich darauf aubelichten lasse. Seien es 4-Bit, 8-Bit, 16-Bit oder 32-Bit

Ein etwas verständlicheres Beispiel dürfte übrigens ein Farbraum sein. Ich kann jeder Datei einen anderen Farbraum zuweisen oder ihn umwandeln. Das heißt nichts anderes als daß ich die darin enthaltenen Farben anders gewichte. Das ändert aber noch nichts an der Information. Nur an der Abbildungsmatrix
06.04.2011
Original von Peter Herhold
...

Wer sich also fragt weshalb seine Fotos trotz aller Berechnungen der Bittiefe so scheiße
aussehen, kann das haarklein und perfekt formuliert beim alten Onkel Ansel nachlesen.

Viele Grüße
Peter


denn wie wir ja alle wissen gilt der gute alte onkel anselm qausi als gott der digitalfotografie - der vater der bits und bytes. deswegen ist er ja auch so berühmt geworden. wäre direkt n eintrag wert bei http://de.uncyclopedia.org/ .... :)

lg
h
[gone] User_6449
06.04.2011
Original von kleine|details
Theoretisch könnte man einen nichtlinearen Verstärker vor den AD-Wandler schalten und eine Gammakurve auf der analogen Seite anwenden. M.W. macht das aber niemand (hatte ich vor ein paar Jahren mal Phase1 vorgeschlagen).

Ja, theoretisch könnte man auch einen Blitz mit 1.21 Gigawatt einfangen um
damit zurück in die Zukunft zu kommen (falls Du den Film gesehen hast) ...

Ich bin gegenüber neuen Erfindungen immer aufgeschlossen und nehme die
gern an. Bis es soweit ist, gelten für mich jedoch noch immer die Regeln der
Fotografie im konventionellen Sinne ...

Viele Grüße
Peter
06.04.2011
Original von Peter Herhold
Ich bin gegenüber neuen Erfindungen immer aufgeschlossen und nehme die
gern an. Bis es soweit ist, gelten für mich jedoch noch immer die Regeln der
Fotografie im konventionellen Sinne ...


Und welche sind die?
Es gibt nur die Regeln der Optik. Und mit der Digitalfotografie sind auch nur die Regeln der Datenverarbeitung dazu gekommen.

Selbst die übliche Annahme, daß ein Analog-Negativ seinen Dynamikumfang ungefähr linear abbildet muß nicht zwangsläufig gelten.
Wenn ich einmal das gleiche Bild auf einem Film belichte, der pro Zeiteinheit die Helligkeit verdoppelt dann kommt ein ganz anders Bild dabei heraus als bei einem Material, welches pro Zeiteinheit die Heligkeit potenziert

Und genau so muß auch ein Kamerachip nicht linear über seinen Bereich arbeiten. Das hängt rein von seinen elektronischen Eigenschaften ab
[gone] falschbelichtung ( o.O )
06.04.2011
Original von kleine|details
[quote]Original von Pixelspalter
Also ich hab das hier nicht alles durchgelesen. Aber den zusammenhang zwischen Bittiefe und Dynamikbereich verstehe ich irgendwie auch nicht

Die Bittiefe gibt nur an, wie viel Information ich in einer Datei unterbringe
Der Dynamikbereich, wie ich diese Information gewichte um sie darzustellen.
Kein Mensch sagt, daß ich das linear machen muß


Bei der Aufnahme ist das der Sensor, der dir das sagt. Der bildet Helligkeit linear auf Spannungswerte ab, die nach der Digitalisierung dann ebenso linear in Zahlenwerten zur Verfügung steht. Dopelt so hell = doppelt so große Zahl. Praktischerweise ergibt bei Binärzahlen, deren Stellen wir hier mit Bits bezeichnen, jede weitere Stelle eine Verdopplung an. Daher ist der Zusammenhang zwischen Bittiefe und Dynamikumfang.

Theoretisch könnte man einen nichtlinearen Verstärker vor den AD-Wandler schalten und eine Gammakurve auf der analogen Seite anwenden. M.W. macht das aber niemand (hatte ich vor ein paar Jahren mal Phase1 vorgeschlagen).

[/quote]
Wenn ich das richtig sehe, passiert ähnliches wie in Deinem Vorschlag doch quasi seit Jahren. Wir können im Hellbereich halt wesentlich schlechter Differenzieren als im Dunkelbereich eines Bildes. Das haben sich die Sensorbastler zu nutze gemacht und die Gewichtung dahingehend verschoben, dass "oben" weniger Stark abgestuft wird als untenrum. In nem rein fiktiven Beispiel wärn dass dann bei ner 12 Bit Ausgabe 8 Bit für 50-100% Schwarz und 4 Bit für 0-50% Schwarzanteil.
[gone] User_6449
06.04.2011
Original von Pixelspalter
Selbst die übliche Annahme, daß ein Analog-Negativ seinen Dynamikumfang ungefähr linear abbildet muß nicht zwangsläufig gelten.

Die Annahme ist garantiert nicht von mir, denn sie ist Unsinn.
Das gleiche gilt auch für "digitale Negative" in Form von RAW
Dateien.

Manche Schreiber hier im Thread nehmen an, daß es etwas
linear umzusetzen gibt, aber das funktioniert natürlich nicht.

Man muß die RAW Dateien also so verbiegen, daß sie in den
geringeren Dynamikumfang eines Fotopositivs passen und
spätestens dann sind sie alles andere als "linear".

Wenn Du das was aus dem Chip der Kamera kommt 1:1 linear
in ein Fotopositiv umwandelst sieht es etwa so aus wie "weicher
Stuhlgang am Morgen", um das Wort "Scheiße" zu vermeiden.

Der ganze Aufwand im RAW Konverter dient also nur dazu, den
großen Dynamikumfang des "digitalen Negativs" in den sehr viel
kleineren Dynamikumfang des "Fotopositivs" umzuwandeln ...


Viele Grüße
Peter
07.04.2011
Original von Peter Herhold
Der ganze Aufwand im RAW Konverter dient also nur dazu, den
großen Dynamikumfang des "digitalen Negativs" in den sehr viel
kleineren Dynamikumfang des "Fotopositivs" umzuwandeln ...


Ich frage mich, wieso Du Dich die ganze Zeit am RAW-Konverter aufhängst......der ist nur ein Schritt in der Bearbeitungskette

Das angleichen an den Dynamikumfang von Papier mache ich bei der Ausgabe(!) und nicht bei der Bearbeitung. Der Raw-Konverter ist reine Bearbeitung der digitalen Daten ohne wirklichen Informationsverlust.

Warum sollte ich mir beim ersten Bearbeitungsschritt schon Daten vernichten lassen, nur weil ich sie hinten anders ausgeben will.

Das wäre so ähnlich als würde ich einem Bild als allererstes die Farbinformation entziehen, weil ich es viel später (nach der Bearbeitung) auf SW-Papier ausgeben will
07.04.2011
Original von Peter Herhold
[quote]Original von Pixelspalter
Selbst die übliche Annahme, daß ein Analog-Negativ seinen Dynamikumfang ungefähr linear abbildet muß nicht zwangsläufig gelten.

Die Annahme ist garantiert nicht von mir, denn sie ist Unsinn.
Das gleiche gilt auch für "digitale Negative" in Form von RAW
Dateien.

Manche Schreiber hier im Thread nehmen an, daß es etwas
linear umzusetzen gibt, aber das funktioniert natürlich nicht.
[/quote]

So?

Kennlinie Fotodiode

Der Bereich links unten ist auch der, der (sinnvollerweise) bei Bildsensoren benutzt wird. Der ist nahezu perfekt linear.

Ansonsten käme man mit der Belichtung auch in Teufels Küche - ich will mich ja darauf verlassen können, dass eine Blendenstufe mehr oder weniger auch die Belichtungszeit entsprechend verändert bzw. die Bildhelligkeit um den Faktor 2.



Original von Peter Herhold

Man muß die RAW Dateien also so verbiegen, daß sie in den
geringeren Dynamikumfang eines Fotopositivs passen und
spätestens dann sind sie alles andere als "linear".



Ob man das muss oder nicht, steht hier überhaupt nicht zur Debatte. Nicht einmal, ob das fragliche Bild überhaupt einmal auf Fotopapier landet.
Es geht nur darum, ob man Gradationskurven zwingend im RAW-Konverter machen muss, oder ob man die gleichen Berechnungen ohne Verlust auch in Photoshop machen kann, solange man mind. 16 Bit/Farbkanal verwendet.
(Sowohl für den Transport als auch für die Bearbeitung). Ich sage ja und ich habe das auch belegt. Wie sieht's aus Peter - steht im "Schlauen Buch" was darüber?

Grüße
k|d
07.04.2011
Mir ist gerade noch ein Beispiel eingefallen, welches es manchen vielleicht leichter macht, das alles zu verstehen: Die Akustik

Auch hier haben wir Bereiche von unhörbaren Infraschall bis zu unhörbaren Ultraschall. Das menschliche Gehör hat ein gewisses Auflösungsvermögen, was dessen Dynamikumfang entspricht
Ich kann jetzt eine Aufnahme mit niedriger Dynamik machen, welche sich z.B. wie ein Telefongespräch anhört (sprich alle hohen und zu tiefen Töne rausgeschnitten, viel Information verloren gegangen usw)
Jetzt kann ich versuchen diese Tonaufnahme genau so wiederzugeben, womit sie sich immer noch wie ein Telefonat anhört
Ich kann aber die Tonaufnahme auch so verändern, daß aus dem höhrbaren Schall wieder Ultraschall wird, indem ich die Frequenz erhöhe.
Ich kann genausogut Infraschall daraus machen, indem ich die Frequenz so weit verringere, daß sie nicht mehr höhrbar ist
Ich kann aber auch die Frequenzen so strecken, daß sie von Infraschall bis Ultraschall gehen

Die Möglichkeiten der Ausgabe sind so zahlreich wie es meine Phantasie zulässt

Zurück zur Fotografie:
Man sollte nie vergessen, daß man hier von mehreren Umwandlungen in der Kette spricht. Zuallererst steht nämlich die Lichtsituation die man überhaupt fotografiert
Im wahren Leben gibt es Dynamikumfänge die zigtausendfach über dem liegen, was eine Kamera überhaupt auflösen kann. Man bedenke alleine den Helligkeitsunterschied zwischen absoluter Dunkelheit und dem direkten Blick in die Sonne

Aus diesem Grunddynamikumfang kann ich mir anhand meiner Aufnahmeparameter ein Stück rausschneiden, welches dem Dynamikumfang meines Gerätes entspricht. Das kann ein dunkler bereich sein, ich kann aber genau so gut in die Sonne fotografieren

Das Bild hier macht das mal gut deutlich:
http://de.wikipedia.org/w/index.php?title=Datei:Dynamik_im_Bild.jpg&filetimestamp=20080823204255

Ab dann habe ich Daten von genau diesem Ausschnitt. Diese Daten kann ich wieder beliebig strecken oder stauchen.
Das ist die Umwandlung die am Ende der Kette steht und die hat überhaupt nichts mit der Umwandlung am Anfang zu tun
[gone] User_6449
07.04.2011
Original von Pixelspalter
Aus diesem Grunddynamikumfang kann ich mir anhand meiner Aufnahmeparameter ein Stück rausschneiden, welches dem Dynamikumfang meines Gerätes entspricht. Das kann ein dunkler bereich sein, ich kann aber genau so gut in die Sonne fotografieren

So ist es und genau dafür ist ein RAW-Konverter gedacht.

Original von Pixelspalter
Ab dann habe ich Daten von genau diesem Ausschnitt. Diese Daten kann ich wieder beliebig strecken oder stauchen.
Das ist die Umwandlung die am Ende der Kette steht und die hat überhaupt nichts mit der Umwandlung am Anfang zu tun

Das ist auch richtig, wobei "beliebig strecken oder stauchen" natürlich Grenzen
hat. Denn wenn man zu sehr an den vorhandenen Tonwerten rumdreht, bilden
sich Lücken / Sprünge im Tonwertverlauf, welche die Bildqualität verschlechtern.



Um das zu vermeiden kann man auch wieder den RAW Konverter einsetzen:

Wenn der Dynamikumfang der RAW Datei zu groß ist, kann man zwei Auszüge
in TIF umwandeln und anschließend als zwei Ebenen in Photoshop kombinieren:
Je ein Auszug für die dunklen Tonwerte mit Zeichnung und für die hellen Ton-
werte mit Zeichnung.

Das ist eine Möglichkeit den Dynamikumfang zu komprimieren, ohne Zeichnung
in den hellen und dunklen Tonwerten zu verlieren. Im Prinzip wie ein HDR, nur
eben aus einer einzigen RAW Datei.


Und:

Wie Du schon sagtest, haben wir tatsächlich eine Verarbeitungskette mit drei
Schritten und vollkommen unterschiedlichen Dynamikumfängen die unter einen
Hut gebracht werden müssen, genau so wie schon beim alten Onkel Ansel:

- Die Kamera

Welche einen enorm großen Dynamikumfang einfängt, wie er eben in der Natur
vorkommt.

- Das Negativ

In unserem Fall die RAW Datei, welche den viel geringeren Dynamikumfang des
optischen Cips der Kamera aufzeichnet. Nur einen Bruchteil der Natur.

- Das Positiv

In unserem Fall eine Bitmap Datei mit noch weiter reduziertem Dynamikumfang,
um sie als Fotopositiv darstellen zu können. Auf dem Bildschirm, als Fotoabzug
oder als Druck. Nur einen Bruchteil der RAW Datei.


Man könnte das RAW Format auch überspringen und gleich TIF fotografieren.
Das wäre allerdings genau so wie mit Diafilm zu fotografieren und alle Vorteile
und Korrekturmöglichkeiten des "digitalen Negativs" wären dann verloren.


Viele Grüße
Peter
[gone] Abgemeldet
07.04.2011
Vielleicht hat ja noch hier jemand Lust Ansel Adams Zonensystem zu erklären.
07.04.2011
Original von Peter Herhold
[quote]Original von Pixelspalter
Aus diesem Grunddynamikumfang kann ich mir anhand meiner Aufnahmeparameter ein Stück rausschneiden, welches dem Dynamikumfang meines Gerätes entspricht. Das kann ein dunkler bereich sein, ich kann aber genau so gut in die Sonne fotografieren

So ist es und genau dafür ist ein RAW-Konverter gedacht.

Original von Pixelspalter
Ab dann habe ich Daten von genau diesem Ausschnitt. Diese Daten kann ich wieder beliebig strecken oder stauchen.
Das ist die Umwandlung die am Ende der Kette steht und die hat überhaupt nichts mit der Umwandlung am Anfang zu tun

Das ist auch richtig, wobei "beliebig strecken oder stauchen" natürlich Grenzen
hat. Denn wenn man zu sehr an den vorhandenen Tonwerten rumdreht, bilden
sich Lücken / Sprünge im Tonwertverlauf, welche die Bildqualität verschlechtern.



Um das zu vermeiden kann man auch wieder den RAW Konverter einsetzen:

Wenn der Dynamikumfang der RAW Datei zu groß ist, kann man zwei Auszüge
in TIF umwandeln und anschließend als zwei Ebenen in Photoshop kombinieren:
Je ein Auszug für die dunklen Tonwerte mit Zeichnung und für die hellen Ton-
werte mit Zeichnung.
[/quote]

Was natürlich völliger Blödsinn ist, weil im RAW nur 4096 mögliche Tonwerte (bei 12 Bit) oder 16384 (bei 14 Bit) vorkommen können, ein 16 Bit TIFF (ja, 16 nicht 8! Und das 3x, für jeden Farbkanal 16 Bit!) aber 65536 unterschiedliche Tonwerte speichern kann.

Die Argumentation von dir und Image Worx zielt immer wieder auf weniger Bits im Speicherformat, als im RAW sind. Aber das ist hier nicht das Problem! Bitte zum Vergleich nochmal das OP lesen.

LG
k|d
Original von Peter Herhold

...

- Das Positiv

In unserem Fall eine Bitmap Datei mit noch weiter reduziertem Dynamikumfang,
um sie als Fotopositiv darstellen zu können. Auf dem Bildschirm, als Fotoabzug
oder als Druck. Nur einen Bruchteil der RAW Datei.


Aber ist der reduzierte Dynamikumfang eines TIFFs dann wirklich ein TIFF-Problem oder ist der reduziert, weil auf dem Bildschirm oder ausgedruckt eben nur ein geringerer Umfang dargestellt werden kann als ursprünglich im RAW vorhanden ist? Das könnte ich dann nämlich nachvollziehen...


Man könnte das RAW Format auch überspringen und gleich TIF fotografieren.
Das wäre allerdings genau so wie mit Diafilm zu fotografieren und alle Vorteile
und Korrekturmöglichkeiten des "digitalen Negativs" wären dann verloren.

...


Weil man sich dann darauf verlassen müsste, dass die Kamera schon weiss, was sie tut (die würde ja dann eine Konvertierung von RAW nach TIFF ohne weitere Eingriffsmöglichkeiten durch den Benutzer durchführen)?

Also, das sind jetzt tatsächlich ernstgemeinte Nachfragen.
07.04.2011
Original von plain
[quote]Original von Peter Herhold

...

- Das Positiv

In unserem Fall eine Bitmap Datei mit noch weiter reduziertem Dynamikumfang,
um sie als Fotopositiv darstellen zu können. Auf dem Bildschirm, als Fotoabzug
oder als Druck. Nur einen Bruchteil der RAW Datei.


Aber ist der reduzierte Dynamikumfang eines TIFFs dann wirklich ein TIFF-Problem oder ist der reduziert, weil auf dem Bildschirm oder ausgedruckt eben nur ein geringerer Umfang dargestellt werden kann als ursprünglich im RAW vorhanden ist? Das könnte ich dann nämlich nachvollziehen...

[/quote]

Nein das stimmt nicht, ein 16-Bit pro Farbkanel TIFF (oder auch PNG) hat sogar mehr Dynamikumfang als was in RAWs handelsüblicher Kameras ist bzw. nach dem ersten Schritt der Umwandlung vom Sensorformat in RGB.

Das ist für die Verarbeitung.

Was wärend oder nach der Verarbeitung irgendwo angezeigt wird, hängt vom Ausgabeformat ab. Die meisten Grafikarten und Bildschirme haben ja erstmal nur 8 Bit pro Farbkanal, dann wird aus physikalischen (Papier) oder praktischen Erwägungen (Bildschirm fürs Auge) mindestens noch eine Gammakurve nötig, um das Problem der geringeren Differenzierung in den dunklen Bereichen durchs Auge oder Nichtlinearität (+ Auge) beim Papier Rechnung zu tragen.

Im Grunde ist der Workflow RAW -> DATEI -> PS (Korrektur1, ... KorrekturN) numerisch geschickter als RAW(Korrektur1,...KorrekturN) -> DATEI -> PS(KorrekturO, .... KorrekturZ)
weil im letzteren Fall Rechenfehler beim Schreiben in die Datei fixiert werden und sich zu denen der Arbeitsschritte in PS addieren. Werden alle Berechnungen in einem Programm gemacht muss nur einmal am Ende gerundet werden.

(Ganzzahlenmathematik: 3/2 = 1, 1*2=2 vs. 3*2/2=3 )

Original von plain
[quote]Original von Peter Herhold
Man könnte das RAW Format auch überspringen und gleich TIF fotografieren.
Das wäre allerdings genau so wie mit Diafilm zu fotografieren und alle Vorteile
und Korrekturmöglichkeiten des "digitalen Negativs" wären dann verloren.

...


Weil man sich dann darauf verlassen müsste, dass die Kamera schon weiss, was sie tut (die würde ja dann eine Konvertierung von RAW nach TIFF ohne weitere Eingriffsmöglichkeiten durch den Benutzer durchführen)?

Also, das sind jetzt tatsächlich ernstgemeinte Nachfragen.[/quote]

Die Kamera weiß es natürlich am besten. Der RAW-Konverter natürlich auch - weil beide die Sensoranordnung des Chips kennen. Gute Kameras machen wohl auch schon die Korrektur von Abbildungsfehlern vor der Bayer-Transformation. Das ist geschickt und ich würde denken, dass das auch ein guter RAW-Konverter so macht. Aber das hast du ja in jedem Fall auch so in deinem Workflow. Es ging ja nur darum, ob weitere Korrekturen im Konverter oder in PS gemacht werden sollen oder können.

LG
k|d
07.04.2011
Original von Peter Herhold
[quote]Original von Pixelspalter
Aus diesem Grunddynamikumfang kann ich mir anhand meiner Aufnahmeparameter ein Stück rausschneiden, welches dem Dynamikumfang meines Gerätes entspricht. Das kann ein dunkler bereich sein, ich kann aber genau so gut in die Sonne fotografieren

So ist es und genau dafür ist ein RAW-Konverter gedacht.
[/quote]

Das ist es wo Dein Denkfehler liegt
Nicht der Raw-Converter schneidet sich ein Stück raus....sondern der Sensorchip

Ab dann sind es Daten. Dieses Datenvolumen weiter zu verringern macht überhaupt keinen Sinn. Es ist das, was der Chip maximal einfangen kann. Und mit diesen Daten wird möglichst unverändert gearbeitet
07.04.2011
Original von Pixelspalter
[quote]Original von Peter Herhold
[quote]Original von Pixelspalter
Aus diesem Grunddynamikumfang kann ich mir anhand meiner Aufnahmeparameter ein Stück rausschneiden, welches dem Dynamikumfang meines Gerätes entspricht. Das kann ein dunkler bereich sein, ich kann aber genau so gut in die Sonne fotografieren

So ist es und genau dafür ist ein RAW-Konverter gedacht.
[/quote]

Das ist es wo Dein Denkfehler liegt
Nicht der Raw-Converter schneidet sich ein Stück raus....sondern der Sensorchip

Ab dann sind es Daten. Dieses Datenvolumen weiter zu verringern macht überhaupt keinen Sinn. Es ist das, was der Chip maximal einfangen kann. Und mit diesen Daten wird möglichst unverändert gearbeitet[/quote]

Vielleicht hat Peter ja nen fetten Analogrechner und die Kamera überträgt per Eimerkettenschaltung direkt die Spannungswerte vom Sensor auf die Flash-Zellen und der RAW-Konverter macht die AD-Wandlung nachdem er alle möglichen Gradationskurven auf analoger Seite angewendet hat? Das wäre auch eine Möglichkeit! :-)

Sorry, nicht böse sein, aber konnte jetzt nicht widerstehen ;)

LG
k|d
@kleine|Details & Pixelspalter:

Theoretisch ja, aber es gibt da ein Problem: das RAW-Format ist extrem defizitär, weil es ja nur aus einem Farbkanal besteht, demzufolge also eigentlich 2/3 der eigentlichen Bildinformation fehlen - nämlich die jeweils fehlenden Farbkanäle für jeden Bildpunkt.
Die müssen irgendwie ins Bild reingerechnet werden.

Und da scheint es jetzt zwei Strategien zu geben:

1. ich versuche möglichst wenig im RAW-Konverter zu machen - der soll die Originaldaten 1:1 übernehmen und für die fehlenden Farbkanäle möglichst plausible Werte einsetzen. Und den Rest macht man dann in der Nachbearbeitung. Dann muß man sich allerdings darauf verlassen, daß die Rechenoperationen, die der Konverter ausführt, schon ansatzweise brauchbar sind (es gibt da ja Algorithmen, die viele hässliche Artefakte hinterlassen, und solche, die zumindest die gröbsten Schnitzer vermeiden). Aber die Hoffnung besteht, dass immerhin die Originalfarbkanäle aus dem Senor möglichst unverfälscht ins TIFF übernommen werden. Das ist natürlich alles nur Hoffnung - denn weder RAW-Konverter noch Kamera (die erst recht nicht), wissen was sie tun, weil sie weder sehen noch denken können. Die können nur messen und rechnen - und letztlich ist es denen völlig schnuppe, ob sie bei ihrer Konvertierung Datenmüll erzeugen.

2. ich mache die gröbsten Anpassungen bereits im RAW-Konverter. Und verlasse mich eben nicht nur auf die Rechenalgorithmen, sondern helfe da noch ein bißchen nach. So, wenn ich nun aber weiß, daß das resultierende Bild später am Monitor oder als Ausdruck betrachtet werden soll, dann macht es in dem Fall Sinn, den eingeschränkten Dynamikumfang des Bildschirms oder Ausdrucks zugrunde zu legen und nicht den theoretisch möglichen, der noch in ein TIFF passt. Weil: wenn man viel im Konverter eingreift, dann wird man auch die vom Sensor aufgezeichneten Originaldaten verändern müssen. Man verändert also bereits bei der Konvertierung Daten. Und da ist es natürlich sinnvoll, dann die Daten bereits so zu verändern, dass sie den Umfang haben, wie er im Ausgabemedium erforderlich ist (sonst müsste man die Daten ja nochmal in PS verändern - also in dem Fall den Dynamikbereich verringern). Das hätte natürlich mehr Fehler und Verfälschungen zur Folge als wenn man das in einem Schritt macht und in PS dann nur noch die Feinheiten bearbeitet.

Mir ist so, als könnte das das gegenseitige Missverständnis sein.
Und ich bin mir nicht sicher, welcher Weg der klügere ist - aber deshalb hab ich den Thread ja gestartet.^^

Topic has been closed