Bearbeitung in Photoshop oder RAW-Konverter...? 315

31.03.2011
Original von TomRohwer
...
Jede Umwandlung der Farbtiefe kostet "Ur-Information". In beiden Richtungen. Wenn Du aus einem 14 Bit-TIFF ein 16 Bit-TIFF machst, müssen ja zwangsläufig Bildinformationen interpretiert und gewandelt werden.


Nein. Das ist ja der Vorteil der Quantisierung (Digitalisierung) man hat den Verlust nur einmal und kann dann numerisch exakt mit dem Signal weiterarbeiten ohne Verlust. Eine 14-Bit-Zahl kann Werte zwischen 0 und 16383 annehmen. Eine 16-Bit-Zahl kann zwischen 0 und 65535 angeben. Da passen also Werte bis zu 16383 prima rein. Da gibts keinen Verlust. Anders wäre es bei 8 bit, da muss man dann den Bereich von 0-16383 auf 0-255 stauchen. Da würden Informationen wegfallen.

Selbst wenn man den 14-Bit Wert streckt, damit man die 16 Bit ausnutzen kann, dann ist alles was passiert, dass man statt 0,1,2, ... 16383 dann Werte von 0,4,8,...65532 hat.

k|d
[gone] User_6449
31.03.2011
Original von kleine|details
Nein. Das ist ja der Vorteil der Quantisierung (Digitalisierung) man hat den Verlust nur einmal und kann dann numerisch exakt mit dem Signal weiterarbeiten ohne Verlust. Eine 14-Bit-Zahl kann Werte zwischen 0 und 16383 annehmen. Eine 16-Bit-Zahl kann zwischen 0 und 65535 angeben. Da passen also Werte bis zu 16383 prima rein. Da gibts keinen Verlust. Anders wäre es bei 8 bit, da muss man dann den Bereich von 0-16383 auf 0-255 stauchen. Da würden Informationen wegfallen.

Selbst wenn man den 14-Bit Wert streckt, damit man die 16 Bit ausnutzen kann, dann ist alles was passiert, dass man statt 0,1,2, ... 16383 dann Werte von 0,4,8,...65532 hat.

Alter Schwede ... faszinierend ... ;-)

Wenn Du die Werte jetzt auch noch in Blendenstufen und
Dynamikumfang umrechnen kannst, gebe ich einen aus ...

Viele Grüße
Peter
31.03.2011
Original von Peter Herhold
[quote]Original von kleine|details
Nein. Das ist ja der Vorteil der Quantisierung (Digitalisierung) man hat den Verlust nur einmal und kann dann numerisch exakt mit dem Signal weiterarbeiten ohne Verlust. Eine 14-Bit-Zahl kann Werte zwischen 0 und 16383 annehmen. Eine 16-Bit-Zahl kann zwischen 0 und 65535 angeben. Da passen also Werte bis zu 16383 prima rein. Da gibts keinen Verlust. Anders wäre es bei 8 bit, da muss man dann den Bereich von 0-16383 auf 0-255 stauchen. Da würden Informationen wegfallen.

Selbst wenn man den 14-Bit Wert streckt, damit man die 16 Bit ausnutzen kann, dann ist alles was passiert, dass man statt 0,1,2, ... 16383 dann Werte von 0,4,8,...65532 hat.

Alter Schwede ... faszinierend ... ;-)

Wenn Du die Werte jetzt auch noch in Blendenstufen und
Dynamikumfang umrechnen kannst, gebe ich einen aus ...

Viele Grüße
Peter[/quote]

Gern :-) Jede Blendenstufe ist so konzipiert, dass sie jeweils die doppelte Menge Licht durchs Objektiv lässt. Binärzahlen (Für die die Bits stehen) haben auch jeweils eine Verdoppelung pro Stelle. Eine 16-Bit Binärzahl kann also 4x so viele Blendenstufen abbilden wie eine 14-Bit Binärzahl.

Man muss für ernsthafte Ergebnisse natürlich eine Untergrenze im Auge behalten: eine Binärstelle kann ja nur zwischen 0 und 1, also ganz schwarz oder ganz weiß unterscheiden. Für eine ordentliche Differenzierung muss man ja mindestens 16, besser 64 Graustufen haben, also 4 bis 6 Bit.

D.h. ein gut nutzbarer Dynamikumfang wäre bei einem 12-Bit A/D Wandler im Sensor ca. 6-8 Blendenstufen (drunter würde man in den dunklen Bereichen zu deutliche Abstufungen sehen)

Bei der Abbildung in Farbräume wird aber aus dem linearen Messwert (doppelt soviel Licht - doppelt so große Zahl) eine nicht lineare Abbildung gemacht, also die möglichen Punkte auf der Gerade, die den Wertebereich angibt haben nicht mehr den gleichen Abstand, sondern der ist in bestimmten Bereichen größer, anderen kleiner.

Ok, aber Farbräume wollten wir nicht betrachten, ich schweife ab :-)

Hilft das oder habe ich vollkommen Verwirrung gestiftet? :-)

LG
k|d
Original von kleine|details
[quote]Original von TomRohwer
...
Jede Umwandlung der Farbtiefe kostet "Ur-Information". In beiden Richtungen. Wenn Du aus einem 14 Bit-TIFF ein 16 Bit-TIFF machst, müssen ja zwangsläufig Bildinformationen interpretiert und gewandelt werden.


Nein. Das ist ja der Vorteil der Quantisierung (Digitalisierung) man hat den Verlust nur einmal und kann dann numerisch exakt mit dem Signal weiterarbeiten ohne Verlust. Eine 14-Bit-Zahl kann Werte zwischen 0 und 16383 annehmen. Eine 16-Bit-Zahl kann zwischen 0 und 65535 angeben. Da passen also Werte bis zu 16383 prima rein. Da gibts keinen Verlust. Anders wäre es bei 8 bit, da muss man dann den Bereich von 0-16383 auf 0-255 stauchen. Da würden Informationen wegfallen.

Selbst wenn man den 14-Bit Wert streckt, damit man die 16 Bit ausnutzen kann, dann ist alles was passiert, dass man statt 0,1,2, ... 16383 dann Werte von 0,4,8,...65532 hat.

k|d[/quote]

Genau. Da kann nicht wirklich was verloren gehen - und im Zweifelsfall sollte man es theoretisch auch wieder ohne Probleme und Verluste rückgängig machen können.

An sich wäre also ein RAW-Konvertierung kein Problem - wenn RAW auch drei Kanäle pro Bildpunkt hätte. Aber bei zwei Kanälen muß der Konverter raten, welche Werte wohl passen könnten - und deshalb der ganze Ärger. -.-
Mir scheint, ein wenig reden wir auch aneinander vorbei, was in der Tat daran liegen könnte, das aus zwei unterschiedlichen Perspektiven argumentiert wird. Einmal aus eher (computer)technischer Sicht, einmal aus fotografischer Sicht mit Verwurzelung in analogen Zeiten. Deshalb kommt es wohl auch ein bißchen zur Verwirrung, die ich jetzt gerade nicht detailliert aufllösen kann.^^

Allerdings werde ich mit Sicherheit nicht 6 Monate in einem Fotolabor verbringen. :)
31.03.2011
So ist das. Ein 16bit TIFF kann die volle Bildinformation darstellen aus der 14bit-Rawdatei - wenn bei der Umwandlung eine möglichst lineare Gradationskurve angewandt wurde und möglichst wenige Veränderungen. Allerdings schlage ich mich dann mit einer 70MB-Datei herum statt vorher mit 12. Naja.

Es gibt Pixel-Veränderungen und parametrische Bearbeitung. Pixel-Editing ist die Domaine von Photoshop. Parametrische Bearbeitung (Kurven, etc) kann ich sowohl in LR/ Camera

Der Vorteil von Lightroom oder Camera Raw ist, daß ich dieselbe Bearbeitung konsistent auf mehrere Bilder anwenden kann, um einen "look" zu erzielen. Das ist katastrophal kompliziert mit PS.
01.04.2011
Original von plain
...

An sich wäre also ein RAW-Konvertierung kein Problem - wenn RAW auch drei Kanäle pro Bildpunkt hätte. Aber bei zwei Kanälen muß der Konverter raten, welche Werte wohl passen könnten - und deshalb der ganze Ärger. -.-


Ja, aber das rät er ja nur einmal und hat dann 3 Werte, die sowieso Ausgangspunkt für die Weiterverarbeitung sind. Ab da ist es auch egal, wo die Gradationskurven angelegt werden.

k|d
01.04.2011
Original von plain
Mir scheint, ein wenig reden wir auch aneinander vorbei, was in der Tat daran liegen könnte, das aus zwei unterschiedlichen Perspektiven argumentiert wird. Einmal aus eher (computer)technischer Sicht, einmal aus fotografischer Sicht mit Verwurzelung in analogen Zeiten. Deshalb kommt es wohl auch ein bißchen zur Verwirrung, die ich jetzt gerade nicht detailliert aufllösen kann.^^

Allerdings werde ich mit Sicherheit nicht 6 Monate in einem Fotolabor verbringen. :)


Ich kenne beide Perspektiven sehr gut :-) Weder die chemische noch die digitale Bildbearbeitung ist so ganz trivial. Es ist nützlich, sich immer mal die technischen Zusammenhänge vor Augen zu führen, damit man die spezifischen Effekte für sich einsetzen kann.

k|d
05.04.2011
Jetzt hat sich Peter sicherheitshalber ausgeklinkt ;-)

k|d
05.04.2011
einzig richtiges Vorgehen:
in einem GUTEN (!!!) Konverter das Bild von Grundsätzlichen Look her optimieren und wichtige Schritte wir z.B. Farbtemperatur, Tonwertkorrektur, Kontrast etc. bereits hier festlegen, alle selektiven Schriite wie beispielsweise Farbkorrekturen an bestimmten Punkten, gezielte Aufhellungen in bestimmten Bereichen etc. sowie die eigentliche restliche Bearbeitung dann in Photoshop
05.04.2011
Original von Image Worx
einzig richtiges Vorgehen:
in einem GUTEN (!!!) Konverter das Bild von Grundsätzlichen Look her optimieren und wichtige Schritte wir z.B. Farbtemperatur, Tonwertkorrektur, Kontrast etc. bereits hier festlegen, alle selektiven Schriite wie beispielsweise Farbkorrekturen an bestimmten Punkten, gezielte Aufhellungen in bestimmten Bereichen etc. sowie die eigentliche restliche Bearbeitung dann in Photoshop


Wir hatten bereits festgestellt, dass das nicht stimmt :-) Es gibt mindestens zwei richtige Vorgehen, sofern man in der Weiterverarbeitung mit 16 Bits/Farbkanal arbeiten kann.

k|d
05.04.2011
Original von plain
So richtig überzeugt bin ich allerdings nicht, weil ein RAW letztlich ja auch ein Bitmap-Bild ist - nur mit einem etwas anderem Aufbau. Aber für die einzelnen Bildpunkte steckt im RAW ja auch letztlich nur ein Tonwert

jein...
Ein RAW ist etwas vollkommen anderes als ein fertig gerechnetes Bitmap-Bild.
Das RAW enthält noch weitere Informationen, die in der fertigen Datei nicht mehr vorhanden sind. Entwickelt man ein Bild "wie es ist" erhält man als Ergebnis ein fertiges Bitmap-Bild mit ca 7-8 Blenden Umfang von ganz weiss bis ganz schwarz.
Das RAW würde aber sowohl in ganz schwarzen Bereichen als auch in ganz weissen noch mindestens jeweils eine weitere Blende Information enthalten, die man der Datei durch gezielt dahin ausgelegte Entwicklung noch entlocken kann, wenn nötig (wenn nicht nötig sollte man es natürlich besser bleiben lassen, denn dadurch erhöht sich ja der Gesamte Dynamikumfang der fertigen Bitmap-Datei nicht, man muss also in den Restlichen Bereichen abstriche machen, wenn man die Reserven noch aus der Datei hervorholt - mit anderen Worten, der Kontrast geht flöten)


nur mit dem entscheidenden Unterschied, dass jeder Punkt im RAW nicht aus drei, sondern nur aus einem Farbkanal besteht (weil die Sensoren in der Kamera ja nur Helligkeit, nicht aber Farben messen können).

Ja, aber:
Die Helligkeits-Information ist die mit Abstand wichtigste. Das menschliche Auge reagiert fast ausschliesslich auf Helligkeits-Informationen, die Farbinformation ist, auch wenn man es auf Anhieb kaum glauben mag, von absolut untergeordnetem Interesse. Geringere Abweichungen in der Farbe sind absolut vernachlässigbar.
Das kann jeder mal selbst ausprobieren: einfach mal ein Bild in den LAB Farbraum wandeln, dann hat man die Farb- und die Helligkeits-information getrennt. Wenn man dann in den Kanälen mal den "L" Kanal ausblendet und die beiden Farbkanäle "a" und "b" betrachtet sieht man mal, wie wenig Farbe eigentlich in einem Bild steckt, bzw. wie wenig Unterschiede man in der Farbe eigentlich noch wahrehmen kann.

Und die vornehmste Aufgabe des Konverters besteht ja darin, die fehlenden Farbkanäle für jeden Bildpunkt aus den umliegenden Bildpunkten zu rekonstruieren.
Alle anderen Dinge verlaufen ja technisch gesehen genauso, als hätte ich da bereits bspw. ein Tiff vorliegen.

Nicht so ganz, einige sehr relevante Unterschiede gibt es da schon!
Der RAW-Konverter kann aus dem Vollen schöpfen und daher ganz andere Rechenalgorythmen ansetzen als ein Bildbearbeitungsprogramm. Daher kann der Konverter auch beispielsweise eine Korrektur der Farbtemperatur vornehmen, was dich in einem Bildbearbeitungsprogramm entweder zur Verzweiflung treibt oder aber Ergebnisse liefert, die dir ein stark schmerzendes Gefühl in der Magengegend bereiten. Auch bei anderen Aufgaben wird dir ein guter Konverter bessere und sauberere Ergebnisse als jede Bildbearbeitung bringen.

Wenn da abgesoffene Tiefen sind, dann würde ich da eine Gradationskurve anlegen und den Tiefen mehr Tonwertbereich zuordnen.


falsch.


Dummerweise gibt es in den Konvertern aber keine Gradationskurven.


auch falsch!
egal ob CaptureOne, Aperture oder Phocus, die Guten haben alle eine Gradationskurve.


Allerdings könnte es da doch einen Pluspunkt für die Bearbeitung im RAW-Konverter geben: nämlich dann, wenn die nachgeordneten Korrekturschritte, wie bspw. der Weißabgleich, bereits in die Farbinterpolation einfliessen würde. Wenn also die Rekonstruktion der fehlenden Farbkanäle nicht nur durch interne Algorithmen beeinflusst werden würde, sondern auch durch die Einstellungen, die ich im RAW-Konverter vornehme.
Wenn ich dem Konverter bspw. sage: 'mach mal in den Tiefen mehr blau' - und er dann diese Anweisungen bei der Interpolation verwenden würde.


Genau das ist doch der Fall !!!
Das macht den guten RAW-Konverter doch gegenüber jeder nachfolgenden Bildbearbeitung so viel besser

Ich konnte bisher aber nicht herausfinden, wie Lightroom das macht. Bei Rawtherapee ist das nicht so. Da sieht der interne Ablauf, dass zuerst interpoliert wird und dann erst alle weiteren Bearbeitungsschritte durchgeführt werden.
Nach der Interpolation ist das Bild aber auch nur eine reine Bitmap - da unterscheidet sich dann RAW nicht mehr bspw. von Tiff. D.h. ab diesem Schritt kann ich eigentlich auch alles in PS machen.

Dann steig auf ein anständiges Programm um, und benutze kein Kinderspielzeug, dann werden die Probleme gleich gelöst bevor sie entstehen


Die Frage ist eben nur, was bei der Interpolation geschieht.


Das DNG-Format von Adobe sieht Datenfelder für Befehle vor, die vor der Interpolation ausgeführt werden sollen (ich weiß jetzt allerdings nicht genau, welche Befehle dies sein könnten). Wenn da bspw. auch Farbkorrekturen einfliessen, dann würde ich ein Vorteil in der RAW-Bearbeitung sehen. Andernfalls nicht. Weil technisch da dann eigentlich kein Unterschied mehr bestehen kann.

Es hat sicherlich seinen Grund, warum DNG sich bis heute noch nicht durchsetzen konnte und dies auch sicherlich in der Zukunft niemals wirklich wird.
Der große Vorteil eines jeden RAW Formats, egal welchen Herstellers ist es doch, dass hier die absolut maximale Information, die die Kamera liefert gespeichert ist.
Will man nun dieses RAW in ein "one fits all" Format wandeln, muss man zwangsläufug auf einen Teil dieser Informationen verzichten, denn ein solches Format muss sich auf den kleinsten Gemeinsamen Nenner konzentrieren. Das Hersteller eigene RAW hingegen muss sich nicht an Dinge halten, die andere Hersteller machen oder aber eben nicht machen.

Meine Skepsis der RAW-Bearbeitung gegenüber ist nicht auf meinem Mist gewachsen, sondern da bin ich stark von Dan Margulis beeinflusst, der genau das empfiehlt: im RAW-Konverter möglichst alles ausschalten, was nur geht.

Vielleicht sollte man nicht allzu viel drauf geben, was man in irgendwelchen dubiosen Büchern liest.

Und das Hauptargument ist: es gibt dort keine Gradationskurve.

Was schlichtweg falsch ist!
zudem will mir nicht einleuchten, was das Fehlen einer Gradationskurve für ein Arbument sein soll keine anderen Werkzeige, vor allem Farb-korrigierende zu benutzen.

Allerdings sind seine Ausführungen schon 1, 2 Jahre alt und die RAW-Konverter haben sich seitdem ja um einiges verbessert. Deshalb bin ich jetzt etwas unsicherer, was meine Skepsis angeht.

Die Ausführungen waren auch vor 2 Jahren schon falsch.
Aperture und CaptureOne hatten soweit ich mich erinnere schon vor 5 Jahren eine Gradationskurve an Bord
05.04.2011
Original von kleine|details
[quote]Original von Image Worx
einzig richtiges Vorgehen:
in einem GUTEN (!!!) Konverter das Bild von Grundsätzlichen Look her optimieren und wichtige Schritte wir z.B. Farbtemperatur, Tonwertkorrektur, Kontrast etc. bereits hier festlegen, alle selektiven Schriite wie beispielsweise Farbkorrekturen an bestimmten Punkten, gezielte Aufhellungen in bestimmten Bereichen etc. sowie die eigentliche restliche Bearbeitung dann in Photoshop


Wir hatten bereits festgestellt, dass das nicht stimmt :-) Es gibt mindestens zwei richtige Vorgehen, sofern man in der Weiterverarbeitung mit 16 Bits/Farbkanal arbeiten kann.

k|d[/quote]

Was du dir selbst feststellst interessiert mich reichlich wenig.
Was du sagst ist schlicht falsch.
05.04.2011
Original von Peter Herhold
RAW Konverter haben eine Gradationskurve, aber alles auszuschalten was
nur geht ist natürlich trotzdem angebracht. Denn RAW Konverter sind nicht
zur Bildbearbeitung gedacht (das kann Photoshop sehr viel besser) sondern
zur Bildentwicklung.

Zu einer (guten) Entwicklung gehört es aber, gewisse Korrekturen im Konverter vorzunehmen. Nicht alles macht freilich Sinn, die grundlegendsten Einstellungen sollten aber im Konverter geschehen, da nach der Konvertierung die nicht eingearbeiteten Informationen, die in der RAW noch vorhanden wären nach der Entwicklung unwiederbringlich verloren sind.


Ich selbst verwende im RAW Konverter lediglich die Funktionen Weißableich,
Gradation, Tonwertkorrektur und Farbsättigung, um eine möglichst gute TIF
Datei zur Weiterverarbeitung mit Photoshop zu entwickeln.

Das ist schon mal mehr als du selbst oben zugestehst!
Das sind ja schon mal einige Grundlegende Werkzeuge. Du schaltest also nicht wirklich ALLES ab.


RAW Dateien sind nicht zur Bildbearbeitung gedacht, sondern zur Bildent-
wicklung.

Zur Bildentwicklung gehört es, die Grundlegenden Einstellungen vorzunehmen. Selektives Arbeiten und Arbeiten mit Werkzeugen, beispielsweise Retusche, folgt dann in der Bildbearbeitung. Der Look des Bildes wird aber im Konverter festgelegt.

Ihre besondere Stärke besteht im sehr hohen Dynamikumfang von
Schwarz bis Weiß.

Beispiel:

Die Kamera liefert ein RAW in dem über 11 Blendenstufen Zeichnung von
Schwarz bis Weiß drin ist, eine Bitmapdatei hat jedoch einen geringeren
Dynamikumfang. Die Kunst der RAW Entwicklung mit Hilfe des Konverters
besteht also darin, den hohen Dynamikumfang einer RAW Datei so gut
wie eben möglich in den geringeren Dynamikumfang einer Bitmapdatei zu
konvertieren.

Ist im Prinzip genau so wie im Labor, wo man den hohen Dynamikumfang
des Negativs auf den geringeren Dynamikumfang des Fotoabzugs umsetzt.

RAW = Negativ mit hohem Dynamikumfang
TIF= Fotoabzug mit geringerem Dynamikumfang


Anders formuliert:

Wenn Dir ein Fotograf eine TIF Datei zur Bearbeitung gibt, dann hat er den
Dynamikumfang bereits beschnitten und was in der RAW Datei zusätzlich
drin war ist verloren, holt man aus der TIF Datei nicht wieder raus.

Wenn ich mich selbst mal bereit erkläre fremde Bilder zu bearbeiten (was
selten vorkommt) will ich immer die RAW Datei haben, denn man weiß nie
welchen Unsinn der Fotograf bei der Umwandlung auf Bitmap vorher schon
gemacht hat ...


absolut richtig!
05.04.2011
Original von kleine|details
[quote]Original von Peter Herhold
...

Ich selbst verwende im RAW Konverter lediglich die Funktionen Weißableich,
Gradation, Tonwertkorrektur und Farbsättigung, um eine möglichst gute TIF
Datei zur Weiterverarbeitung mit Photoshop zu entwickeln.

RAW Dateien sind nicht zur Bildbearbeitung gedacht, sondern zur Bildent-
wicklung. Ihre besondere Stärke besteht im sehr hohen Dynamikumfang von
Schwarz bis Weiß.


Beispiel:

Die Kamera liefert ein RAW in dem über 11 Blendenstufen Zeichnung von
Schwarz bis Weiß drin ist, eine Bitmapdatei hat jedoch einen geringeren
Dynamikumfang. Die Kunst der RAW Entwicklung mit Hilfe des Konverters
besteht also darin, den hohen Dynamikumfang einer RAW Datei so gut
wie eben möglich in den geringeren Dynamikumfang einer Bitmapdatei zu
konvertieren.


Sorry Peter, aber das stimmt nicht. 16-Bit TIFF (also pro Farbkanal), bzw. PNG (48 Bit)
hat 16 Blendenstufen und nimmt alles, was das RAW der meisten Kameras anbietet problemlos auf. Was halt ein bischen stört sind die fehlenden Metainformationen, die die Kamera noch mit liefert (ISO, Brennweite, Weißabgleich der Kamera), die man für eine gute Korrektur manchmal brauchen könnte. Ansonsten kannst du Gradation, Weißabgleich etc. problemlos in einem Programm mit 16 Bit (oder mehr) pro Farbkanal durchführen, wie Photoshop.

k|d[/quote]

Schlichtweg falsch!
Du verwechselst den Tonwertumfang mit dem Dynamikumfang.
Das TIFF kann nur einen gewissen Dynamikumfang aufnehmen. Weit weniger als in einer RAW vorhanden ist.
Dass du einen relativ hohen Tonwertumfang durch deine 16 bit hast heisst ja nur, dass du zwischen den einzelnen Farben feiner abstufen kannst, nicht aber dass da auf einmal aus den Tiefen oder Lichtern noch etwas rauszuholen wäre. Das kannst du nur im Konverter. Machst du es hier nicht ist diese Information absolut unwiederbringlich verloren.

Darüber hinaus kann keine Bildbearbeitung beispielsweise eine Korrektur der Farbtemperatur wie es ein Konverter Kann. Wenn du im Konverter etwas falsch machst, kannst du zwar noch minimal nachkorrigieren, aber das Erbenis wird nicht so gut als wenn du es gleich richtig im Konverter machst.
Zudem kannst du bei Einstellungen im Konverter auch z.B. bei der Gradation bessere Ergebnisse erzielen da hier der Konverter die Daten gleich ideal abstufen kann. Hier hilft dir zwar im Notfall ein höherer Tonwertumfang durch deine 16 bit, besser und eleganter ist es aber auch hier, gleich von vornherein anständige Daten zur Verfügung zu haben, indem man die Arbeit gleich bei der Konvertierung macht und so das Maximum der vorhandenen Bildinformationen nutzen kann.
05.04.2011
Original von plain
So sehe ich das nämlich auch. Ich konvertiere die ja immer in ein 16 Bit Tiff, da dürfte ja eigentlich nichts verlorengehen, weil die gängigen RAW-Formate eh 'nur' 10 - 14 Bit Farbtiefe besitzen.
Das mit der Gradationskurve weiß ich allerdings wirklich nicht sicher - in den Konvertern, die ich kenne, gibt es nur eine Luminanzkurve, aber keine Gradation in den einzelnen Farbkanälen.

Da geht in dem Moment etwas verloren, wenn du anfängst hier weitere Korrekturen vorzunehmen, die die Tonwerte angreifft, Das sind beispielsweise Kontrasst, Tonwertkorrektur und Gradationskurve.
Nimmst du hier Änderungen in der Bildbearbeitung vor spreizt oder stauchst du an den entsprechenden Stellen deine Tonwertinformation und verlierst damit Bildinformation und somit auch Qualität.
05.04.2011
Original von TomRohwer
Jede Umwandlung der Farbtiefe kostet "Ur-Information". In beiden Richtungen. Wenn Du aus einem 14 Bit-TIFF ein 16 Bit-TIFF machst, müssen ja zwangsläufig Bildinformationen interpretiert und gewandelt werden.

Nein, muss es nicht.
14bit oder 16bit heisst ja nur die Möglichkeit der Anzahl unterschiedlicher Farben. Erhöht man die Farbtiefe ändert das nichts an den Farbwerten.
Beispiel:
Hast du eine Farbe, die in 8 bit einen Farbwert "10" hat, dann ändert sich der Farbwert nicht, indem du die Anzahl möglicher Zwischenstufen erhöhst. Dann wird aus der "10" halt eine "10,0"
Das stellt ja kein Problem dar.

Anders herum aber verlierst du natürlich Information, wenn du einen Farbwert "10,3" den du in 16bit hast nach 8 bit wandelst, dann muss die detailliertere Information verloren gehen und nach "10" gerechnet werden.
05.04.2011
Original von kleine|details
Gern :-) Jede Blendenstufe ist so konzipiert, dass sie jeweils die doppelte Menge Licht durchs Objektiv lässt. Binärzahlen (Für die die Bits stehen) haben auch jeweils eine Verdoppelung pro Stelle. Eine 16-Bit Binärzahl kann also 4x so viele Blendenstufen abbilden wie eine 14-Bit Binärzahl.

Man muss für ernsthafte Ergebnisse natürlich eine Untergrenze im Auge behalten: eine Binärstelle kann ja nur zwischen 0 und 1, also ganz schwarz oder ganz weiß unterscheiden. Für eine ordentliche Differenzierung muss man ja mindestens 16, besser 64 Graustufen haben, also 4 bis 6 Bit.

D.h. ein gut nutzbarer Dynamikumfang wäre bei einem 12-Bit A/D Wandler im Sensor ca. 6-8 Blendenstufen (drunter würde man in den dunklen Bereichen zu deutliche Abstufungen sehen)

wie gesagt: du verwechselst da was.
Wenn du meinst, dass du bei 8 Blendenstufen im dunklen Bereich noch Abstufungen sehen kannst/willst, dann ist das der TONWERTUMFANG.
Der Dynamikumfang wäre, wie hell bzw. wie dunkel etwas ist, das im Bild dann als absolutes Schwarz bzw. absolutes Weiss dargestellt wird.
Wenn du solche Grundlegenden Dinge verwechselst können deine Antworten schon gar nicht mehr richtig sein.

Bei der Abbildung in Farbräume wird aber aus dem linearen Messwert (doppelt soviel Licht - doppelt so große Zahl) eine nicht lineare Abbildung gemacht, also die möglichen Punkte auf der Gerade, die den Wertebereich angibt haben nicht mehr den gleichen Abstand, sondern der ist in bestimmten Bereichen größer, anderen kleiner.

Ok, aber Farbräume wollten wir nicht betrachten, ich schweife ab :-)

Naja, wenigstens das ist einigermassen richtig...(wie gesagt, einigermassen) aber darum geht es hier leider nicht
könnte man zwar vielleicht an anderer Stelle diskutieren, für diese Diskussion ist es aber wohl das Beste einfach zu sagen, dass man Bilder aus dem Konverter grundsätzlich einmal in einem größeren Farbraum ausgeben sollte. Das sollte MINDESTENS AdobrRGB sein, besser noch ECI-RGB oder ähnliches und wenn man einen guten Konverter hat, der Quell/Kamera-Farbraum.
05.04.2011
Original von kleine|details
[quote]Original von plain
...

An sich wäre also ein RAW-Konvertierung kein Problem - wenn RAW auch drei Kanäle pro Bildpunkt hätte. Aber bei zwei Kanälen muß der Konverter raten, welche Werte wohl passen könnten - und deshalb der ganze Ärger. -.-


Ja, aber das rät er ja nur einmal und hat dann 3 Werte, die sowieso Ausgangspunkt für die Weiterverarbeitung sind. Ab da ist es auch egal, wo die Gradationskurven angelegt werden.

k|d[/quote]
Ein guter Konverter interpretiert jede deiner Einstellungen am Ende, wenn du die Datei ausgibst auf Basis der ursprünglichen RAW.
Es ist also nicht so, dass zu aller erst einmal das Bild im Hintergrund umgewandelt wird und alle weiteren Schritte dann von dieser Grundlage ausgehen.
Daher ist es aben NICHT egal, ob man die Einstellungen im Konverter oder später in Photoshop & Co. vornimmt.
05.04.2011
So...
Ich habe jetzt leider einiges schreiben müssen.
Aber hier wurde so viel Blödsinn erzählt dass mal jemand einschreiten musste.
Sonst glaubt am Ende noch jemand diesen geistigen Dünnpfiff.

Topic has been closed