Bearbeitung in Photoshop oder RAW-Konverter...? 315
Original von kleine|details
[quote]Original von plain
@kleine|Details & Pixelspalter:
Theoretisch ja, aber es gibt da ein Problem: das RAW-Format ist extrem defizitär, weil es ja nur aus einem Farbkanal besteht, demzufolge also eigentlich 2/3 der eigentlichen Bildinformation fehlen - nämlich die jeweils fehlenden Farbkanäle für jeden Bildpunkt.
Die müssen irgendwie ins Bild reingerechnet werden.
Und da scheint es jetzt zwei Strategien zu geben:
1. ich versuche möglichst wenig im RAW-Konverter zu machen - der soll die Originaldaten 1:1 übernehmen und für die fehlenden Farbkanäle möglichst plausible Werte einsetzen. Und den Rest macht man dann in der Nachbearbeitung. Dann muß man sich allerdings darauf verlassen, daß die Rechenoperationen, die der Konverter ausführt, schon ansatzweise brauchbar sind (es gibt da ja Algorithmen, die viele hässliche Artefakte hinterlassen, und solche, die zumindest die gröbsten Schnitzer vermeiden). Aber die Hoffnung besteht, dass immerhin die Originalfarbkanäle aus dem Senor möglichst unverfälscht ins TIFF übernommen werden. Das ist natürlich alles nur Hoffnung - denn weder RAW-Konverter noch Kamera (die erst recht nicht), wissen was sie tun, weil sie weder sehen noch denken können. Die können nur messen und rechnen - und letztlich ist es denen völlig schnuppe, ob sie bei ihrer Konvertierung Datenmüll erzeugen.
Ok, diesen Schritt hast du in jedem Fall - das versuche ich ja die ganze Zeit zu erklären :-)
Danach hast du aus 4 Zahlenwerten für die Sensorpunkte 12 Zahlenwerte für 4 Bildpunkte gemacht. Alle weiteren Operationen werden auf dieses Ergebnis angewendet, nicht auf die 4 Originalwerte.
Original von plain
2. ich mache die gröbsten Anpassungen bereits im RAW-Konverter. Und verlasse mich eben nicht nur auf die Rechenalgorithmen, sondern helfe da noch ein bißchen nach.
Und das kannst du nicht - du müsstest irgendwie vor oder in den Bayer-Prozess eingreifen können - und das geht in der Regel nicht. Spielt auch keine Rolle, weil du diese Änderungen ja wenn dann in jedem Fall machen könntest.
Gradationskurven u.ä. werden ja in jedem Fall auf die RGB-Werte angewendet. Da verlierst du auch nichts, wenn du die zunächst rausschreibst und alles in PS machst.
Klar, wenn man im Konverter-Programm korrigiert und dann nochmal in PS, wird das Ergebnis u.U. unvorhersehbar.
LG
k|d[/quote]
Nein - wenn ich dem Handbuch von CaptureOne vertrauen kann (das ich mir extra runtergeladen habe), dann fliessen die Korrekturen über Gradation etc. mit in die Interpolation ein.
Bei RawTherapee ist das nicht so - da wird erst interpoliert und dann der Rest gemacht.
CaptureOne macht das aber anders. Scheint zumindest so - von außen betrachtet...^^
#82Report
07.04.2011
Original von plain
...
Nein - wenn ich dem Handbuch von CaptureOne vertrauen kann (das ich mir extra runtergeladen habe), dann fliessen die Korrekturen über Gradation etc. mit in die Interpolation ein.
Bei RawTherapee ist das nicht so - da wird erst interpoliert und dann der Rest gemacht.
CaptureOne macht das aber anders. Scheint zumindest so - von außen betrachtet...^^
Das kann ich mir nicht so recht vorstellen - zumindest wäre das aus meiner Sicht sehr eingeschränkt, weil sonst die Bayer-Transformation nicht mehr sicher anwendbar wäre.
Welcher Teil der Doku scheint für dich darauf hinzuweisen?
Hier finde ich nichts
LG
k|d
#83Report
07.04.2011
Original von plain
@kleine|Details & Pixelspalter:
Theoretisch ja, aber es gibt da ein Problem: das RAW-Format ist extrem defizitär, weil es ja nur aus einem Farbkanal besteht, demzufolge also eigentlich 2/3 der eigentlichen Bildinformation fehlen - nämlich die jeweils fehlenden Farbkanäle für jeden Bildpunkt.
Die müssen irgendwie ins Bild reingerechnet werden.
Das stimmt natürlich, weil ein Bildsensor ja nur Helligkeitsinformationen aufnimmt. Das ist eigentlich auch eher der Prozess von dem Du im Eingangsbeitrag sprichst
Ich habe nur versucht den Peter davon zu überzeugen, daß es hier eigentlich schon zu spät ist, weil der Sensor bereits alles hat was er braucht. Wie man mit diesen Daten umgeht ist eine andere Sache.
Mittels irgendeines Algorithmus müssen aus den Sensordaten Bilddaten gemacht werden. Ich weiß auch nicht, wie viel Vorarbeit da der Bildprozessor in der Kamera leistet und was wirklich in einem Raw landet.
Ich glaube auch nicht, daß sich die Algorithmen im Bildprozessor oder im Raw-Konverter extrem unterscheiden. Die machen im Grunde genommen alle das Gleiche.
Angeblich sollen manche Operationen im Raw besser funktionieren, wie z.B. Entrauschen
Aber ich glaube bei diesen Dingen spricht man schon von Unterschieden auf sehr hohem Niveau. Hier fehlt mir allerdings das Detailwissen um die Raw Formate der einzelnen Hersteller und welche Daten sich darin befinden
Ich habe z.B. auch gerade gelesen, daß Adobe DNG, welches ja nur als universelles Raw Format gesehen wird nichts anderes ist als eine Erweiterung von TIFF um mehr Metadaten abzulegen:
http://de.wikipedia.org/wiki/Digital_Negative
#84Report
[gone] User_6449
07.04.2011
Original von Dorfstudio
Vielleicht hat ja noch hier jemand Lust Ansel Adams Zonensystem zu erklären.
Das zu erklären wäre müßig, denn es ist natürlich Grundvoraussetzung
um auch die Zusammenhänge zwischen RAW und Bitmap zu verstehen.
Vielleicht kennst Du "Silver Efex" der Firma Nik Software auf der Basis
von Photoshop CS. Die haben das Zonensystem in digitaler Form in ihr
Programm eingebaut und das funktioniert ganz wunderbar.
Man muß dafür allerdings wissen was die Zonen von 0 bis XI bedeuten
und wie diese in die passende Blendenwerte bei der RAW Umwandlung
umzusetzen sind.
Ohne entsprechende Grundkenntnisse hilft das Programm natürlich
nichts (wie jedes Progamm) und man kann sich die Kosten sparen ...
Viele Grüße
Peter
#85Report
Original von kleine|details
[quote]Original von plain
...
Nein - wenn ich dem Handbuch von CaptureOne vertrauen kann (das ich mir extra runtergeladen habe), dann fliessen die Korrekturen über Gradation etc. mit in die Interpolation ein.
Bei RawTherapee ist das nicht so - da wird erst interpoliert und dann der Rest gemacht.
CaptureOne macht das aber anders. Scheint zumindest so - von außen betrachtet...^^
Das kann ich mir nicht so recht vorstellen - zumindest wäre das aus meiner Sicht sehr eingeschränkt, weil sonst die Bayer-Transformation nicht mehr sicher anwendbar wäre.
Welcher Teil der Doku scheint für dich darauf hinzuweisen?
Hier finde ich nichts
LG
k|d[/quote]
Da kann man die alten Handbücher runterladen: http://www.phaseone.com/en/SupportMain/Manuals/Manuals_CO.aspx
Da gibt es ein Kapitel 'How CO reads RAW' oder so... (Ab Seite 40).
Nun ja, es gibt ja nicht nur eine Art der Interpolation, sondern diverse Algorithmen - zum Teil wird (bei einfachen) einfach nur die fehlenden Werte aus den umliegenden Pixeln (die ja den entsprechenden Kanal besitzen) genommen und da ein Mittelwert berechnet. Das erzeugt an Kanten aber Artefakte. Deshalb wird bei komplexeren Algorithmen auch Kantendetektion bzw. Mustererkennung betrieben.
Und man kann das ja schon machen. Also bspw. kann man den Weißabgleich einberechnen.
Die Aufgabe besteht ja darin, die fehlenden Kanäle möglichst gut zu erraten.
Wenn ich nun über den Weißabgleich weiß, das die Farbtemperatur eher kühl ist, dann ist der Blaukanal dominant. Wenn ich nun den Blaukanal an einem Punkt erraten muß, dann kann ich diese Zusatzinformation ja benutzen. Z.B. in dem ich den Blauwert etas höher setze. Oder etwas tiefer, um den Fehler gleich zu beseitigen (in dem Fall muß ich allerdings auch die Original-Blaupunkte heraubsetzen, damit alles zueinander passt -> und veränder dadurch natürlich die Originaldaten - das ist ja das Problem an diesem Weg).
#86Report
07.04.2011
Original von Peter Herhold
[quote]Original von Dorfstudio
Vielleicht hat ja noch hier jemand Lust Ansel Adams Zonensystem zu erklären.
Das zu erklären wäre müßig, denn es ist natürlich Grundvoraussetzung
um auch die Zusammenhänge zwischen RAW und Bitmap zu verstehen.
[/quote]
Nö, nichtmal ansatzweise. Für den Zusammenhang zwischen RAW und Bitmap ist Sensortheorie nötig. (Also der recht komplexe Zusammenhang zwischen der Sensormatrix mit gemometrischer Anordnung der Farbfilter und darauf abgebildeter farbiger Strukturen)
Für die Belichtung wird, wenn man das Zonenmodell anwenden wil,l ähnlich vorgegangen wie beim Diafilm. Man geht von der hellsten Stelle im Bild aus und geht von da "nach unten" - weil Lichter durch Sättigungseffekte sonst absaufen.
Original von Peter Herhold
Vielleicht kennst Du "Silver Efex" der Firma Nik Software auf der Basis
von Photoshop CS. Die haben das Zonensystem in digitaler Form in ihr
Programm eingebaut und das funktioniert ganz wunderbar.
Man muß dafür allerdings wissen was die Zonen von 0 bis XI bedeuten
und wie diese in die passende Blendenwerte bei der RAW Umwandlung
umzusetzen sind.
Kann man. Muss man aber nicht. Im Gegensatz zur Arbeit in der Dunkelkammer kann man das Ergebnis direkt beurteilen und jederzeit nachmessen (bzw. wird ja auch durch Histogram i.d.R. permanent angezeigt).
Original von Peter Herhold
Ohne entsprechende Grundkenntnisse hilft das Programm natürlich
nichts (wie jedes Progamm) und man kann sich die Kosten sparen ...
Viele Grüße
Peter
Sehr richtig! :-)
k|d
#87Report
[gone] User_6449
07.04.2011
Original von plain
[quote]Original von Peter Herhold
- Das Positiv
In unserem Fall eine Bitmap Datei mit noch weiter reduziertem Dynamikumfang,
um sie als Fotopositiv darstellen zu können. Auf dem Bildschirm, als Fotoabzug
oder als Druck. Nur einen Bruchteil der RAW Datei.
Aber ist der reduzierte Dynamikumfang eines TIFFs dann wirklich ein TIFF-Problem oder ist der reduziert, weil auf dem Bildschirm oder ausgedruckt eben nur ein geringerer Umfang dargestellt werden kann als ursprünglich im RAW vorhanden ist? Das könnte ich dann nämlich nachvollziehen...[/quote]
Es ist kein TIF Problem, sondern das Ausgabemedium (der Fotobelichter, Drucker
oder Bildschirm) kann einen größeren Dynamikumfang als 9 Blendenstufen plus
Maximalschwarz und Papierweiß ganz einfach nicht darstellen.
Und 9 Blendenstufen sind da schon sehr hoch gegriffen und nur möglich, wenn man
sich gut auskennt und optimale Bedingungen hat.
Wenn einer der üblichen Bildbearbeiter ein Bild durch die Mangel gedreht hat bleiben
vielleicht noch 6 Blendenstufen übrig, wenn alles gut geht ...
Viele Grüße
Peter
#88Report
[gone] User_6449
07.04.2011
Original von plain
[quote]Original von Peter Herhold
[quote]
Man könnte das RAW Format auch überspringen und gleich TIF fotografieren.
Das wäre allerdings genau so wie mit Diafilm zu fotografieren und alle Vorteile
und Korrekturmöglichkeiten des "digitalen Negativs" wären dann verloren.
Weil man sich dann darauf verlassen müsste, dass die Kamera schon weiss, was sie tut (die würde ja dann eine Konvertierung von RAW nach TIFF ohne weitere Eingriffsmöglichkeiten durch den Benutzer durchführen)?
Also, das sind jetzt tatsächlich ernstgemeinte Nachfragen.[/quote]
Schön, daß Du ernsthaft nachfragst ... ;-)
Die Kamera nimmt dann keine Konvertierung von RAW auf TIF vor, sondern
das Bild im TIF Format ist ganz einfach ein Fotopositiv, bei dem man sehr viel
weniger Spielraum für Korrekturen hat als bei einer RAW Datei.
Beispiel:
Wenn Du ein Bild als TIF mit zwei Blenden Unterbelichtung machst, kannst Du
es wegwerfen, weil die oberen Tonwerte fehlen. Die sind weg und lassen sich
auch nicht wieder herbeizaubern. Genau so wie bei Diafilm als Fotopositiv.
Wenn Du ein Bild als RAW mit zwei Blenden Unterbelichtung machst, kannst Du
es mit etwas Laborarbeit noch verwenden, da RAW Dateien wie Negative sind
und einen gewissen Belichtungsspielraum haben.
Viele Grüße
Peter
#89Report
07.04.2011
Original von Peter Herhold
[quote]Original von plain
[quote]Original von Peter Herhold
[quote]
Man könnte das RAW Format auch überspringen und gleich TIF fotografieren.
Das wäre allerdings genau so wie mit Diafilm zu fotografieren und alle Vorteile
und Korrekturmöglichkeiten des "digitalen Negativs" wären dann verloren.
Weil man sich dann darauf verlassen müsste, dass die Kamera schon weiss, was sie tut (die würde ja dann eine Konvertierung von RAW nach TIFF ohne weitere Eingriffsmöglichkeiten durch den Benutzer durchführen)?
Also, das sind jetzt tatsächlich ernstgemeinte Nachfragen.[/quote]
Schön, daß Du ernsthaft nachfragst ... ;-)
Die Kamera nimmt dann keine Konvertierung von RAW auf TIF vor, sondern
das Bild im TIF Format ist ganz einfach ein Fotopositiv, bei dem man sehr viel
weniger Spielraum für Korrekturen hat als bei einer RAW Datei.
Beispiel:
Wenn Du ein Bild als TIF mit zwei Blenden Unterbelichtung machst, kannst Du
es wegwerfen, weil die oberen Tonwerte fehlen. Die sind weg und lassen sich
auch nicht wieder herbeizaubern. Genau so wie bei Diafilm als Fotopositiv.
[/quote]
Genau wie beim RAW. Da fehlen die dann auch.
Original von Peter Herhold
Wenn Du ein Bild als RAW mit zwei Blenden Unterbelichtung machst, kannst Du
es mit etwas Laborarbeit noch verwenden, da RAW Dateien wie Negative sind
und einen gewissen Belichtungsspielraum haben.
Kannst du nicht - die zwei Blenden fehlen dann ebenso im RAW. Die zaubert auch kein Prozess mehr her.
Ich glaube du bist mit dem ganzen Negativ-Positiv-Kram mächtig auf dem Holzweg. Digitale Bildverarbeitung läuft ganz anders ab.
k|d
#90Report
[gone] falschbelichtung ( o.O )
07.04.2011
Ok... mal Stark vereinfacht:
Nehmen wir mal an, der Fotosensor ist ein Wasserglas.
Die Situation in der ich etwas aufnehme, ist analog das befüllen des Glases mit Menge X. Mehr als voll geht nicht, dann läufts über. Ist mein Sensor bei 12 Bit voll, passen eben auch nur 12 Bit rein.
Kipp ich das Wasser von meinem Wasserglas nun in eine Kaffeekanne und achte darauf, dass auch wirklich der letzte Tropfen rauskommt und nix daneben geht, hab ich die Umwandlung in ein 16 Bit-Tiff erzeugt. Das Wasser hat sich dabei in seiner Menge nicht verändert - in Relation zum Gefäß aber schon.
Kipp ich das Wasser stattdessen in ein Schnappsglas, geht ziemlich sicher ein großteil über das Fassungsvermögen hinaus daneben. Hier hab ich jetzt mein 8-Bittiges Jpg oder meine Monitordarstellung. Das verlorene Wasser ist aber futsch.
/edit: Jetzt hab ich den wichtigen Teil einfach zu schreiben vergessen. ;-)
Mit anderen Worten: Die Dateiformen, um die hier diskutiert wird, sind nix anderes als irgendwelche Container. Was von vornherein nicht da ist, weils in den Ausgangscontainer nicht reinpasst, kann auch icht ohne weiteres dazugemogelt werden.
Wenn ich im Raw-Konverter die Belichtung 2 Blendenstufen runtersetze, ist das nix anderes als wenn ich im Bildbearbeitungsprogram das Gesamtgamma um X% runterziehe.
Der Raw-Konverter kann auch nicht zaubern - und wenn ich da die Belichtung weit genug herabsetz, dass sich Farbwerte in eine Richtung überschneiden, beschneide ich damit automatisch auch mein Farbvolumen insgesamt. In welcher Form des Containers ich sowas mache, spielt aber im Grunde genommen keine Rolle.
/edit 2: Tolle Idee gehabt, muss/will ich noch mitteilen. :D
Hier eine Darstellung eines 9 Pixel großen S/W-Sensors (damit ich mir den Bayer-Scheiß sparen kann). Er kann Helligkeitsinformationen in der Größenordnung 2 Bit aufnehmen (also 4 Werte).
Das aktuelle Foto, dass ich bearbeiten will, sieht so aus:
10 11 01
01 10 11
11 01 10
Also ein tolles Streifenmuster von links oben nach rechts unten (für die s/w-und/oder-Binär-Blinden unter uns). ;-)
Nun übertrage ich mein Raw-Bild vom Sensor in meinen Raw-Konverter. Der zeigt mir folgendes Bild an:
10 11 01
01 10 11
11 01 10
Wir stellen fest: Es ist das gleiche.
Reduziere ich nun die Helligkeit um 25% kommt dabei folgendes heraus:
01 10 00
00 01 10
10 00 01
Ich habe damit also praktisch einen meiner 4 Werte eliminiert. Oder anders ausgedrückt: Ich hab mein Farbvolumen reduziert, oder Farbwerte abgeschnitten, oder wie immer man das nennen will.
Nun speichere ich das Bild wieder. In meinem erstklassigen 2 Bit-Raw-Format. Öffne es dann erneut und stelle fest, es sieht folgendermaßen aus:
01 10 00
00 01 10
10 00 01
Also alles Prima.
Jetzt fällt mir aber ein, es könnte einen kleinen Tuck mehr Helligkeit vertragen - oder anders ausgedrückt: Das dunklermachen war Scheiße. Also Regler weider 25% hoch. Resultat:
10 11 01
01 10 11
11 01 10
Tata! Bild ist heller, sieht aber irgendwie doch nich mehr so aus wie das Erste. Warum? Weil ich vorhin irgendwann meinem kleinen 01-Wert eins mit dem Hammer verpasst hab und es zu 00 degradiert hab. Die Information, dass der ehemalige 01er und jetzige 00er mal ein 01er war ist weg. Und da ist es vollkommen egal ob das Format nun Tif, Jpg, Bmp, Dng, Cr2, Raw, Gif oder Karl-Günther heißt.
Nehmen wir mal an, der Fotosensor ist ein Wasserglas.
Die Situation in der ich etwas aufnehme, ist analog das befüllen des Glases mit Menge X. Mehr als voll geht nicht, dann läufts über. Ist mein Sensor bei 12 Bit voll, passen eben auch nur 12 Bit rein.
Kipp ich das Wasser von meinem Wasserglas nun in eine Kaffeekanne und achte darauf, dass auch wirklich der letzte Tropfen rauskommt und nix daneben geht, hab ich die Umwandlung in ein 16 Bit-Tiff erzeugt. Das Wasser hat sich dabei in seiner Menge nicht verändert - in Relation zum Gefäß aber schon.
Kipp ich das Wasser stattdessen in ein Schnappsglas, geht ziemlich sicher ein großteil über das Fassungsvermögen hinaus daneben. Hier hab ich jetzt mein 8-Bittiges Jpg oder meine Monitordarstellung. Das verlorene Wasser ist aber futsch.
/edit: Jetzt hab ich den wichtigen Teil einfach zu schreiben vergessen. ;-)
Mit anderen Worten: Die Dateiformen, um die hier diskutiert wird, sind nix anderes als irgendwelche Container. Was von vornherein nicht da ist, weils in den Ausgangscontainer nicht reinpasst, kann auch icht ohne weiteres dazugemogelt werden.
Wenn ich im Raw-Konverter die Belichtung 2 Blendenstufen runtersetze, ist das nix anderes als wenn ich im Bildbearbeitungsprogram das Gesamtgamma um X% runterziehe.
Der Raw-Konverter kann auch nicht zaubern - und wenn ich da die Belichtung weit genug herabsetz, dass sich Farbwerte in eine Richtung überschneiden, beschneide ich damit automatisch auch mein Farbvolumen insgesamt. In welcher Form des Containers ich sowas mache, spielt aber im Grunde genommen keine Rolle.
/edit 2: Tolle Idee gehabt, muss/will ich noch mitteilen. :D
Hier eine Darstellung eines 9 Pixel großen S/W-Sensors (damit ich mir den Bayer-Scheiß sparen kann). Er kann Helligkeitsinformationen in der Größenordnung 2 Bit aufnehmen (also 4 Werte).
Das aktuelle Foto, dass ich bearbeiten will, sieht so aus:
10 11 01
01 10 11
11 01 10
Also ein tolles Streifenmuster von links oben nach rechts unten (für die s/w-und/oder-Binär-Blinden unter uns). ;-)
Nun übertrage ich mein Raw-Bild vom Sensor in meinen Raw-Konverter. Der zeigt mir folgendes Bild an:
10 11 01
01 10 11
11 01 10
Wir stellen fest: Es ist das gleiche.
Reduziere ich nun die Helligkeit um 25% kommt dabei folgendes heraus:
01 10 00
00 01 10
10 00 01
Ich habe damit also praktisch einen meiner 4 Werte eliminiert. Oder anders ausgedrückt: Ich hab mein Farbvolumen reduziert, oder Farbwerte abgeschnitten, oder wie immer man das nennen will.
Nun speichere ich das Bild wieder. In meinem erstklassigen 2 Bit-Raw-Format. Öffne es dann erneut und stelle fest, es sieht folgendermaßen aus:
01 10 00
00 01 10
10 00 01
Also alles Prima.
Jetzt fällt mir aber ein, es könnte einen kleinen Tuck mehr Helligkeit vertragen - oder anders ausgedrückt: Das dunklermachen war Scheiße. Also Regler weider 25% hoch. Resultat:
10 11 01
01 10 11
11 01 10
Tata! Bild ist heller, sieht aber irgendwie doch nich mehr so aus wie das Erste. Warum? Weil ich vorhin irgendwann meinem kleinen 01-Wert eins mit dem Hammer verpasst hab und es zu 00 degradiert hab. Die Information, dass der ehemalige 01er und jetzige 00er mal ein 01er war ist weg. Und da ist es vollkommen egal ob das Format nun Tif, Jpg, Bmp, Dng, Cr2, Raw, Gif oder Karl-Günther heißt.
#91Report
[gone] User_6449
07.04.2011
Original von kleine|details
Ich glaube du bist mit dem ganzen Negativ-Positiv-Kram mächtig auf dem Holzweg. Digitale Bildverarbeitung läuft ganz anders ab.
Das ist gut möglich und deshalb habe ich mir zur Information mal
angeschaut was Du so aus Bildern machst.
Resumé:
Mein Holzweg ist besser als alle Deine unsinnigen Berechnungen.
Ist aber nicht böse gemeint, denn vielen fehlen Grundkenntnisse
der Fotografie und es trifft nicht nur Dich allein.
Viele Grüße
Peter
#92Report
07.04.2011
Original von Peter Herhold
[quote]Original von kleine|details
Ich glaube du bist mit dem ganzen Negativ-Positiv-Kram mächtig auf dem Holzweg. Digitale Bildverarbeitung läuft ganz anders ab.
Das ist gut möglich und deshalb habe ich mir zur Information mal
angeschaut was Du so aus Bildern machst.
Resumé:
Mein Holzweg ist besser als alle Deine unsinnigen Berechnungen.
Ist aber nicht böse gemeint, denn vielen fehlen Grundkenntnisse
der Fotografie und es trifft nicht nur Dich allein.
Viele Grüße
Peter[/quote]
Schön, dass du unsachlich wirst. Ich schätze mal, du willst mir nur nicht das ausgelobte Bier ausgeben :-)
LG
k|d
#93Report
[gone] falschbelichtung ( o.O )
07.04.2011
Alter... jetzt schreib ich mir nen Wolf für mein 3. Edit und dann sagt mir Onkel Forum, dass ich nimmer darf weil ich zu langsam war. :-/
/edit: Um Euch aber dennoch nicht zu verschonen:
Das oben beschriebene Glas wiederum ist in aller Regel aber nicht ausreichend, um die Ursprünglich vorhandene Menge aufzunehmen. Ist mein Glas dabei ein CMOS-Chip, hab ich dabei dann ziemlich viel daneben gekippt und hab die Suppe schnell weggewischt. Ist mein Glas nen CCD Chip, hab ich das Wasser auf dem Tisch einfach erstmal ignoriert. (Aus diesem Grund ist P1 auch kein gutes Beispiel, weil die haben nen CCD der "ein wenig" andere Ergebnisse liefert als der CMOS aus den meisten DSLRs)
Und DAS ist der Punkt, der für einen Raw-Konverter spricht. Der kann nämlich im Falle dessen, dass ich Feststelle, dass ich das Wasser dass ich auf den Tisch gekleckert habe, wie ein Schwamm funktionieren und damit Wasser aufnehmen und auf das Glas gießen, damit ein bisschen was vom anderen Wasser rauströpfelt.
Für den Verhältnismäßig geringen Spielraum, den man dabei mit einem Raw aus einer Cam mit CMOS-Chip hat, ist das aber ehrlich gesagt Erbsen zählen. Bei nem CCD ist das wesentlich spannender. Wenngleich das in beiden Fällen auch grundsätzlich nur in Haarspalterischen Dimensionen möglich ist.
(Zur kurzen Erläuterung: Ein CMOS-Chip gilt bei (rund, eher aber weniger) 70% Sättigung als "voll", ein CCD bei 100% Sättigung. Angenommen die Chips haben jeweils 12 Bit, die das totale Sättigungsvolumen von 60% abdecken können, hätte der CMOS einen Spielraum von 5% in beide Richtungen durch den Raw-Konverter, der CCD aber je 20% - wobei das alles (bis auf das Sättigungslimit) recht fiktive Zahlen sind - und die Annahme vorraussetzt, dass der Raw-Konverter auch wirklich weiß, was der Sensor machen tät und letzteres nicht nur per Gamma-Verschiebung vorgegaukelt wird.)
Defacto gewinnt man dadurch allerdings auch keine bei der Aufnahme nicht vorhandenen Details die außerhalb des durch die Bitzahl beschränkten, aufgenommenen Farbraumes liegen, wieder zurück. Lediglich das, was der Sensor auch tatsächlich in die Bit's der Raw-Datei geschrieben hat, ist vorhanden - alles andere - selbst das, was der Sensor technisch hätte sehen können, ist verloren. Die Verschiebung ist also weniger ein Verlustausgleich, sondern eine Verlustverschiebung.
/edit: Um Euch aber dennoch nicht zu verschonen:
Das oben beschriebene Glas wiederum ist in aller Regel aber nicht ausreichend, um die Ursprünglich vorhandene Menge aufzunehmen. Ist mein Glas dabei ein CMOS-Chip, hab ich dabei dann ziemlich viel daneben gekippt und hab die Suppe schnell weggewischt. Ist mein Glas nen CCD Chip, hab ich das Wasser auf dem Tisch einfach erstmal ignoriert. (Aus diesem Grund ist P1 auch kein gutes Beispiel, weil die haben nen CCD der "ein wenig" andere Ergebnisse liefert als der CMOS aus den meisten DSLRs)
Und DAS ist der Punkt, der für einen Raw-Konverter spricht. Der kann nämlich im Falle dessen, dass ich Feststelle, dass ich das Wasser dass ich auf den Tisch gekleckert habe, wie ein Schwamm funktionieren und damit Wasser aufnehmen und auf das Glas gießen, damit ein bisschen was vom anderen Wasser rauströpfelt.
Für den Verhältnismäßig geringen Spielraum, den man dabei mit einem Raw aus einer Cam mit CMOS-Chip hat, ist das aber ehrlich gesagt Erbsen zählen. Bei nem CCD ist das wesentlich spannender. Wenngleich das in beiden Fällen auch grundsätzlich nur in Haarspalterischen Dimensionen möglich ist.
(Zur kurzen Erläuterung: Ein CMOS-Chip gilt bei (rund, eher aber weniger) 70% Sättigung als "voll", ein CCD bei 100% Sättigung. Angenommen die Chips haben jeweils 12 Bit, die das totale Sättigungsvolumen von 60% abdecken können, hätte der CMOS einen Spielraum von 5% in beide Richtungen durch den Raw-Konverter, der CCD aber je 20% - wobei das alles (bis auf das Sättigungslimit) recht fiktive Zahlen sind - und die Annahme vorraussetzt, dass der Raw-Konverter auch wirklich weiß, was der Sensor machen tät und letzteres nicht nur per Gamma-Verschiebung vorgegaukelt wird.)
Defacto gewinnt man dadurch allerdings auch keine bei der Aufnahme nicht vorhandenen Details die außerhalb des durch die Bitzahl beschränkten, aufgenommenen Farbraumes liegen, wieder zurück. Lediglich das, was der Sensor auch tatsächlich in die Bit's der Raw-Datei geschrieben hat, ist vorhanden - alles andere - selbst das, was der Sensor technisch hätte sehen können, ist verloren. Die Verschiebung ist also weniger ein Verlustausgleich, sondern eine Verlustverschiebung.
#94Report
07.04.2011
Original von falschbelichtung ( o.O )
Alter... jetzt schreib ich mir nen Wolf für mein 3. Edit und dann sagt mir Onkel Forum, dass ich nimmer darf weil ich zu langsam war. :-/
Das Beispiel hat ja auch etwas stark gehinkt ;) Vielleicht wenn man die AD-Wandlung mit Kugeln macht... also dein Glas gegen "ungefähr" so viele Kugeln aufwiegen. Dann dein Kanne und dann das gleiche Gewicht "wieder ungefähr" mit 8x größeren Kugeln annähern. Das käme so ungefär der Idee nahe :-)
LG
k|d
#95Report
07.04.2011
Original von falschbelichtung ( o.O )
Alter... jetzt schreib ich mir nen Wolf für mein 3. Edit und dann sagt mir Onkel Forum, dass ich nimmer darf weil ich zu langsam war. :-/
äh...*anmerk* - in dem fall gut find ich... ick hab die entwicklung der edits verfolgt. am anfang fand ichs am besten:)
erstaunlicherweise gehen die protagonisten der gegenrichtung im gesamten thread NIE darauf ein, was kleine details schon sehr früh erklärt hat, nämlich WO im bildentstehungsprozess bereits digitalisiert wird und WAS dabei passiert (stichwort bayer, was ja mehrfach genannt wurde). es wird schlicht ignoriert...
du hast das nochma mit der vereinfachung sehr schön einfach dargestellt (kleine details aber früher auch schon).
wer das eben nicht versteht, will es eben nicht verstehen...
lg
h
#96Report
[gone] User_6449
07.04.2011
Original von falschbelichtung ( o.O )
Mit anderen Worten: Die Dateiformen, um die hier diskutiert wird, sind nix anderes als irgendwelche Container. Was von vornherein nicht da ist, weils in den Ausgangscontainer nicht reinpasst, kann auch icht ohne weiteres dazugemogelt werden.
So ist es ...
Original von falschbelichtung ( o.O )
Wenn ich im Raw-Konverter die Belichtung 2 Blendenstufen runtersetze, ist das nix anderes als wenn ich im Bildbearbeitungsprogram das Gesamtgamma um X% runterziehe.
Das haut nicht hin, denn mit der Funktion "Belichtung" im RAW Konverter schneidest
Du etwas von den Tonwerten ab, oder streckst sie entsprechend wenn etwas fehlt
(unterbelichtet ist).
Der Gammawert verschiebt nur den durchschnittlichen Tonwertumfang und ändert
nichts an der Belichtung.
Und mit "Belichtung" meine ich nicht die Belichtung des Fotos bei der Aufnahme,
sondern die Belichtung bei der Umwandlung von RAW auf Bitmap.
Viele Grüße
Peter
#97Report
07.04.2011
Original von Peter Herhold
Das ist gut möglich und deshalb habe ich mir zur Information mal
angeschaut was Du so aus Bildern machst.
Leider stimmt das mit dem Holzweg. Ich vermute mal, Du kommst aus analogen Zeiten und hast einfach Schwierigkeiten das auf digitale Informationsverarbeitung umzudenken
Sieh es mal ganz einfach
Ein Raw hat 14-bit um seine Informationen unterzubringen. Ein Tiff hat 16-bit
Wer von beiden bringt mehr Information in seinem Dateiformat unter?
#98Report
[gone] falschbelichtung ( o.O )
07.04.2011
Original von kleine|details
[quote]Original von falschbelichtung ( o.O )
Alter... jetzt schreib ich mir nen Wolf für mein 3. Edit und dann sagt mir Onkel Forum, dass ich nimmer darf weil ich zu langsam war. :-/
Das Beispiel hat ja auch etwas stark gehinkt ;) Vielleicht wenn man die AD-Wandlung mit Kugeln macht... also dein Glas gegen "ungefähr" so viele Kugeln aufwiegen. Dann dein Kanne und dann das gleiche Gewicht "wieder ungefähr" mit 8x größeren Kugeln annähern. Das käme so ungefär der Idee nahe :-)
LG
k|d[/quote]
Mein Statement bezog sich auch auf das, was nach dem Auftreffen von Licht auf Kristall mit daraus resultierendem Spannungswert und dessen Umwandlung in ein Bit'chen passiert. Lediglich der ganz vordere Teil mit dem Wasser reinkippen ist das, was Du beschreibst. ;-)
#99Report
[gone] User_6449
07.04.2011
Original von Herwig
erstaunlicherweise gehen die protagonisten der gegenrichtung im gesamten thread NIE darauf ein, was kleine details schon sehr früh erklärt hat, nämlich WO im bildentstehungsprozess bereits digitalisiert wird und WAS dabei passiert (stichwort bayer, was ja mehrfach genannt wurde). es wird schlicht ignoriert...
Die Protagonisten der Gegenseite (speziell ich) gehen nicht darauf ein,
da die 1:1 Umrechnung von "Kleine Details" für eine Konvertierung der
Blendenstufen einer RAW Datei auf den geringeren Dynamikumfang
eines Fotopositivs schlichtweg irrelevant ist.
1:1 geht es nicht und man braucht zwangsläufig eine Komprimierung,
um den großen Dynamikumfang der RAW Datei in einen viel kleineren
Dynamikumfang eines Fotopositivs zu konvertieren. Also in eine TIF
Datei, die man dann zum Belichter, zum Drucker an den Monitor oder
zur Weiterverarbeitung an Photoshop gibt.
Genau das macht man mit dem RAW Konverter ...
Viele Grüße
Peter
#100Report
Topic has been closed
gar keine kluge Idee
48
mir doch egal
33
eine angemessene Strategie
16
97 Votes
Started by
- 315Posts
- 8,498Views
Ok, diesen Schritt hast du in jedem Fall - das versuche ich ja die ganze Zeit zu erklären :-)
Danach hast du aus 4 Zahlenwerten für die Sensorpunkte 12 Zahlenwerte für 4 Bildpunkte gemacht. Alle weiteren Operationen werden auf dieses Ergebnis angewendet, nicht auf die 4 Originalwerte.
Und das kannst du nicht - du müsstest irgendwie vor oder in den Bayer-Prozess eingreifen können - und das geht in der Regel nicht. Spielt auch keine Rolle, weil du diese Änderungen ja wenn dann in jedem Fall machen könntest.
Gradationskurven u.ä. werden ja in jedem Fall auf die RGB-Werte angewendet. Da verlierst du auch nichts, wenn du die zunächst rausschreibst und alles in PS machst.
Klar, wenn man im Konverter-Programm korrigiert und dann nochmal in PS, wird das Ergebnis u.U. unvorhersehbar.
LG
k|d