Bearbeitung in Photoshop oder RAW-Konverter...? 315
07.04.2011
Original von plain
Nicht nur umgewandelt, sondern zu 2/3 hinzuerfunden. Und deshalb ist das schon eine recht außergewöhnliche Konvertierung.
Ich kann aber bei jedem Bild Information dazuerfinden die nicht da ist. Das macht diese Information deswegen nicht richtiger.
JPGs werden auch auf die geringstmögliche Information komprimiert. Der Rest wird erst beim Dekomprimieren wieder erzeugt und zwar so, daß das Auge ausgetrickst wird
#122Report
[gone] User_6449
07.04.2011
Original von Herwig
@peter herold:
warum beantwortest du mir meine frage an dich nicht?
oder überlesen?
kann ja ma passieren...
danke und lg
h
Die Antwort steht hier: Klick
Was das zählen von Pixeln anbetrifft solltest Du Dich aber
besser an "Kleine Details" wenden, denn dafür bin ich nicht
unbedingt der passende Ansprechpartner ...
Viele Grüße
Peter
#123Report
Original von Pixelspalter
[quote]Original von plain
Nicht nur umgewandelt, sondern zu 2/3 hinzuerfunden. Und deshalb ist das schon eine recht außergewöhnliche Konvertierung.
Ich kann aber bei jedem Bild Information dazuerfinden die nicht da ist. Das macht diese Information deswegen nicht richtiger.
JPGs werden auch auf die geringstmögliche Information komprimiert. Der Rest wird erst beim Dekomprimieren wieder erzeugt und zwar so, daß das Auge ausgetrickst wird[/quote]
Naja, ist ja schon was anderes. Weil ein RAW ist einfach noch kein Bild, weil wichtige Informationen fehlen. Beim JPEG waren die ursprünglich ja mal vorhanden - beim RAW waren die aber nie da und müssen erst hinzugefügt werden, damit ein Bild entsteht.
Das macht ja das ganze Problem aus - sonst wäre es ja tatsächlich nur eine Wald-und-Wiesen-Konvertierung wie bspw. vom TIFF zum JPEG.
#124Report
07.04.2011
Original von plain
Naja, ist ja schon was anderes. Weil ein RAW ist einfach noch kein Bild, weil wichtige Informationen fehlen. Beim JPEG waren die ursprünglich ja mal vorhanden - beim RAW waren die aber nie da und müssen erst hinzugefügt werden, damit ein Bild entsteht.
Das macht ja das ganze Problem aus - sonst wäre es ja tatsächlich nur eine Wald-und-Wiesen-Konvertierung wie bspw. vom TIFF zum JPEG.
Das sehe ich anders. Das einzige, was bei einem Raw noch nicht vorhanden ist, ist Farbinformation. Aber die ganzen Helligkeitsinformationen sind da
Das ist nichts anderes als ein Bild im Lab-Modus. Auch hier wird Helligkeit unabhängig von der Farbe gespeichert.
Und ob ich jetzt die Farbe durch Interpolation der Nachbarpixel errechne oder durch Umwandlung von drei simplen Zahlenwerten in RGB-Kanäle......das ist wie man in Bayern so schön sagt "G'hupft wia G'sprunga"
Ich mache aus simplen Zahlen etwas, was ich fürs Auge darstellen kann.
#125Report
Original von Pixelspalter
[quote]Original von plain
Naja, ist ja schon was anderes. Weil ein RAW ist einfach noch kein Bild, weil wichtige Informationen fehlen. Beim JPEG waren die ursprünglich ja mal vorhanden - beim RAW waren die aber nie da und müssen erst hinzugefügt werden, damit ein Bild entsteht.
Das macht ja das ganze Problem aus - sonst wäre es ja tatsächlich nur eine Wald-und-Wiesen-Konvertierung wie bspw. vom TIFF zum JPEG.
Das sehe ich anders. Das einzige, was bei einem Raw noch nicht vorhanden ist, ist Farbinformation. Aber die ganzen Helligkeitsinformationen sind da
Das ist nichts anderes als ein Bild im Lab-Modus. Auch hier wird Helligkeit unabhängig von der Farbe gespeichert.
Und ob ich jetzt die Farbe durch Interpolation der Nachbarpixel errechne oder durch Umwandlung von drei simplen Zahlenwerten in RGB-Kanäle......das ist wie man in Bayern so schön sagt "G'hupft wia G'sprunga"
Ich mache aus simplen Zahlen etwas, was ich fürs Auge darstellen kann.[/quote]
Nein, das ist nicht wie bei LAB. Du hast weder eine Farbinformation noch eine Helligkeit - Du hast die Helligkeit bezogen auf einen Ausschnitt des Farbspektrums. Das ist was anderes, weil Du nicht weißt, wie groß die Helligkeit im restlichen Farbspektrum ist. Du hast tatsächlich nur einen Farbkanal - und die anderen beiden (die ja völlig unabhängig voneinander sind und sich deshalb nicht einfach voneinander ableiten lassen) fehlen Dir aber komplett.
#126Report
[gone] falschbelichtung ( o.O )
07.04.2011
Original von Pixelspalter
[quote]Original von plain
Nicht nur umgewandelt, sondern zu 2/3 hinzuerfunden. Und deshalb ist das schon eine recht außergewöhnliche Konvertierung.
Ich kann aber bei jedem Bild Information dazuerfinden die nicht da ist. Das macht diese Information deswegen nicht richtiger.
JPGs werden auch auf die geringstmögliche Information komprimiert. Der Rest wird erst beim Dekomprimieren wieder erzeugt und zwar so, daß das Auge ausgetrickst wird[/quote]
Das ist aber nicht das gleiche. Bzw. nicht zu vergleichen.
"Dazuerfinden" ist zudem auch nicht das richtige Wort, die Informationen sind ja schon vollständig da, die Bayer-Interpolation ist ja gewissermaßen nur die Art der Auswertung. Oder überspitzt gesagt, eine Konvertierung.
Ob ich für jeden Pixel nun die nach dem Bayer-Schema verwendete Schablone ganz banal anwende und tatsächlich dann aus nem 8MP Bild 2MP in rot, 2MP in Blau und 4MP in Grün bekomm, oder halt alles bunt durchmische, spielt für die resultierende Bit-Anzahl ja keine Rolle (für die Dateigröße vielleicht, nicht aber für die Bittiefe).
Für solche Sachen wie "Blende", "Belichtung" oder gar "ISO" ist das aber vollkommen nebensächlich. Das passiert nämlich genau da, wo aus Lichtteilchen kleine Digitalteilchen werden: Im Sensor. Oder konkret gesagt in der vielzitierten A/D-Umwandlung.
Das kann man dann im Raw-Konverter eben auch nicht "echt" verändern, sondern nur genauso schlecht wie recht mit nem mindestens gleichbittigen Tiff in Photoshop.
Was Weißabgleich, Kontraste und Co. angeht, ist das eher ne Geschmacksfrage wo man das realisiert. Technisch ist es zu diesem Zeitpunkt nämlich schon total egal ob man nun in PS oder im Raw-Tool was wegschnippelt oder hinzubastelt - "besser" wirds in beiden Fällen nicht.
/edit: Nur der Vollständigkeit halber: Die Art der Bayer-Interpretation ist ja jetzt nicht so gigantisch Unterschiedlich, respektive, das Resultat ist meist sehr ähnlich, wenngleich der Weg vielleicht auch unterschiedlich ist. Zumindest hab ich noch nie davon gehört, dass jemand für unterschiedliche Aufnahmen unterschiedliche Interpolations-Rechnungen verwendet, analog zum Analogen "ich nehm Film xy, weil der wärmer/kälter ist".
#127Report
07.04.2011
Naja, scheinbar ist es ja nicht egal, ob man an der RAW oder TIF Datei arbeitet.
Das kleine Detail mit der großen Klappe hat scheinbar mittlerweile klein beigeben müssen.
Das kleine Detail mit der großen Klappe hat scheinbar mittlerweile klein beigeben müssen.
#128Report
07.04.2011
Original von Peter Herhold
[quote]Original von Herwig
@peter herold:
warum beantwortest du mir meine frage an dich nicht?
oder überlesen?
kann ja ma passieren...
danke und lg
h
Die Antwort steht hier: Klick
Was das zählen von Pixeln anbetrifft solltest Du Dich aber
besser an "Kleine Details" wenden, denn dafür bin ich nicht
unbedingt der passende Ansprechpartner ...
Viele Grüße
Peter[/quote]
vielen dank peter
ich hatte sowas in der art erwartet.
mein respekt: du kannst verlinken und weisst, dass es google gibt und dass man dort nach begriffen suchen kann. kann ooch nich jeder!
immahin!
h
#129Report
[gone] falschbelichtung ( o.O )
07.04.2011
Öhm... bezugnehmend auf meinen letzten Post:
Kann das mal jemand überprüfen? Gibt's überhaupt Programme bei denen man nen andere Interpretation auswählen kann? Ich hab nur DPP zur Hand - da find ich derlei Einstellungen nicht.
Kann das mal jemand überprüfen? Gibt's überhaupt Programme bei denen man nen andere Interpretation auswählen kann? Ich hab nur DPP zur Hand - da find ich derlei Einstellungen nicht.
#130Report
Original von falschbelichtung ( o.O )
[quote]Original von Pixelspalter
[quote]Original von plain
Nicht nur umgewandelt, sondern zu 2/3 hinzuerfunden. Und deshalb ist das schon eine recht außergewöhnliche Konvertierung.
Ich kann aber bei jedem Bild Information dazuerfinden die nicht da ist. Das macht diese Information deswegen nicht richtiger.
JPGs werden auch auf die geringstmögliche Information komprimiert. Der Rest wird erst beim Dekomprimieren wieder erzeugt und zwar so, daß das Auge ausgetrickst wird[/quote]
Das ist aber nicht das gleiche. Bzw. nicht zu vergleichen.
"Dazuerfinden" ist zudem auch nicht das richtige Wort, die Informationen sind ja schon vollständig da, die Bayer-Interpolation ist ja gewissermaßen nur die Art der Auswertung. Oder überspitzt gesagt, eine Konvertierung.
Ob ich für jeden Pixel nun die nach dem Bayer-Schema verwendete Schablone ganz banal anwende und tatsächlich dann aus nem 8MP Bild 2MP in rot, 2MP in Blau und 4MP in Grün bekomm, oder halt alles bunt durchmische, spielt für die resultierende Bit-Anzahl ja keine Rolle (für die Dateigröße vielleicht, nicht aber für die Bittiefe).
Für solche Sachen wie "Blende", "Belichtung" oder gar "ISO" ist das aber vollkommen nebensächlich. Das passiert nämlich genau da, wo aus Lichtteilchen kleine Digitalteilchen werden: Im Sensor. Oder konkret gesagt in der vielzitierten A/D-Umwandlung.
Das kann man dann im Raw-Konverter eben auch nicht "echt" verändern, sondern nur genauso schlecht wie recht mit nem mindestens gleichbittigen Tiff in Photoshop.
Was Weißabgleich, Kontraste und Co. angeht, ist das eher ne Geschmacksfrage wo man das realisiert. Technisch ist es zu diesem Zeitpunkt nämlich schon total egal ob man nun in PS oder im Raw-Tool was wegschnippelt oder hinzubastelt - "besser" wirds in beiden Fällen nicht.
/edit: Nur der Vollständigkeit halber: Die Art der Bayer-Interpretation ist ja jetzt nicht so gigantisch Unterschiedlich, respektive, das Resultat ist meist sehr ähnlich, wenngleich der Weg vielleicht auch unterschiedlich ist. Zumindest hab ich noch nie davon gehört, dass jemand für unterschiedliche Aufnahmen unterschiedliche Interpolations-Rechnungen verwendet, analog zum Analogen "ich nehm Film xy, weil der wärmer/kälter ist".[/quote]
Das stimmt so nicht ganz - und deshalb ist das schon 'dazuerfunden'.^^
Weil man für jeden Punkt ja nur eine Teilhelligkeit hat. Nicht die gesamte - weil bestimmte Frequenzbereiche des Lichts bei jedem Punkt herausgefiltert werden.
Wenn ich einen 'grünen Punkt' habe, dann ist da nur die Information des Grünkanals abgebildet. Was an diesem Punkt aber im Rot- und Blaukanal passiert, weiß ich nicht. Das muß ich erraten.
Sicherlich wählt man nicht den passenden Algorithmus aus. Aber es gibt Algorithmen, die mehr Artefakte erzeugen als andere. Weil sie bspw. keine Kanten beachten und deshalb beim Erraten/ Dazuerfinden der anderen Kanäle Farbinformationen über die Objektkanten hinausfliessen lassen. Das gibt dann bspw. diese hübschen roten Ränder an Körperkanten. Da werden Farbinformationen (hoher Wert im Rotkanal), die eigentlich für den Arm gelten, rübergezogen auf Pixel, die eigentlich nicht mehr auf dem Arm liegen. Weil aber in diesem Fall vor der Interpolation nicht nach Kanten gesucht wurde (und zum Berechnen der fehlenden Kanäle bspw. einfach nur der Mittelwert der umliegenden Pixel herangezogen wurde), werden diese Farbinformationen eben auch auf Pixel übertragen für die sie eigentlich nicht mehr gelten.
Deshalb ist die Interpolation nicht untrivial.
#131Report
Original von falschbelichtung ( o.O )
Öhm... bezugnehmend auf meinen letzten Post:
Kann das mal jemand überprüfen? Gibt's überhaupt Programme bei denen man nen andere Interpretation auswählen kann? Ich hab nur DPP zur Hand - da find ich derlei Einstellungen nicht.
Wäre mir auch neu. Aber das ist einer der Qualitätsunterschiede zwischen den Konvertern - nämlich die Güte des zugrundeliegenden Algorithmus.
#132Report
07.04.2011
Original von falschbelichtung ( o.O )
[quote]Original von Pixelspalter
[quote]Original von plain
Nicht nur umgewandelt, sondern zu 2/3 hinzuerfunden. Und deshalb ist das schon eine recht außergewöhnliche Konvertierung.
Ich kann aber bei jedem Bild Information dazuerfinden die nicht da ist. Das macht diese Information deswegen nicht richtiger.
JPGs werden auch auf die geringstmögliche Information komprimiert. Der Rest wird erst beim Dekomprimieren wieder erzeugt und zwar so, daß das Auge ausgetrickst wird[/quote]
Das ist aber nicht das gleiche. Bzw. nicht zu vergleichen.
"Dazuerfinden" ist zudem auch nicht das richtige Wort, die Informationen sind ja schon vollständig da, die Bayer-Interpolation ist ja gewissermaßen nur die Art der Auswertung. Oder überspitzt gesagt, eine Konvertierung.
Ob ich für jeden Pixel nun die nach dem Bayer-Schema verwendete Schablone ganz banal anwende und tatsächlich dann aus nem 8MP Bild 2MP in rot, 2MP in Blau und 4MP in Grün bekomm, oder halt alles bunt durchmische, spielt für die resultierende Bit-Anzahl ja keine Rolle (für die Dateigröße vielleicht, nicht aber für die Bittiefe).
Für solche Sachen wie "Blende", "Belichtung" oder gar "ISO" ist das aber vollkommen nebensächlich. Das passiert nämlich genau da, wo aus Lichtteilchen kleine Digitalteilchen werden: Im Sensor. Oder konkret gesagt in der vielzitierten A/D-Umwandlung.
Das kann man dann im Raw-Konverter eben auch nicht "echt" verändern, sondern nur genauso schlecht wie recht mit nem mindestens gleichbittigen Tiff in Photoshop.
Was Weißabgleich, Kontraste und Co. angeht, ist das eher ne Geschmacksfrage wo man das realisiert. Technisch ist es zu diesem Zeitpunkt nämlich schon total egal ob man nun in PS oder im Raw-Tool was wegschnippelt oder hinzubastelt - "besser" wirds in beiden Fällen nicht.
/edit: Nur der Vollständigkeit halber: Die Art der Bayer-Interpretation ist ja jetzt nicht so gigantisch Unterschiedlich, respektive, das Resultat ist meist sehr ähnlich, wenngleich der Weg vielleicht auch unterschiedlich ist. Zumindest hab ich noch nie davon gehört, dass jemand für unterschiedliche Aufnahmen unterschiedliche Interpolations-Rechnungen verwendet, analog zum Analogen "ich nehm Film xy, weil der wärmer/kälter ist".[/quote]
so isset.
und wurd aber ja fast identisch von kd schon auch weiter oben mindestens 3 mal so oder so ähnlich versucht zu erklären... auch da ohne erfolg. ich bin mir sicher, dass es erneut keinen erfolg haben wird bei peter (bei image worx sowieso nicht...das war aber von anfang an klar...
letztlich muss man sich allerdings mal fragen, warum man weiter diskutiert.
was mir hier auffällt ist, dass peter und auch image worx mehr auf die praktische seite hindeuten.
und da haben sie aus meiner sicht sogar recht, denn die verwendeten algorithmen sind in guten rawkonvertern tatsächlich schlicht einfacher zu bedienen und auch schneller als der weg, den man in photoshop gehen müsste bei händischer bearbeitung.
nun können peter und imageworx doch gern weiterhin auch glauben, dass der rawkonverter mit dem dateihaufen aus 14 bit, die in die datei in formen von einsen und nullen geschrieben wurde geschickte "zwischenbits" herausholt oder "gleitend" rechnen kann und ihre bilder im glauben, der konverter könne das besser .
das ist ihr gutes recht und sie haben eben auch aus arbeitspraktischerweise recht (denn der rawkonverter macht das "optisch" in gewisser weise sogar...(weil er viel schneller die passenden rechenschritte durchführt als man das in ps händisch machen müsste...).
und das beispiel, was imageworx hier gezeigt hat ist sogar in der tat ein gutes. mit photoshop braucht man ein bischen länger, um zum resultat zu kommen, was ausm konverter schneller rauskommt.
rein technisch hingegen hat kleine details und alle anderen absolut recht und es ist sehr simpel erklärt worden.
die ursprüngliche frage war ja, was zu bevorzugen ist. viel im konverter oder viel in ps.
und die antwort lautet nach wie vor aus meiner sicht hier: egal aus technischer, nicht egal aus arbeitspragmatischer sicht.
und damit wünsch ich allen (!) diskutanten noch n schöne weiterdiskussion und ne gute nacht.
lg
h
edit: syntaxunfug.
#133Report
[gone] falschbelichtung ( o.O )
07.04.2011
Original von plain
Das stimmt so nicht ganz - und deshalb ist das schon 'dazuerfunden'.^^
Weil man für jeden Punkt ja nur eine Teilhelligkeit hat. Nicht die gesamte - weil bestimmte Frequenzbereiche des Lichts bei jedem Punkt herausgefiltert werden.
Wenn ich einen 'grünen Punkt' habe, dann ist da nur die Information des Grünkanals abgebildet. Was an diesem Punkt aber im Rot- und Blaukanal passiert, weiß ich nicht. Das muß ich erraten.
Sicherlich wählt man nicht den passenden Algorithmus aus. Aber es gibt Algorithmen, die mehr Artefakte erzeugen als andere. Weil sie bspw. keine Kanten beachten und deshalb beim Erraten/ Dazuerfinden der anderen Kanäle Farbinformationen über die Objektkanten hinausfliessen lassen. Das gibt dann bspw. diese hübschen roten Ränder an Körperkanten. Da werden Farbinformationen (hoher Wert im Rotkanal), die eigentlich für den Arm gelten, rübergezogen auf Pixel, die eigentlich nicht mehr auf dem Arm liegen. Weil aber in diesem Fall vor der Interpolation nicht nach Kanten gesucht wurde (und zum Berechnen der fehlenden Kanäle bspw. einfach nur der Mittelwert der umliegenden Pixel herangezogen wurde), werden diese Farbinformationen eben auch auf Pixel übertragen für die sie eigentlich nicht mehr gelten.
Deshalb ist die Interpolation nicht untrivial.
Das es nicht untrivial ist, hab ich auch nicht behauptet. Einigen wir uns auf "Dazu-Konvertiert"? :-)
Wie aber sähe es dann mit Sensoren aus, die nicht in das Bayer-Beuteschema passen? Ein Raw von nem Foveon hätte ja in jedem Fall schon die entsprechenden Informationen. Oder Blick ich da was nich?
/edit: Ich schließ mich inhaltlich dem was Herwig sagt in den meisten Punkten an.
#134Report
Original von falschbelichtung ( o.O )
[quote]Original von plain
Das stimmt so nicht ganz - und deshalb ist das schon 'dazuerfunden'.^^
Weil man für jeden Punkt ja nur eine Teilhelligkeit hat. Nicht die gesamte - weil bestimmte Frequenzbereiche des Lichts bei jedem Punkt herausgefiltert werden.
Wenn ich einen 'grünen Punkt' habe, dann ist da nur die Information des Grünkanals abgebildet. Was an diesem Punkt aber im Rot- und Blaukanal passiert, weiß ich nicht. Das muß ich erraten.
Sicherlich wählt man nicht den passenden Algorithmus aus. Aber es gibt Algorithmen, die mehr Artefakte erzeugen als andere. Weil sie bspw. keine Kanten beachten und deshalb beim Erraten/ Dazuerfinden der anderen Kanäle Farbinformationen über die Objektkanten hinausfliessen lassen. Das gibt dann bspw. diese hübschen roten Ränder an Körperkanten. Da werden Farbinformationen (hoher Wert im Rotkanal), die eigentlich für den Arm gelten, rübergezogen auf Pixel, die eigentlich nicht mehr auf dem Arm liegen. Weil aber in diesem Fall vor der Interpolation nicht nach Kanten gesucht wurde (und zum Berechnen der fehlenden Kanäle bspw. einfach nur der Mittelwert der umliegenden Pixel herangezogen wurde), werden diese Farbinformationen eben auch auf Pixel übertragen für die sie eigentlich nicht mehr gelten.
Deshalb ist die Interpolation nicht untrivial.
Das es nicht untrivial ist, hab ich auch nicht behauptet. Einigen wir uns auf "Dazu-Konvertiert"? :-)
[/quote]
OK^^
Aber da kommt ja genau auch meine ursprüngliche Frage her: schafft der RAW-Konverter das alleine oder muß ich ihm da etwas auf die Sprünge helfen (und im RAW-Konverter herumdoktern - auf die Gefahr hin, daß ich auch die Originaldaten angreife)...
Wie aber sähe es dann mit Sensoren aus, die nicht in das Bayer-Beuteschema passen? Ein Raw von nem Foveon hätte ja in jedem Fall schon die entsprechenden Informationen. Oder Blick ich da was nich?
Da dürfte man das Problem eigentlich nicht haben, wenn ich es recht sehe. Und könnte eigentlich gleich in PS rumhantieren... Glaube ich^^
#135Report
[gone] User_6449
07.04.2011
Wir warten gespannt auf das RAW Original von "Image Worx",
denn das wird zeigen ob man mehr rausholen kann als aus der
TIF Datei oder nicht.
Im Zweifelsfall einfach per E-Mail an mich senden und ich mache
dann die passende Bearbeitung ...
Viele Grüße
Peter
denn das wird zeigen ob man mehr rausholen kann als aus der
TIF Datei oder nicht.
Im Zweifelsfall einfach per E-Mail an mich senden und ich mache
dann die passende Bearbeitung ...
Viele Grüße
Peter
#136Report
[gone] falschbelichtung ( o.O )
07.04.2011
Original von plain
OK^^
Aber da kommt ja genau auch meine ursprüngliche Frage her: schafft der RAW-Konverter das alleine oder muß ich ihm da etwas auf die Sprünge helfen (und im RAW-Konverter herumdoktorn - auf die Gefahr hin, daß ich auch die Originaldaten angereife)...
Naja... in anbetracht dessen, dass man auf den vom Konverter verwendeten Weg ja im Grunde keinen Einfluss hat (außer in der Wahl des Konverters), würde ich jetzt pauschal sagen: Des is totaaal egaaal.
#137Report
07.04.2011
Original von Image Worx
Naja, scheinbar ist es ja nicht egal, ob man an der RAW oder TIF Datei arbeitet.
Das kleine Detail mit der großen Klappe hat scheinbar mittlerweile klein beigeben müssen.
Apropos klein beigeben. Jetzt hab ich immer noch kein Referenz-Bild von Dir gesehen. Und das obwohl ich Dich sogar schon mal extra darauf hingewiesen habe.
Ich meine die Aktion mit dem "Mach was draus" war doch von Dir gestartet. Dann solltest Du sie auch zuende bringen
Wenn Du Lightroom als Raw-Konverter benutzt, dann macht es die Sache sogar noch einfacher. Ich hab nämlich dein TIFF auch einfach dort importiert, die Belichtung ganz runtergeregelt, Recovery ganz hoch und Fill-Light ebenso ganz hoch
Dann kann man ja recht gut vergleichen, was dabei rauskommt, wenn Du das gleiche mit dem Original-Raw machst
#138Report
Original von falschbelichtung ( o.O )
[quote]Original von plain
OK^^
Aber da kommt ja genau auch meine ursprüngliche Frage her: schafft der RAW-Konverter das alleine oder muß ich ihm da etwas auf die Sprünge helfen (und im RAW-Konverter herumdoktorn - auf die Gefahr hin, daß ich auch die Originaldaten angereife)...
Naja... in anbetracht dessen, dass man auf den vom Konverter verwendeten Weg ja im Grunde keinen Einfluss hat (außer in der Wahl des Konverters), würde ich jetzt pauschal sagen: Des is totaaal egaaal.[/quote]
Und da bin ich mir eben nicht mehr so sicher. Weil evtl. bessere Konverter (die ich aber nicht besitze und es deshalb nicht ausprobieren kann - war mir bisher ja auch schnuppe^^) bereits in die Interpolation Weißabgleich etc. einbeziehen - und das kann in verschiedenen Situationen möglicherweise Vorteile haben.
Bei den meisten Konvertern müsste das aber egal sein, weil da erst interpoliert wird und dann alle nachfolgenden Bearbeitungsschritte abgearbeitet werden (und die finden dann ja bereits an einer fertig interpolierten Bitmap statt - und das kann dann auch Photoshop).
#139Report
07.04.2011
Original von plain
Wie aber sähe es dann mit Sensoren aus, die nicht in das Bayer-Beuteschema passen? Ein Raw von nem Foveon hätte ja in jedem Fall schon die entsprechenden Informationen. Oder Blick ich da was nich?
Da dürfte man das Problem eigentlich nicht haben, wenn ich es recht sehe. Und könnte eigentlich gleich in PS rumhantieren... Glaube ich^^
X3F mit PS konvertieren? Gar keine gute Idee... Ob Sigma den Algorithmus nicht rausgibt weiß ich nicht, aber der -nach meiner Erfahrung- einzig brauchbare Konverter ist SPP von Sigma. Was Adobe da zusammenrechnet geht garnicht. Oder ich bin zu dämlich... ;-)
#140Report
Topic has been closed
gar keine kluge Idee
48
mir doch egal
33
eine angemessene Strategie
16
97 Votes
Started by
- 315Posts
- 8,543Views
Und was ist eine Bayer-Interpolation außer ein Algorithmus um Daten umzuwandeln?
Ich warte übrigens noch auf Deine Version des Bildes[/quote]
Nicht nur umgewandelt, sondern zu 2/3 hinzuerfunden. Und deshalb ist das schon eine recht außergewöhnliche Konvertierung.