16 bit gegen 8 bit 16
Michael Gundelach - With Design In Mind
04.12.2011
Ich wundere mich gerade ein wenig. Ich hatte bei den Einstellungen nicht ganz aufgepasst und diverse jpg Bilder im Lightroom als Tiff mit 16 bit Farbtiefe abgespeichert, wobei sie mir deutlich schlechter von den Farbübergängen erschienen. Problem ist ja schnell behoben. Einfach als TIF 8 Bit abspeichern, aber woher kommt das? Mehr sollte doch nichts ausmachen,nur weniger, oder?
#1Report
04.12.2011
Wenn ich das richtig verstanden habe, hast du 8bit jpg hochinterpoliert in 16bit tif?
Warum sollten die hochinterpolierten Bilder dann besser ausschaun?
;-)
MfG,VD
Warum sollten die hochinterpolierten Bilder dann besser ausschaun?
;-)
MfG,VD
#2Report
04.12.2011
Wie gesagt, ein Versehen, aber ich dachte sie müssten wenigstens dann gleich aussehen, nicht schlechter... Die zusätzlichen Bit sollten dann doh nur mit 0 gefüllt werden....
#3Report
04.12.2011
Naja, die Zwischenstufen werden dann halt interpoliert, sowas kann ja keine Verbesserung sein?! Im schlimmsten fall entstehn da "Treppenstufen" dann.
Erst in RAW fotografierne, dann 16bit tif generieren und zum Schluss dann das 8bit jpg, so würde es Sinn machen....
:-)
MfG,VD
Erst in RAW fotografierne, dann 16bit tif generieren und zum Schluss dann das 8bit jpg, so würde es Sinn machen....
:-)
MfG,VD
#4Report
[gone] User_6449
04.12.2011
Original von Michael Gundelach - With Design In Mind
Ich wundere mich gerade ein wenig. Ich hatte bei den Einstellungen nicht ganz aufgepasst und diverse jpg Bilder im Lightroom als Tiff mit 16 bit Farbtiefe abgespeichert, wobei sie mir deutlich schlechter von den Farbübergängen erschienen. Problem ist ja schnell behoben. Einfach als TIF 8 Bit abspeichern, aber woher kommt das? Mehr sollte doch nichts ausmachen,nur weniger, oder?
Hast Du vorher in Lightroom irgend etwas an den Grundeinstellungen für die Bilder verändert?
Vielleicht auch nur versehentlich?
Viele Grüße
Peter
#5Report
04.12.2011
Hmmm, müsste ich genauer überprüfen, aber ich denke nicht....
#6Report
04.12.2011
Hallo
Würde jetzt mal tippen, dass dein Monitor 24 Bit wiedergeben kann, also 8 Bit pro Kanal.
Wenn du also ein Bild mit 16 Bit pro Kanal hast, sprengt das den Farbumfang des Monitors d.h. je nach Umwandlung werden mehrere Farben scheinbar zu einer. Da du aber nicht echte 16 Bit Farbtiefe hast, wird dann eine interpolierte Datei wieder komprimiert.
LG
Würde jetzt mal tippen, dass dein Monitor 24 Bit wiedergeben kann, also 8 Bit pro Kanal.
Wenn du also ein Bild mit 16 Bit pro Kanal hast, sprengt das den Farbumfang des Monitors d.h. je nach Umwandlung werden mehrere Farben scheinbar zu einer. Da du aber nicht echte 16 Bit Farbtiefe hast, wird dann eine interpolierte Datei wieder komprimiert.
LG
#7Report
04.12.2011
Würde das dann nicht heissen, dass mein Monitor nie 16 Bit darstellen kann? Egal ob Original oder interpoliert? (müsste das mal genauer eroieren...)
Und im Weiteren wäre dies also ein Darstellungsproblem und würde ein Ausbelichten nicht beeinflussen...
Und im Weiteren wäre dies also ein Darstellungsproblem und würde ein Ausbelichten nicht beeinflussen...
#8Report
04.12.2011
Mh, gibt's denn Anbieter, die in 16bit ausbelichten???
Also die "üblichen", die ich so kenne gehen runter auf 8bit.
Also die "üblichen", die ich so kenne gehen runter auf 8bit.
#9Report
04.12.2011
hm... immer wieder interessant, was man hier für komische Sachen liest...
Also: zuerst einmal werden natürlich nicht irgendwelche Farben erfunden, wenn man ein ursprüngliches 8 bit Bild auf 16 bit speichert. Jeder Bildpunkt hat eine bestimmte Farbe, die natürlich in 16 bit genauso eindeutig dargestellt werden kann als in 8 bit. Die Farbe bleibt in 16 bit also natürlich die selbe, sie wird nur in einem anderen Wert abgespeichert, da natürlich der höhere Farbumfang für die selben Farben andere Werte benötigt.
interpoliert wird hier also gar nichts, es wird ganz normal für jeden Pixel der jeweilige Farbwert gespeichert, da dieser Wert eben 16 statt 8 bit benötigt wird die Datei dabei doppelt so groß. Hat der Bildpunkt in 8 bit beispielsweise den Wert 158/135/119 dann bekommt er in der 16bit Datei den Wert 20303/17348/15292
Auch der Pixel daneben hat einen bestimmten Wert, der einfach ganz genau so abgespeichert wird, und der nächste Pixel wieder usw. usw.
Jeder Punkt hat also einen einzigen, ganz bestimmten Farbwert, wenn man den von 8 auf 16 bit umrechnet/umspeichert, dann bleibt die Farbe an sich immer identisch, da der komplette 8 bit Farbumfang natürlich in 16 bit vollständig enthalten ist. Lediglich anders herum, wenn man von 16 bit auf 8 bit herunterrechnet, dann kann es sein, dass hier die Farben verändert werden müssen, weil ein Wert in 8 bit warscheinlich nicht equivalent existiert, so müssen dann unter Umständen mehrere Farbwerte, die in 16 bit noch unterschiedlich waren in 8 bit zusammengefasst werden, da ja die 8 bit weniger verschiedene Werte erfassen kann.
um bei obigem Beispiel zu bleiben würde dann eben z.B. der Farbwert 20303/17348/15292
und der ziemlich ähnliche Wert 20308/17346/15288 in 158/135/119 gerechnet.
Etwas vereinfacht ausfgedrückt: Wenn ich einen Wert als Volle Zahl (symbolisiert 8 bit) z.b. 10 habe, dann kann ich den selben Wert auch mit Dezimalen (um mehr zwischenwerte zu haben, symbolisiert also 16 bit) als 10,00 schreiben. Rechne ich das Ganze zurück, dann bleibt es immer noch 10. Da ist nichts dazu gekommen bei hochrechnen und da ist bei runterrechnen auch nichts verloren gegangen.
Habe ich aber 10,00 und 10,02 dann muss ich, wenn ich es auf natürliche Zahlen zurückrechne beides als 10 "zusammenfassen"
In diese Richtung verliert man also informationen, die man vorher noch hatte.
Die zusätzlichen Informationen hat man aber nur dann, wenn man das Bild ursprünglich als RAW geschossen und dann als 16 bit ausgegeben hat, vom umspeichern von 8 auf 16 bit kommen aber keine zusätzlichen Informationen (wo sollen die auch her kommen!)
Den Unterschied zwischen 16 und 8 bit kannst du allerdings grundsätzlich gar nicht mit deinen Augen unterscheiden, die zusätzliche Information ist also nur als Information selbst wichtig, da sie für eventuelle Bearbeitungen natürlich sehr schnell von Bedeutung sein können. Dann braucht man vielleicht diese zusätztliche Information der 16 bit Datei, weil bei 8 Bit dateien sonst sehr schnell unschöne Effekte z.B. bei Tonwertkorrekturen, Gradationskurven und ähnlichem entstehen können, weil hier die Tonwerte "gestaucht" und "gespreizt" werden, wenn hier also bei 8 bit relativ wenig information zur Verfügung steht, dann führt das nicht selten zu Abrissen, Rauschen und ähnlichem.
Die angesprochene Sache der Monitor-Darstellung sieht dabei wieder ähnlich aus. Da die Datei nach dem Speichern auf 16 bit immer noch nur die Informationen aus 8 bit enthält (nur eben mit anderen Werten gespeichert) dürfte auch das nicht das Problem verursachen. Denn es sind ja keine zusätzlichen Farben vorhanden mit denen der Monitor Probleme haben könnte, ausserdem sollte ein Monitor genügend Farben darstellen können. Und mehr als 8 bit kann man wie gesagt ohnehin nicht sehen, also auch wenn ein Monitor keine vollen 16 bit darstellen kann sollte er immer noch genügend darstellen, wenn auch einige Farben dabei minimal "zusammengefasst" werden. Der Mensch kann den Unterschied gar nicht sehen.
Nun aber zum Problem des TO...
eigentlich dürfte es das nicht geben. Um also festzustellen, wo genau der Fehler liegt müsste man idealerweise natürlich eine 8 und eine 16 bit Version der Datei im Origninal analysieren können.
Entweder passiert da irgendwo ein Fehler im Farbprofil, oder an einer anderen Stelle, das kann man aber per Ferndiagnose in's Blaue hinein kaum sagen, woran's nun wirklich liegt.
Also: zuerst einmal werden natürlich nicht irgendwelche Farben erfunden, wenn man ein ursprüngliches 8 bit Bild auf 16 bit speichert. Jeder Bildpunkt hat eine bestimmte Farbe, die natürlich in 16 bit genauso eindeutig dargestellt werden kann als in 8 bit. Die Farbe bleibt in 16 bit also natürlich die selbe, sie wird nur in einem anderen Wert abgespeichert, da natürlich der höhere Farbumfang für die selben Farben andere Werte benötigt.
interpoliert wird hier also gar nichts, es wird ganz normal für jeden Pixel der jeweilige Farbwert gespeichert, da dieser Wert eben 16 statt 8 bit benötigt wird die Datei dabei doppelt so groß. Hat der Bildpunkt in 8 bit beispielsweise den Wert 158/135/119 dann bekommt er in der 16bit Datei den Wert 20303/17348/15292
Auch der Pixel daneben hat einen bestimmten Wert, der einfach ganz genau so abgespeichert wird, und der nächste Pixel wieder usw. usw.
Jeder Punkt hat also einen einzigen, ganz bestimmten Farbwert, wenn man den von 8 auf 16 bit umrechnet/umspeichert, dann bleibt die Farbe an sich immer identisch, da der komplette 8 bit Farbumfang natürlich in 16 bit vollständig enthalten ist. Lediglich anders herum, wenn man von 16 bit auf 8 bit herunterrechnet, dann kann es sein, dass hier die Farben verändert werden müssen, weil ein Wert in 8 bit warscheinlich nicht equivalent existiert, so müssen dann unter Umständen mehrere Farbwerte, die in 16 bit noch unterschiedlich waren in 8 bit zusammengefasst werden, da ja die 8 bit weniger verschiedene Werte erfassen kann.
um bei obigem Beispiel zu bleiben würde dann eben z.B. der Farbwert 20303/17348/15292
und der ziemlich ähnliche Wert 20308/17346/15288 in 158/135/119 gerechnet.
Etwas vereinfacht ausfgedrückt: Wenn ich einen Wert als Volle Zahl (symbolisiert 8 bit) z.b. 10 habe, dann kann ich den selben Wert auch mit Dezimalen (um mehr zwischenwerte zu haben, symbolisiert also 16 bit) als 10,00 schreiben. Rechne ich das Ganze zurück, dann bleibt es immer noch 10. Da ist nichts dazu gekommen bei hochrechnen und da ist bei runterrechnen auch nichts verloren gegangen.
Habe ich aber 10,00 und 10,02 dann muss ich, wenn ich es auf natürliche Zahlen zurückrechne beides als 10 "zusammenfassen"
In diese Richtung verliert man also informationen, die man vorher noch hatte.
Die zusätzlichen Informationen hat man aber nur dann, wenn man das Bild ursprünglich als RAW geschossen und dann als 16 bit ausgegeben hat, vom umspeichern von 8 auf 16 bit kommen aber keine zusätzlichen Informationen (wo sollen die auch her kommen!)
Den Unterschied zwischen 16 und 8 bit kannst du allerdings grundsätzlich gar nicht mit deinen Augen unterscheiden, die zusätzliche Information ist also nur als Information selbst wichtig, da sie für eventuelle Bearbeitungen natürlich sehr schnell von Bedeutung sein können. Dann braucht man vielleicht diese zusätztliche Information der 16 bit Datei, weil bei 8 Bit dateien sonst sehr schnell unschöne Effekte z.B. bei Tonwertkorrekturen, Gradationskurven und ähnlichem entstehen können, weil hier die Tonwerte "gestaucht" und "gespreizt" werden, wenn hier also bei 8 bit relativ wenig information zur Verfügung steht, dann führt das nicht selten zu Abrissen, Rauschen und ähnlichem.
Die angesprochene Sache der Monitor-Darstellung sieht dabei wieder ähnlich aus. Da die Datei nach dem Speichern auf 16 bit immer noch nur die Informationen aus 8 bit enthält (nur eben mit anderen Werten gespeichert) dürfte auch das nicht das Problem verursachen. Denn es sind ja keine zusätzlichen Farben vorhanden mit denen der Monitor Probleme haben könnte, ausserdem sollte ein Monitor genügend Farben darstellen können. Und mehr als 8 bit kann man wie gesagt ohnehin nicht sehen, also auch wenn ein Monitor keine vollen 16 bit darstellen kann sollte er immer noch genügend darstellen, wenn auch einige Farben dabei minimal "zusammengefasst" werden. Der Mensch kann den Unterschied gar nicht sehen.
Nun aber zum Problem des TO...
eigentlich dürfte es das nicht geben. Um also festzustellen, wo genau der Fehler liegt müsste man idealerweise natürlich eine 8 und eine 16 bit Version der Datei im Origninal analysieren können.
Entweder passiert da irgendwo ein Fehler im Farbprofil, oder an einer anderen Stelle, das kann man aber per Ferndiagnose in's Blaue hinein kaum sagen, woran's nun wirklich liegt.
#10Report
04.12.2011
Original von Michael Gundelach - With Design In Mind
Würde das dann nicht heissen, dass mein Monitor nie 16 Bit darstellen kann? Egal ob Original oder interpoliert? (müsste das mal genauer eroieren...)
Und im Weiteren wäre dies also ein Darstellungsproblem und würde ein Ausbelichten nicht beeinflussen...
KEIN Monitor, auch nicht das teuerste vom teuersten und beste vom besten kann 16bit pro Farbe darstellen. Die besten die ich kenne schaffen gerade mal 10 bit pro Farbe (also 1024 Farbstufen jeweils für Rot, Grün und Blau). Standard, auch für gute Eizo und andere sind 8 bit pro Farbe.
Auch wenn es vielleicht noch irgendwo bessere gibt, hätten sie wohl maximal 12 bit.
Aber auch WENN die Geräte so gut wären, unser aller Augen können die 10 bit schon nicht mehr wahrnehmen, geschweige denn mehr
#11Report
04.12.2011
@Image Worx: Erst mal Danke für die ausführliche Erklärunng, denn so ähnlich dachte ich mir das auch. Umgekehrt gibt es sicherlich Probleme, aber von 8 auf 16 bit sollten die Farben gleichbleibend sein. Bei Monitoren selbst kenne ich mich leider nicht so aus...
However, das Ganze fiel mir ja eher durch einen Zufall auf, denn ich durch Umstellung von 16 auf 8 bit wieder beeitigen konnte. Leider kann ich nicht sagen, ob ich in diesem Zuge noch andere dinge veränderte... Ich werde mal versuchen das Problem mit anderen Bildern zu reproduzieren, da ich für diese jetzt keine Freigabe habe.
Trotzdme erst mal vielen Dank für die erhellenden Posts hier. Bin immer wieder begeistert wie schnell hier auch auf "unwichtige Probleme" geantwortet und geholfen wird....
However, das Ganze fiel mir ja eher durch einen Zufall auf, denn ich durch Umstellung von 16 auf 8 bit wieder beeitigen konnte. Leider kann ich nicht sagen, ob ich in diesem Zuge noch andere dinge veränderte... Ich werde mal versuchen das Problem mit anderen Bildern zu reproduzieren, da ich für diese jetzt keine Freigabe habe.
Trotzdme erst mal vielen Dank für die erhellenden Posts hier. Bin immer wieder begeistert wie schnell hier auch auf "unwichtige Probleme" geantwortet und geholfen wird....
#12Report
05.12.2011
@Image Worx: ... hat mir eine Menge Getippsel erspart. Ich grübelte auch gerade darüber nach, wo da "Treppenstufen" herkommen sollten...
Was ggf. aber zu prüfen wäre: was passiert, wenn aus einem 8-bit-JPEG ein 16-bit-TIFF gemacht wird? Was für Effekte hat dann das Herausrechnen des TIFFs in Lightroom (oder welcher EBV auch immer) auf die Bildqualität. Denn in einer JPEG-Datei ist ja eben nicht einfach jedem Pixel ein Farb- und Helligkeitswert zugewiesen, dann wär's ein BMP bzw. TIFF, sondern es ist komprimiert. Und vielleicht läuft der Algorithmus dann irgendwo ein bißchen Amok, wenn er von 8 auf 16 Bit geht.
Mal spaßeshalber resp. testhalber:
Was passiert, Michael, wenn Du das 8-bit-JPEG zunächst als 8-bit-TIFF speicherst, und dann das 8-bit-TIFF als 16-bit-TIFF? Gibt es dann zwischen 8-bit-TIFF und 16-bit-TIFF einen Qualitätsunterschied?
Was ggf. aber zu prüfen wäre: was passiert, wenn aus einem 8-bit-JPEG ein 16-bit-TIFF gemacht wird? Was für Effekte hat dann das Herausrechnen des TIFFs in Lightroom (oder welcher EBV auch immer) auf die Bildqualität. Denn in einer JPEG-Datei ist ja eben nicht einfach jedem Pixel ein Farb- und Helligkeitswert zugewiesen, dann wär's ein BMP bzw. TIFF, sondern es ist komprimiert. Und vielleicht läuft der Algorithmus dann irgendwo ein bißchen Amok, wenn er von 8 auf 16 Bit geht.
Mal spaßeshalber resp. testhalber:
Was passiert, Michael, wenn Du das 8-bit-JPEG zunächst als 8-bit-TIFF speicherst, und dann das 8-bit-TIFF als 16-bit-TIFF? Gibt es dann zwischen 8-bit-TIFF und 16-bit-TIFF einen Qualitätsunterschied?
#13Report
Original von TomRohwer
@Image Worx: ... hat mir eine Menge Getippsel erspart. Ich grübelte auch gerade darüber nach, wo da "Treppenstufen" herkommen sollten...
Was ggf. aber zu prüfen wäre: was passiert, wenn aus einem 8-bit-JPEG ein 16-bit-TIFF gemacht wird? Was für Effekte hat dann das Herausrechnen des TIFFs in Lightroom (oder welcher EBV auch immer) auf die Bildqualität. Denn in einer JPEG-Datei ist ja eben nicht einfach jedem Pixel ein Farb- und Helligkeitswert zugewiesen, dann wär's ein BMP bzw. TIFF, sondern es ist komprimiert. Und vielleicht läuft der Algorithmus dann irgendwo ein bißchen Amok, wenn er von 8 auf 16 Bit geht.
Mal spaßeshalber resp. testhalber:
Was passiert, Michael, wenn Du das 8-bit-JPEG zunächst als 8-bit-TIFF speicherst, und dann das 8-bit-TIFF als 16-bit-TIFF? Gibt es dann zwischen 8-bit-TIFF und 16-bit-TIFF einen Qualitätsunterschied?
Da dürfte sich nichts ändern. Damit ein JPEG angezeigt werden kann (in LR, PS, im Browser, wo auch immer...) muss es ja erstmal dekodiert werden - weil ja da in der Tat nicht einfach für jeden Bildpunkt ein Farbwert drinsteht. Durch das Dekodieren entsteht eine normale Bitmap im jeweiligen Programm - die wird dann angezeigt (weil nur die angezeigt werden kann) und die wird dann auch später in eine neue Datei geschrieben. Was in der Original-JPEG-Datei stand (mal Metatags augenommen), interessiert zu dem Zeitpunkt gar nicht mehr.
Ein Amoklauf des Algorithmus dürfte also nicht vorkommen, weil das zwei unabhängige Schritte sind.
#14Report
06.12.2011
Original von plain
Da dürfte sich nichts ändern. Damit ein JPEG angezeigt werden kann (in LR, PS, im Browser, wo auch immer...) muss es ja erstmal dekodiert werden - weil ja da in der Tat nicht einfach für jeden Bildpunkt ein Farbwert drinsteht. Durch das Dekodieren entsteht eine normale Bitmap im jeweiligen Programm - die wird dann angezeigt (weil nur die angezeigt werden kann) und die wird dann auch später in eine neue Datei geschrieben. Was in der Original-JPEG-Datei stand (mal Metatags augenommen), interessiert zu dem Zeitpunkt gar nicht mehr.
Ein Amoklauf des Algorithmus dürfte also nicht vorkommen, weil das zwei unabhängige Schritte sind.
Genau das meine ich: passiert beim Dekodieren eines 8-Bit-JPEGs zu einem 16-Bit-TIFF etwas anderes als beim Dekodieren eines 8-Bit-JPEGs zu einem 8-Bit-TIFF? Dekodiert das Programm also in eine andere BMP-Datei?
Denn das Programm muß ja zwangsläufig eine eigene, neue BMP schaffen. Das wäre mal zu überprüfen.
#15Report
06.12.2011
Original von TomRohwer
[quote]Original von plain
Da dürfte sich nichts ändern. Damit ein JPEG angezeigt werden kann (in LR, PS, im Browser, wo auch immer...) muss es ja erstmal dekodiert werden - weil ja da in der Tat nicht einfach für jeden Bildpunkt ein Farbwert drinsteht. Durch das Dekodieren entsteht eine normale Bitmap im jeweiligen Programm - die wird dann angezeigt (weil nur die angezeigt werden kann) und die wird dann auch später in eine neue Datei geschrieben. Was in der Original-JPEG-Datei stand (mal Metatags augenommen), interessiert zu dem Zeitpunkt gar nicht mehr.
Ein Amoklauf des Algorithmus dürfte also nicht vorkommen, weil das zwei unabhängige Schritte sind.
Genau das meine ich: passiert beim Dekodieren eines 8-Bit-JPEGs zu einem 16-Bit-TIFF etwas anderes als beim Dekodieren eines 8-Bit-JPEGs zu einem 8-Bit-TIFF? Dekodiert das Programm also in eine andere BMP-Datei?
Denn das Programm muß ja zwangsläufig eine eigene, neue BMP schaffen. Das wäre mal zu überprüfen.[/quote]
Du kannst aber ja nicht direkt ein JPG in eine 16bit TIFF "dekodieren". Das dekodieren passiert ja im Hintergrund beim Öffnen des Bildes in Photoshop. Da JPG aber ja immer 8 bit hat, wird das Bild dann natürlich auch als normale 8 bit Datei geöffnet. Dann hast du ja Photoshop intern ein ganz normales Bild das beim weiteren Arbeiten nicht anders behandelt wird als jede andere Datei, wenn du das dann in 16 bit umrechnest passiert nichts aussergewöhnliches, auch dann werden ganz normal die vorhandenen Farben in den äquivalenten 16 bit Wert überführt, dabei wird ja nicht auf die komprimierte JPG-Datei zurückgegriffen sondern das normale 8 bit Bild verwendet, das sich im Speicher befindet
#16Report
Topic has been closed