Hand auf´s Herz, lieber Leser: woran denken Sie spontan, wenn Ihnen im Zusammenhang mit 4K-Technik der Begriff „Farbraumerweiterung“ unterkommt? Eigentlich eine dumme Frage, gell? Denn natürlich muss dieses in vielen Anzeigen und Prospekten verwendete, an sich ja schon aussagekräftige Schlagwort für etwas Positives stehen, sonst würde man es doch wahrscheinlich nicht betonen oder als Pluspunkt herausstellen. In Wahrheit umschreibt das Wort einen komplexen technischen Problembereich, in dem es an einheitlichen Standards fehlt.
Samsung rührt die Werbetrommel kräftig, Panasonic und Sony sind längst mit eingestiegen. Die Hersteller verweisen auf die herausragende Quantum-Dot-Technologie, die im Zusammenwirkung mit HDR-Kontraststeigerung Flatscreens außerordentliche „Lichtgewalt“ verleiht. Wie funktionieren Quantum-Dots eigentlich? Eine Folie, bestehend aus Milliarden von Nanokristallen, wird von blauer Hintergrundbeleuchtung „befeuert“. Dieses Licht regt die Atome der Kristalle an, in kräftigem Rot oder Grün zu leuchten. Das Resultat erkennt das menschliche Auge als weißes Licht.
Was ist schon natürlich?
Sehr stark vereinfacht ausgedrückt, kreieren hochwertige Bildprozessoren auf dem Flüssigkeitskristall-Display dann ein umwerfend gutes Fernsehbild. Man liest davon in Fachzeitschriften, Testprotokolle bestätigen den Wahrheitsgehalt schwärmerischer Worte, „Testsieger“ werden besonders gern gekauft. Dennoch kommt es vor, dass Besitzer von modernen Ultra-HD-TVs, egal ob mit Quantum-Dots oder OLED beim ersten Einschalten ein langes Gesicht ziehen. Die so oft gepriesene natürliche Farbdarstellung kann nämlich als Manko empfunden werden. Testbilder, wie sie zum Beispiel Burosch zum kostenlosen Download zur Verfügung stellt, sind ein hervorragendes Werkzeug, um persönliche Vorlieben abzuspeichern.
Das wird sehr häufig gemacht und führt in vielen Fällen dazu, dass anhand der Regler für Farbe, Kontrast, Helligkeit und Hintergrundbeleuchtung so lange „komponiert“ wird, bis endlich alles wunderbar bunt ist, mit einem natürlichen Bild aber rein gar nichts mehr zu tun hat.Kann es im Prinzip auch gar nicht, indem die nativen Farbinformationen in den Prozessen Datenspeicherung und Komprimierung arg leiden und die so generierte Kopie starke Verluste hinnehmen muss.
In den eigenen vier Wänden definiert der Rec709-Standard den Farbraum. Wieder einmal wälze ich das Buch „Medientechnik“ von Burosch, in dem zu lesen ist, dass es unter dieser Abkürzung seit Einführung von HDTV weltweit erstmals einen einheitlichen Farbstandard gibt. Aber halt: während die Koordinaten für die Farborte exakt beschrieben seien, werde ein verbindlicher Gammaverlauf (die Grau-Abstufungen betreffend) nur für die Filmaufnahme, nicht aber für die Wiedergabe genannt, was Claus Burosch als „großes Ärgernis“ bezeichnet.
Regisseuren sind Standards meist egal
Allgemein habe sich bei TV-Herstellern, Testmagazinen, Heimkinofreunden und Händlern ein linearer Gammaverlauf von 2,2 als „Standard“ durchgesetzt. Displays würden exakt auf diesen Wert kalibriert.Treten beim Drehen verursachte, empfindliche Differenzen auf, kann dies – etwa beim Mastering einer Blu-ray – zu „massiv absaufenden Details in dunklen Filmszenen“ führen.
Regisseure von Kinofilmen interessiert das Rec709-Verfahren überhaupt nicht. Ihr Standard heißt DCI-P3 und erlaubt im Rot-, Zyan-, Gelb- und Grünbereich extrem mehr Farbsättigung. Logisch, dass opulente Leinwandwerke für die Wiedergabe auf Fernsehern erst wieder aufwändig heruntergerechnet werden müssen und dabei Qualität einbüßen. Hersteller von 4K-TVs reagierten, auf dieses Thema angesprochen, schon immer zähneknirschend, denn die Hardware für Geräte, die Milliarden von Farben darstellen können, besitzen sie ja.
Man war gezwungen,Verfahren zu entwickeln, mit denen sich Farbräume auf Wunsch in Echtzeit umrechnen lassen. Die größte Hürde stellte in diesem Zusammenhang die Farberzeugung dar. LCD-TVs kombinieren das Zusammenwirken unterschiedlicher Leuchtmittel und Filter, während OLED- und (leider fast ausgestorbene) Plasmafernseher durch selbstleuchtende Pixel breite Farbspektren schaffen.
„Das beste Bild“ bleibt ein Mysterium
Sony führte vor drei Jahren LED-LCDs mit Quantum-Dot-Zusatzfilter ein, Samsung griff dieses Konzept 2015 bei seinen SUHD-Modellen auf, Panasonic vertraut unter der Bezeichnung Wide Colour Gamut auf einen Phosphorzusatzfilter. Sicherlich nicht das letzte Scharmützel in der Schlacht um „das beste Bild“, das sowieso auf ewige Zeit unterschiedlichst interpretiert werden wird.
Ich erinnere mich noch gut an einen alten Freund, der einen Laden für Radio- und Fernsehtechnik hatte und mit dem ich – weil Röhrenfernseher klobig und schwer waren – oft mit zur „Kundschaft“ gefahren bin. In aller Regel verursachten wir eine Gaudi wie am Volkstrauertag, wenn wir die Kisten zwecks Reparatur mitnehmen mussten. In der Werkstatt lachten wir uns nicht selten kaputt über völlig verkorkste Bild-Einstellungen und mein Kumpel gab sich wirklich alle Mühe, Farben, Kontrast, Helligkeit und was-weiß-ich-noch exakt einzustellen.
Der Jubel, der vorherrschte, wenn wir die Kisten wieder auslieferten und anschlossen, hielt sich meist nicht lange. Schon am nächsten Tag kam in der Regel ein Anruf, in dessen Verlauf sich mein armer Kamerad, der wohlmeinende Helfer, üble Beschimpfungen anhören musste. Wir hätten seinen Fernseher kaputt gemacht, das Bild sei unter aller Sau, wir müssten unbedingt noch mal aufkreuzen und alles „wieder so machen, wie es vorher war“. Also rollten wir vom Hof, wurden mit grantigen, zerknirschten Herrschaften konfrontiert, die erst dann wieder glücklich grinsten, als alle erdenklichen Parameter in kuriosester Weise verstellt waren.
Hätten wir denen was vom „natürlichen Bild“ oder dem optimalen Farbraum erzählt, hätten wir keinen Schnaps gekriegt!
Hervorragend beschrieben!
Mit besten Grüßen
Georg
Gamma 2.2 ist seit den Anfängen der Farbfilm-Ära vorbei.
In inoffiziellen Kreisen hatte man sich auf einen inoffiziellen Gammawert von 2.35 geeinigt.
Glücklicherweise hat die ITU (International Telecommunication Union) 2011 einen offiziellen Standard verabschiedet, welcher weltweit gültig ist.
Nämlich Rec. BT1886.
Und darin wir ein Gammawert von 2.4 beschrieben.
Nachzulesen im Dokument unter folgenden LINK.
http://www.itu.int/dms_pubrec/itu-r/rec/bt/R-REC-BT.1886-0-201103-I!!PDF-E.pdf
Vielen Dank für die detaillierte Aufklärung!
Es ehrt uns, Leser wie Sie in unseren Reihen zu wissen. Was ich irgendwie gar nicht kapiere ist, dass man so viel Geheimniskrämerei betreibt. Es geht lediglich um Gamma-Werte, nicht um Start-Codes für Atomraketen.
Eigentlich war es keine Geheimniskrämerei.
In der Filmindustrie (Post-Displays) war 2.35 als Standard schon recht lange in der Nutzung.
2.35 entspricht so ziemlich dem Invers-Gamma von „Analogen“ Filmkameras.
Nur wurde es bis 2011 noch nicht offiziell verabschiedet.
Gamma 2.2 wird von von den „Panel“ Herstellern favrorisiert, weil in der Produktion weiterhin auch PC (Notebook) Displays produziert werden. Und dort wird 2.2 genutzt
Zudem ist ein niedriger Gamma Wert immer heller und somit tauglicher für hellere Räume, obwohl damit der Filmlook verändert wird.
Viele Hersteller bevorzugen deshalb für einen Dynamischen Modus, welcher auf Verkaufsflächen eingesetzt wird, ein Gamma von 2.0 und kleiner.