IFA und IBC: HDR+ ist das Ziel, aber was ist der Weg?

Die IFA ist zu Ende, die IBC ist bald zu Ende. Beide hatten ein großes gemeinsames Thema: HDR (High Dynamic Range). Was auf der IBC noch verständlich ist, denn dort sind Neuheiten für die Herstellung von Content zu finden, war in Berlin noch viel zu früh. Aber wie noch am Ende des Berichts von der IBC aufgezeigt wird, auch Fachleute kennen nur das Ziel und die Richtung, aber noch nicht den Weg.

[caption align]Bis zum quadratischen „Natural Display“ wird es wohl noch sehr lange dauern[/caption]

IFA – die Show

Was Fernsehgeräte anbelangt, so war die IFA eine große und in einigen Hallen wirklich tolle Show. Hersteller zeigten was sie alles in dem einen Jahr, von einer IFA zur anderen, geschaffen haben. Aber es war ein Blick in die Zukunft. Natürlich, auch das sollte eine Messe erfüllen. Bloß wurde dem  interessierten Besucher wirklich klar, dass eben nicht nur UHD mit seiner im vorigen Jahr so hoch gelobten vierfachen HD-Auflösung im Vordergrund stand. Das schien den Ausstellern und TV-Geräteherstellern allein wohl doch zu wenig attraktiv  gegenüber „echtem HD“. Man setzt nun ganz schnell auf die erst viel später – um 2020 – vorgesehenen zusätzlichen Merkmale, denn sie sind tatsächlich weit  besser sichtbar für die Verbraucher als die zusätzlichen Pixel gegenüber HD. Und wenn man von diesen neuen UHD-Attributen spricht, dann heißt das neue Wort dazu jetzt HDR+ (plus), wie die SMPTE und das Gros der Fachleute auf der IBC meinen. Und zu diesen Plus-Attributen zählen im Wesentlichen HDR (High Dynamik Range), WCG (Wide Color Gamut, erweiterter Farbbereich) und HFR (High Frame Range, höhere Bildfrequenz).

 

[caption align]Die TV-Shows mit ihren unzähligen Displays waren in jedem Falle sehenswert und begeisternd – hier LG mit seinen OLED-Demos[/caption]
 

Die Situation

Diese Situation ist natürlich für die TV-Geräteanbieter die große Crux, will man verständlicherweise ein ähnliches (wirtschaftliches) Debakel vermeiden, wie es noch vor zwei Jahren der total danebengegangene Hype zu 3D war.

HDR in Verbindung mit UHD, also High Dynamic Range. Das ginge prinzipiell auch bei HD – aber darüber spricht man eben nicht. Tatsächlich könnte der größere Kontrastbereich eine deutliche Verbesserung bieten. Und das wurde auch auf allen Ständen unübersehbar dargestellt, manchmal mit gutem Quellenmaterial, dann war der große visuelle Zugewinn auch meist erkennbar, oft aber auch, weil es ja kaum vernünftiges Quellenmaterial gibt, gab es ganz eindeutig den Versuch, das heutige HD-Bild besonders flau zu zeigen, um dann das HDR-UHD-Bild leuchtend und klar dem HD gegenüberzustellen. Egal – keineswegs. Denn um tatsächlich ein kommerzieller Erfolg zu werden, müssen native HDR-Inhalte vorhanden sein und auch über die gesamte Abbildungskette Postproduction, Speicherung, Übertragung und Wiedergabe  transportiert werden. Mit anderen Worten, man muss eine neue Infrastruktur parallel zur bisherigen  Content-Erstellung entwickeln. Darüber scheinen die meisten TV-Anbieter ihre eigenen Mitarbeiter wohl nicht informiert zu haben. Vielleicht war für die Stand-Mannschaften das  Motto, was ich nicht weiß, macht mich auch nicht heiss.

[caption align]HDR-Demonstration gegenüber dem faden HD-Bild - ein Schelm, der Böses dabei denkt[/caption]

[caption align]Eine mir vom Augeneindruck her realerer Vergleich mit und ohne HDR[/caption]

[caption align]In die HDR-Bilder eingebaute Farbanalyzer-Angaben, die die höhere Farbsättigung beweisen sollten[/caption]

Hinter den Kulissen

In Wirklichkeit geht es aber hinter den Kulissen heiß her. Es gibt Konflikte zwischen den verschiedenen Interessengruppen sowie echte Meinungsunterschiede darüber, wie der beste und kostengünstigste Weg zur Steigerung des Dynamikbereichs erreicht werden kann. Dabei haben die großen Hersteller in ihrem ureigensten Interesse grundsätzlich Bereitschaft angekündigt, kommende Standards schnell zu unterstützen. Und die kommen zum Beispiel von den verschiedensten Gruppen wie SMPTE, EBU, ITU, MPEG, UHD Allianz, Blu-Ray Association und vielleicht sogar noch von einigen anderen. Das kann schon zu einem ganz schönen Gerangel führen. Was jedoch unbedingt verhindert werden sollte, sind irgendwelche schnellen hauseigenen Lösungen, wie sie auch auf der IFA gezeigt und mit mehr oder weniger selbst gestrickten und mit Fantasienamen versehenen Begriffen belegt wurden. Da will der Gerätehersteller unbedingt dem Verbraucher signalisieren, mit meinen Modellen kaufst Du zukunftssicher – und das ist genau nicht der Fall, zum Teil weil es die Technik noch gar nicht gibt, zum Teil, weil die Hersteller keine endgültigen Standards dafür haben.

Wie high ist HDR?

Tatsächlich kann einem weder auf der IFA noch sonst wo irgendjemand verbindlich erklären, wieviel von den 22 Blendenstufen Kontrastumfang, den der Mensch (ohne Adaptation) sehen kann, denn wirklich einmal rüberkommen sollen. 22 Blendenstufen bereits bei der Kameraaufnahme bereitstellen zu können geht absolut noch nicht. Gute Kameras schaffen optimal zwischen 12 und 14 Blendenstufen. Wenn man sie über die gesamte Bearbeitungskette einschließlich Übertragung und Wiedergabe darstellen könnte, wäre das aber schon heute ganz schön. Solange es keinen Sensor gibt, der diese höhere Dynamik ermöglicht, sind Gedanken erlaubt und Versuche, mit mehreren Sensoren oder temporaler Aufsplittung, um  diesen enormen Kontrast aufnahmetechnisch bewältigen und speichern zu können. Aber so recht überzeugend waren diese Versuche meines Erachtens bislang nicht.

Was die Wiedergabe anbelangt, so gibt der Gerätehersteller meist keine Blendenstufen an, sondern Maximal-Leuchtdichten. Norm bei Fernsehempfängern heute sind 100 cd/m2. Statt dieser korrekten Dimensionsangabe spricht man jetzt  – nein eben nicht überall, sondern eigentlich nur  in den angelsächsischen Ländern - von "nit". Natürlich ziehen wir in Europa sofort nach, fragte man auf der IFA nach der Maximal-Leuchtdichte in cd/m2 wusste so gut wie niemand auf den Ständen, was das ist. Erst wenn man „nit“ sagte, outete man sich als Fachmann. Die Umrechnung schafft glücklicherweise jeder Idiot, denn nit und cd/m2 meinen das gleiche, 1:1. Allerdings bekam man auch dann selten eine Antwort, einige nannten 350 nit (Nits scheinen nun einmal der Weg des geringsten Widerstands zu sein). Es sollen aber auch einige Geräte mit 1000 nit gezeigt worden sein (Auskunft eines Fachkollegen). Geht man von 100 nit heutigem Standard aus, so ergäben sich daraus knappe zwei Blenden (400 nit) mehr als bisher üblich, was nicht so sehr stark auffällt, bei 1000 nit wären es rund 3,5 Blendenstufen, das ist schon bemerkenswert und deutlich erkennbar. (Bei Dolby geht man bei dem Vision-System von 4000 nit Abmischung mit Spezial-Display aus, und für die entferntere Zukunft werden 10.000 nit gehandelt.) Wobei die Maximal-Leuchtdichte noch nichts endgültiges zum Kontrastumfang selbst sagt, weil man dazu auch die untere Schwarzgrenze wissen müsste. Nimmt man sie wie allgemein üblich mit 0,1 nit an, so ergäben sich bei 100 nit maximaler Leuchtdichte heute rund 11 Blendenstufen Dynamik. Mit modernsten Displays sind geringere Schwarzwerte erreichbar, deshalb bevorzugt man ja auch die OLEDs, weil die einerseits - weil Eigenstrahler ohne Backlight - ein schwärzeres Schwarz bieten können, was bei gleicher hoher Leuchtdichte den Kontrastumfang noch um eine Blende erhöhen würde. Allerdings sollen sie wohl noch nicht so hohe Leuchtdichten erreichen können wie die LED-Bildschirme mit LED-Backlight. Ob dieses schwärzeste Schwarz im Wohnraum überhaupt sinnvoll ist, auch darüber streitet man sich. Denn es wird der Kontrast natürlich sofort deutlich visuell reduziert, wenn im Wohnzimmer zum Beispiel das Lampenlicht eingeschaltet wird oder von außen Licht durch die Fenster dringt. Setzt man sich total ins Dunkle werden hingegen die schwärzesten Schwärzen noch gut durchgezeichnet erkannt, die hohen Leuchtdichten aber manchmal sogar als zu grell empfunden. Das war übriges bei den IFA-Besuchern – und ich höre gern zu, wenn da Meinungen spontan kommen –  bei einigen HDR-Bildern von erstaunlich vielen Betrachtern zu hören.

Denkt an die Alten

Wie immer dem auch sei. Es gibt natürlich noch eine Vielzahl anderer Punkte bis zur Standardisierung, zum Beispiel welcher Farbraum gewählt werden sollte - z.B. DCI P3 anstatt der ja noch nicht realisierbaren Rec. 2020 und dann 10 bit (UHD10) oder 12 bit (Dolby Vision).

Und letztendlich muss man sich ja überlegen, dass die kommenden TV-Geräte auch preislich sicherlich zu erkennende unterschiedliche Maximal-Leuchtdichten haben werden, und viele UHD-1-Geräte dann im Markt sein werden, die man bedienen muss.  Das heißt, dass ein nennen wir es mal ideales HDR-Bild mit 14 Blenden Dynamik für die  Milliarden vorhandener UHD- und HD- Empfänger umgesetzt werden muss, damit die mit den älteren Geräten mit ihrem Bild auch noch zufrieden sind. Will man das ohne Clippen optimal lösen (absolut geht es gar nicht), so müssen wahrscheinlich Metadaten zu jedem Bild mitübertragen werden, um die Umsetzung zu realisieren. Ältere Empfänger haben solche Möglichkeiten aber nicht implementiert. Brauchen wir dann also auch eigene HDR+-Kanäle, um solche Bilder zu übertragen ohne die "Normalos" nicht zu verärgern?

Vorhandene Standards

Natürlich gibt es noch viele weiteren Fragen und Probleme zu lösen.  Es ist also noch wirklich alles im Fluss. Vorreiter scheint mir hier die SMPTE zu sein mit den beiden Standards

  • ST-2084, auch bekannt als HDR EOTF (Elektrooptische Transfer Function), die in den meisten Farbspezifikationen wie BT709 und BT2020 enthalten ist, und
  • ST-2086, auch bekannt als HDR Mastering Metadaten, die – ganz wichtig -  gewährleisten sollen, dass HDR Content auch auf Displays mit unterschiedlichem Dynamikbereich-Displays angezeigt werden.

Soweit mir bekannt ist, basiert die ST-2084 sehr stark auf den von Dolby für ihr „Vision“-System angegebenen Spezifikationen.  Allerdings definiert Dolby sein System mit Multilayern, um letztendlich ihr hocheffizientes 12-bit/10.000-nit-System zu erreichen plus einer 10-bit-Version (HDR10), was aber in dieser Kürze nicht näher dargestellt sei.

Es ist aber insgesamt unklar, wie es mit den Standards weitergehen wird. Es ist nicht sicher, dass einer oder beide der oben genannten Standards die endgültige Lösung sein werden. Und wie wird das eine Bild von einem HDR-Standard auf einem anderen HDR-Display dargestellt werden? Also, nichts Genaueres weiß man (oder ich), war aber zeitlich auch gar nicht jetzt schon vorgesehen. Die Sache ist also keineswegs verfahren nur eben unklar, zwei, drei Jahre wird es wohl mindestens noch dauern bis hier ein Durchblick im wahrsten Sinne des Wortes erreicht werden wird.

Wer aber – nicht heute, da gibt es sie noch nicht –  vielleicht im nächsten Jahr einen HDR-TV-Empfänger für noch sehr viel Geld erwirbt darf deshalb auch dann noch nicht sicher sein, die Zukunft im Wohnzimmer zu haben. 

IBC bringt keine Klarheit

Gerade gestern Abend las ich noch einen Bericht über das UHD-Forum auf der IBC. Ein LG-Vertreter meinte, dass er auf der IFA über das Interesse des Fachhandels für UHD und HDR sehr erstaunt und erfreut war. Hat er vielleicht verblüfft gemeint, es aber nicht gesagt. David Wood von der EBU warnte wohl die Delegierten, dass Rundfunkanstalten vor allem drei Fakten wissen wollen: Welche Unterschiede kann man sehen? Wird mein Publikum diese Verbesserungen akzeptieren und  wie viel wird es kosten? Er sagte auch, dass es heute noch extrem schwierig sei, positive Antworten (!?) auf diese Fragen zu geben. Und Matthew Goldman von Ericsson stellte fest, dass sich die Fachwelt nun darauf geeinigt hätte künftig den Begriff HDR+ (plus) zu verwenden, ein allumfassender Begriff, der die drei wesentlichen Verbesserungen gegenüber UHD verdeutlichen soll, so da sind: HDR und Wide Colour Gamut (erweiterter Farbraum) – von ihm erwartete Einführung nicht vor 2017 oder 2018 – sowie HFR (High Frame Rates) auf 100/120 Hz sogar erst 2019 oder 2020. Klar, denn das kostet dann richtig viel Bandbreite.

Fazit

Da lag ich mit meiner zeitlichen Meinung zu Beginn dieses Berichts keineswegs so daneben. Der IFA-Bazillus hat mich also nicht befallen. Bis dahin sind allerdings noch viele, viele Fragen zu lösen, auch Lizenzgefechte werden wahrscheinlich nicht zu vermeiden sein. Es bleibt also technisch die nächsten Jahre spannend, die Richtung ist bekannt, der Weg noch niemandem ganz klar.

Und noch ein paar Bilder zur IFA

[caption align]Das Bild unten stellt einen herausfotografierten Ausschnitt aus dem oberen Bild dar. Es zeigt ein HD-auf-4K-Scaling und soll zum Ausdruck bringen, dass selbst ein hochgerechnetes Bild wegen der 4K Umrechnung mit zwischengenerierten Pixeln eine Verbesserung zeigt, hier am Beispiel der schrägen Geigensaiten[/caption]


[caption align]Jetzt kann sich jeder sein eigenes Kino bauen: 110 inch Diagonale mit „curved“ Display[/caption]


[caption align]UHD-2, also 8K Display, der Fernsehstandard von über-übermorgen[/caption]


[caption align]Das richtige Programm bleibt (neben der richtigen Frau) doch wichtiger als die Technik, oder?[/caption]


Alle Fotos:Copyright N. Bolewski