UHD und 4K: Größer, schöner, unschärfer?

Beiträge von FKTG-Mitgliedern - Für die Inhalte sind die Autoren verantwortlich

4K-Fernsehen und die Märkte

Am 18. April 2013 hielt Dr. Rainer Schäfer vom Institut für Rundfunktechnik einen hochkarätigen Vortrag über UHD und 4K. Trotz dieses spannenden Themas kamen leider nicht so viel Zuhörer wie erwartet.  Das änderte aber nichts an der hohen Qualität seines Vortrags, der eine der Sternstunden der Berliner Regionalveranstaltungen der letzten Zeit war. Das Thema 4K-Fernsehen wird zwar in allen Fachzeitschriften und in der Industrie als künftiger Weg des Fernsehen propagiert. Aber da wird doch oft sehr populistisch und unpräzise verallgemeinert.

Der Preisverfall bei den HDTV-Fernsehgeräten ist bei hoher Qualität der Displays enorm. Das Thema 3D wurde als der kommende Dienst auf der letzten Internationalen Funkausstellung in Berlin in naher Zukunft euphorisch gefeiert. Man vergisst dabei aber manchmal, dass Euphorie in der Medizin ein Krankheitsbild darstellt. Und so hat sich Ernüchterung insofern eingestellt, als dass 3D wohl kommen wird, wenn autostereoskopische Verfahren (also Verfahren ohne Brille) verfügbar sind. Aber ob es dann auch ein wirtschaftlicher  Erfolg werden wird, bleibt trotzdem dahin gestellt. Tatsache ist, dass die Hersteller fast kann man sagen verzweifelt versuchen, mit dem Thema 4K neue Märkte zu erschließen, um damit wieder neue Käuferschichten zu finden. Genauso sind es die Netzwerk- und die Satellitenbetreiber, die Bandbreite verkaufen wollen und auch so mancher Broadcaster sucht nach neuen Mehrwerten beim Fernsehen, die man den Kunden verkaufen kann.

Es ist deshalb wohltuend, dass ein Referent wie Dr. Rainer Schäfer einerseits eine versachlichende Darstellung der kommenden Fortschritte bot, aber gleichzeitig auf noch offene Fragen und Einschränkungen deutlich hinwies. Das Institut für Rundfunktechnik (IRT) in München, deren Mitarbeiter der Referent ist, ist sicherlich kein Promoter der 4K-Entwicklung. Aber man muss sich natürlich auch dort mit diesem Thema beschäftigen, und es laufen auch einige Untersuchungen, die noch nicht abgeschlossen sind.

Der UHD-Standard (Ultra High Definition)

Im geschichtlichen Kontext gesehen gibt es bereits seit langem entsprechende Untersuchungen und Entwicklungen von der japanischen Fernsehgesellschaft NHK. Sie begannen 2002 und wurden außerhalb von Japan 2005 bzw. 2006 vorgestellt. Seit der Zeit sind die Weiterentwicklungen auch regelmäßig zum Beispiel auf der IBC zu sehen gewesen. Auch beim Kinofilm geht die Richtung hin zu höheren Auflösungen, insbesondere 4K.

Was ist nun Ultra High Definition (UHD)? UHD gibt es in der Version UHD-1 und UHD-2. Bei UHD-1 ist die Auflösung 3840 × 2160 Pixel. Das ist flächenmäßig genau viermal HD. Dann gibt es UHD-2, das ist gleichbedeutend mit Super High Vision von der NHK, das 16 mal soviel Bildpunkte wie das heutige HDTV hat, also 7680 × 4320 Bildpunkte. Rechnet man das auf die Bildpunkte um, so entspricht UHD-1 der 20-fachen Menge gegenüber dem heutigen SDTV (720x576 Bp) und UHD-2 gar der 80-fachen. Soll der  Betrachtungsabstand beim heutigen HDTV (1920 × 1080 Bildpunkte) nicht unter 3H (H = Bildhöhe des Displays) sein, so verkürzt er sich dann auf 1,5H bei UHD-1 und sogar 0,75H bei UHD-2. Der Betrachtungswinkel verändert sich damit bei den genannten Entfernungen auf  30° bei UHD-1 und auf 100° bei UHD-2. Alle beiden Systeme arbeiten ausschließlich progressiv, also zeilensprungfrei.

Die Bildpunkte werden mit 10 oder 12 Bit quantisiert. Der Gammawert wird mit 2,2 angegeben. Es gäbe die Option auf Constant Luminance, so dass keine Helligkeitsstrukturen mehr verloren gehen können. Aber das wird wohl erst zu einem späteren Zeitpunkt erfolgen. Auch der Farbraum kann erweitert werden und wäre sogar größer als bei D-Cinema.

Bildfrequenzen in der Diskussion

Die beiden Systeme sind bereits in ihren Parametern in einer Recommendation defacto standardisiert Die Werte sind in der ITU-R BT.2020 spezifiziert. Als Bildwechselfrequenzen sind dabei zugelassen 24, 25, 30, 50, 60 Hz und sogar 120 Hz. Was derzeitig nicht standardisiert ist, sind 100 Hz. Diese fehlende Bildfrequenz ist in der Diskussion.

Wichtiger aber ist vielleicht, dass es zurzeit sogar Bemühungen gibt, die Bildfrequenz weltweit einheitlich zu gestalten. Allerdings hat ein solcher Versuch, schon in früheren Zeiten nicht geklappt, denn wenn man 50 Hz Archivmaterial wiedergeben will würde das bedeuten, dass man eine Bildwechselfrequenzumsetzung auf 60 oder gar 120 Hz vorsehen müsste, die kompliziert ist und zumindest auch die Bildqualität reduziert.

Unterschiede HD – UHD

Die wesentliche Unterschiede zwischen HD und UHD sind im wesentlichen einmal natürlich die höhere Auflösung, es gibt die Möglichkeit auf eine höhere Bildfrequenz überzugehen und es gibt einen höheren dynamischen Bereich. Man könnte also einen höheren Kontrast abbilden und auch Richtung High Dynamic Range (HDR) gehen. Es wird auch wesentliche Verbesserungen im Audiobereich geben können, auf die aber im Referat nicht näher eingegangen wurde. Als Stichwort für die Verbesserung im Audiobereich sei die objektbezogene Codierung und damit Anpassung an unterschiedliche Räume genannt.

Netto-Datenraten

Recht eindrucksvoll war die projizierte Tabelle mit den Netto-Datenraten (Tabelle 1). Man kommt dabei auf Datenraten, die bei 4K bei über 8 Gbit/s liegen und bei 120 Bildern pro Sekunde bis zu knapp 24 Gbit/s reichen. Und bei UHD-2 beginnen die Datenraten bei rund 30 Gbit/s und können im Extremfall bei höchster Bildfrequenz bis auf 95 Gbit/s steigen. Aber was haben wir denn heute für Interfaces, fragte der Referent. Etabliert ist HD-SDI. Damit können wir maximal 3 Gbit/s übertragen. Man wird also auf Interfaces aus der Netzwerktechnik übergehen müssen. Über Glasfaser könnte man mit Ethernet gerade noch bis 10 Gbit/s übertragen, bei in der Entwicklung befindlichen Glasfaserverbindungen mit 40 Gbit/s  ließen sich sogar alle 4K-Varianten betreiben, aber für UHD-2 brauchen wir 100 Gbit/s.

 

Tabelle 1: Netto-Datenraten

Qualitätsverbesserung durch höhere Auflösung?

Das alles sind enorme Anforderungen und es stellen sich daraus viele Fragen. Eine von ihnen ist zum Beispiel, wie groß ist denn die Qualitätsverbesserung durch die höhere Auflösung wirklich? Wie groß ist die Qualitätsverbesserung durch die weiteren Parameter? Dazu gibt es erste Versuche und Demonstrationen, aber so richtig weiß man das noch gar nicht. Eine andere wichtige Frage ist, wenn man nun schon eine höhere Auflösung und Bildwechselfrequenz benutzt, muss man sie tatsächlich durch die ganze Produktionskette durchleiten oder sind Kompromisse möglich? Wenn ja, wo? Schließlich bleiben noch die Fragen, welche Datenraten, Codecs usw. werden in der Distribution zum Beispiel auch bei High Frame Rates (HFR), also höheren Bildfrequenzen, benötigt. Diese Fragen kann heute abschließend noch keiner ehrlich beantworten.

Erste Testergebnisse

Erste Testergebnisse gibt es, die in einer EBU-Gruppe durchgeführt wurden. Dort wurden Testfrequenzen mit der Sony F65-Kamera in 4K (in der Breite etwas reduziert auf UHD-1) aufgenommen und man hat dann verschiedene Konversionen durchgeführt. So wurde dieses UHD-1-Material auf einen 56-Zoll-Display wiedergegeben und geschaut, was denn passiert, wenn man das Signal durch eine heutige Produktionskette hindurchschickt. Die Auswertung erfolgte bei einem Betrachtungsabstand von 1,5H einerseits, wie sie für 4K auch optimal wäre, aber man ist aber auch auf 2,7 m Entfernung gegangen, denn das ist der Abstand bei dem nach einer BBC-Untersuchung in Großbritannien statistisch gesehen die Menschen vor ihren Flachdisplay-Fernsehern sitzen, unabhängig davon, wie groß es ist. Rechnet man die statistischen Auswertungen der Befragung auf 56 Zoll Diagonale, so kommt man auf einen Betrachtungsabstand von etwa 3,8H, also sogar noch etwas weiter, als man bei heutigem HD (2K) sitzen sollte. Die Testfrequenzen wurden von 72 Personen bewertet auf der bekannten fünfstufigen ITU-Skala  (AB-Vergleich) durchgeführt.

Das noch vorläufige und noch etwas interpretierbare Ergebnis ist, dass statistisch ein deutlicher Auflösungsvorteil sowohl bei 1,5H als auch bei 2,7 m (3,8H) in statischen Szenen erkennbar war. Das ist zwar erst einmal sehr positiv, war allerdings zumindest bei 1,5H zu erwarten. Allerdings bleibt Frage, wie signifikant denn die bessere Qualität wirklich war. Denn tatsächlich ergaben sich nach den Versuchswerten im Vergleich zu Material auf HDTV mit 720p, 1080i und 1080p nur kleine Unterschiede. Bieten diese gefundenen Werte wirklich verlässliche Aussagen zu den Unterschieden an. Das muss man sicher noch stärker überprüfen. Möglich wäre es, denn in den Sequenzen, die es in diesem Test gab, waren auch einige, die es den Betrachtern aufgrund von Bewegungen in der Szene oder von Tiefenschärfenverlagerungen im Bild sehr schwer machten, verlässliche Angaben zu machen. Man sollte auch berücksichtigen, dass bei diesem Test nur das das Gesamtsystem Kamera und Display berücksichtigt wurde und eventuell noch eine Kompression. Es wurden aber keine Datenkompressionsverfahren, keine Codecs und auch die Ausstrahlung selbst nicht berücksichtigt. So etwas maskiert nach Auffassung des Referenten oft Effekte, so dass beide Möglichkeiten bestehen, nämlich dass die Effekte geringer oder stärker werden. Man muss in jedem Falle auch abwarten, bis das neue Kompressionsverfahren HEVC nicht nur mit heutigen Prototypen bzw. Testmustern verfügbar ist, um die Versuche erneut damit vornehmen zu können.

Das Dilemma bei höheren Bildwechselfrequenzen

Ganz stark diskutiert wird bei 4K auch der zumindest zu einem etwas späteren Zeitpunkt vorgesehene Übergang auf eine höhere Bildrate (HFR). Der Referent ging deshalb sehr dezidiert auf das Thema Bewegungsunschärfe bei höherer Bildfrequenz ein. Insbesondere die BBC hat hier große Demonstrationsreihen durchgeführt. Dabei ging man von einer Bildrate von 300 B/s aus. Aus der elektronischen Aufaddierung mehrerer Bilder wurden dann die anderen Bildfrequenzen dargestellt. Addiert man beispielsweise zwei der 300-B/s-Aufnahmen mit 100% Shutter, so ergibt sich daraus eine 150 B/s Aufnahmefrequenz ebenfalls mit 100% Shutter, bei drei Bildern sind es 100 B/s usw. Diese Methode ist recht intelligent und für die Versuche in erster Annäherung sicher auch gut brauchbar, sie spiegeln aber letztendlich nicht genau die Realität bei einer real eingestellten Bildfrequenz wider.

Warum das nun bei UHD überhaupt so stark ins Gespräch kommt, hat zwei Gründe, nämlich eigentlich sogar zwei uralte bekannte Effekte. In der Kamera haben wir den Effekt, dass wenn sich ein Objekt bewegt, es während der Belichtungszeit mehrere Bildpunkte des Sensors überstreicht. Der sich bewegende Gegenstand verwischt und hat somit nicht mehr die maximal erreichbare Auflösung. Oder etwas salopper ausgedrückt, man gibt sich viel Mühe, 4K zu machen, sobald sich ein Gegenstand im Bild bewegt, reduziert sich aber seine Auflösung. Beim Display ist ein ähnlicher Effekt vorhanden. Dort ist der Effekt, dass das Auge, das einem bewegten Objekt folgt, mehrere Display-Pixel die Bildperiode überstreicht, während das Bild gewissermaßen „stehen bleibt“. Das bedeutet, dass sich eine diskontinuierliche Darstellung auf dem Bildschirm bei einer kontinuierlichen Augenbewegung ergibt. Für den Augeneindruck resultiert daraus ebenfalls eine Bewegungsunschärfe.

Auf diese beiden Probleme ist man eigentlich erst in den letzten 5 oder 6 Jahren gestoßen, nämlich bei der Einführung der Flachbildschirme. Das ist ja letztlich auch der Grund dafür, warum man heute Flachbildschirme entwickelt, die das Bild noch wiederum intern in 100 Hz oder gar 200 Hz darstellen – genau um diesen Effekt zu verringern. Es wird dadurch gewissermaßen ein Zwischenbild dazwischen gesetzt, um dieses „Verschmieren“ zu reduzieren. Die Kathodenstrahlröhre hatte diesen Effekt nicht, weil der Lichtimpuls nach 20 ms bzw. 40 ms wieder gewissermaßen ins Schwarz abfiel und somit sich „aus dem Schwarzen kommend“ wieder ein neues Bild aufbaute.

Die Lösungen bei der Kamera sind relativ einfach. Man verkürzt die Belichtungszeit durch den Shutter. Nachrichtentechnisch bedeutet ein Shutter nichts anderes, als eine höhere Bildfrequenz mit anschließender Unterabtastung. Und auch bei der Wiedergabe hatte die Elektronenstrahlröhre ein Shutter-Verhalten, denn der einzelne Bildpunkt wurde ja nur kurz angesteuert und verlosch nach 20 ms bzw. 40 ms. (Anmerkung: die auch bei den CRTs bekannte 100-Hz-Ansteuerung, hatte einen ganz anderen Grund, nämlich die Verhinderung des Großflächenflimmern.)

Die Lösung bei den Flat-Panels wird heute durch das Setzen eines Zwischenbildes erreicht, das allerdings nicht durch die Produktionskette geschleust, sondern im Empfänger selbst durch Bewegungschätzung generiert wird. Es gibt auch bei Flat-Panels bereits die Möglichkeit, ein Schwarzbild dazwischen zu setzen, um den Verwischungseffekt zu reduzieren (Black Frame Insertion). Das lässt sich allerdings im Consumerbereich nur schwer vermarkten, weil zwar die Bewegungswiedergabe besser ist aber der Bildschirm nur halb zu hell ist wie der ohne Schwarzbildgenerierung.

UHD verlangt langsame Schwenks

Dieses Dilemma ist schon seit langem bekannt, aber es wird durch die höhere Auflösung schlimmer. Der Referent führte dann Grenzbetrachtungen zur Bewegungsunschärfe aus. Die Betrachtungen führten dazu, dass bereits heute mit HD eine Schwenkgeschwindigkeit von einer Bildbreite in 10 Sekunden nicht überschritten werden sollte. Und das ist sehr langsam. Rechnet man das auf 4K um, so müsste der Schwenk für eine Bildbreite schon 20 Sekunden dauern. Schwenkt man schneller, ist die Wirkung der 4K-Auflösung weg. Das ist genau genommen, ganz einfache Physik, aber das muss man auch berücksichtigen, wenn man die Auflösung auf 4K oder gar höher treiben will. Das bedeutet natürlich auch, dass die Erhöhung der Auflösung ganz wesentlich bei der Bildgestaltung berücksichtigt werden muss, anderenfalls nehmen wir in 4K auf, aber es ist „nicht 4K drin“.

Im Grundsatz galt das ja bereits für 2K-HD. Schon damals haben die Techniker gesagt, dass wir ruhigere Bildszenen und langsamere Schwenks (und auch Schnitte) usw. brauchen. Das aber wird bis heute nicht gemacht, und man hat sich scheinbar dran gewöhnt. Aber es trägt natürlich auch bereits bei 2K zur scheinbaren Verringerung der Bildauflösung bei.

Die Frage ist deshalb, wie wird sich der Zuschauer verhalten. Wird er weiterhin, wie es heute üblich ist, zu weit entfernt sitzen. Dann hat er eine grundsätzliche Verringerung der Bildschärfe, weil das Auge aus der weiteren Entfernung nicht in der Lage ist, die hohe Bildauflösung wahrzunehmen. Dann werden ihn schnellere Schwenks wahrscheinlich nicht stören. Nimmt er aber die Position ein, die man ihm von der ingenieurmäßigen Seite empfehlen muss, um den Vorteil von 4K auch sehen zu können, dann sollten auch die angegebenen Schwenkgeschwindigkeiten nicht überschritten werden, was aber nicht den heutigen Gepflogenheiten entspricht.

Es kommt in diesem Zusammenhang noch dazu, dass dann, wenn man die Bedingungen für 4K einhält, die Multimedialität eingeschränkt wird. Denn ein solches Bild bzw. eine solche Bildsequenz empfindet man dann nicht mehr als angenehm, wenn man es auf kleineren Bildschirmen zeigt. Es gibt Überlegungen, innerhalb des UHD-Bildes Ausschnitte zu wählen oder Schwenks auszuführen, um auch diese kleineren Bildschirme (Tablets oder Smartphones beispielsweise) bedienen zu können. Wie das letztendlich aber wirklich ausgehen wird, kann im Augenblicke niemand vorhersagen. Auch hier gilt, dass man erst einmal mit 4K mehr Erfahrungen sammeln muss.

Der Referent untersuchte dann auch noch die hohen Aufnahmebildfrequenzen und die sich ergebende Auflösung in der Gesamtkette. Diese Untersuchungen stehen aber noch ganz am Anfang. Man muss eigentlich erst die neuen Coder haben und sehen, ob man die Bilder eventuell stärker  komprimieren könnte, weil die Einzelbilder selber ja schärfer sind. Noch ist es aber zu früh, hier seriöse Angaben zu machen.

Was ist da, wenn wir mit 4K beginnen wollen?

Angenommen, wir wollten heute mit 4K beginnen, so stellte die Frage, was ist das denn bereits am Markt oder wird in Kürze am Markt sein, damit wir loslegen können.

Kameras

Bei den Kameras sieht es gar nicht so schlecht aus. Hier gibt es bereits einige Produkte auf dem Markt, zum Beispiel von Red, Sony, ForA (sogar HFR bis 900 Bilder pro Sekunde), Blackmagic, andere werden in Kürze folgen. Allerdings sind die Workflows anders. Oftmals wird in Ermangelung von 4K-Interfaces intern auf einen atenträger aufgezeichnet, vielleicht sogar noch Raw-Daten. Dann gibt es dafür ein Plug-in  für das NLE-System, um die Bilder nachzubearbeiten. Das funktioniert, kostet aber viel Zeit. Man kann damit eine Feature-Produktion machen, aber für den Live-Betrieb ist diese Methode nicht möglich.

Bei UHD-2 glaubt man wahrscheinlich, dass es gar nichts gibt. Tatsächlich gibt es aber bereits eine 8K-Super-High-Vision-Kamera von Hitachi, die auch schon auf Messen, wenn auch nicht in Betrieb, gezeigt wurde. Die Kameras scheinen also nicht das Bottleneck zu sein, wenn man UHD machen will. Aber es braucht noch seine Zeit, bis das Angebot größer wird

Interfaces

Bei den Interfaces hingegen, sieht es nicht sehr gut aus. Es gibt zwar zum Beispiel von der SMPTE eine Recommendation für das Mappen von UHD-TV in ein 10-Gigabit/s-Interface. Es soll auch bereits die Möglichkeit geben, in ein 25-Gbit/s-Interface zu mappen und es gibt eine Beschreibung, wie man in vier 3G-SDI-Interfaces Einzelbilder bis zu 12 Gbit/s mappen kann. Allerdings sind es im Moment erstmal nur die Standards oder Recommendations, es gibt noch keine Produkte dazu. Und es scheint wohl im Prinzip auch nicht das zu sein, was man eigentlich gerne haben möchte.

Codecs

Es gibt bisher nur einen Codec, den man in Mainstream-Produktionen einsetzen könnte, den XAVC von Sony, der für 4K bzw. UHD-1 mit einer maximalen Datenrate von 960 Mbit/s geeignet ist. Für High Frame Rates ist noch nichts in Sicht.  Für 8K gibt es ebenfalls noch nichts. Bei Panasonic findet sich der Hinweis auf eine Roadmap für 4K, wobei es aber noch keine kommunizierten Angaben und Zeitpläne für die Unterstützung von 4K oder 8K gibt.

Für die Codecs in der Distribution könnte man sagen, dass sich mit AVC 4K übertragen ließe, aber neue Chips und eine Erweiterung der Standards in der Anwendung zum Beispiel für die BluRay oder DVB erwartet werden müssen. Eventuell wären Produkte mit einem internen Clustering von vier Encodern für geschlossene Anwendungen denkbar. Jetzt ist nun gerade der neue Standard HEVC verabschiedet worden, der gegenüber AVC etwa 42 % Ersparnis bringt. Dort sind bereits Levels vorgesehen, die beide UHD-Varianten unterstützen. Die Roadmap der Chiphersteller liegt bei Ende 2013 für 4K@p/24,25,30 und bei Ende 2014 für 4K@p/50,60. Und wenn man dann davon ausgeht, dass mit diesem Chips die Geräte für den größeren Markt hergestellt werden, dann liegt man sicherlich nicht falsch, wenn man Ende 2015 als realistischen Beginn für 4K wird vorsehen können.

Zum Thema 4K bei höheren Bildfrequenzen sind die Angaben heute noch sehr spekulativ. Bräuchte man für 4K/p50 etwa 14 Mbit/s, so sind es bei 100 Hz bereits 21 Mbit/s, bei 8K für p50 sind es 56 Mbit/s und bei 100 Hz gar 84 Mbit/s. Vielleicht gibt es Möglichkeiten die Datenrate um 20 % etwa zu reduzieren, aber auch das ist zurzeit noch hoch spekulativ.

Consumer-Interfaces

Was die Consumer-Interfaces anbelangt, so lassen sich HEVC-Signale über alle existierenden Interfaces übertragen. Das Problem wäre heute noch die HDMI-Schnittstelle. Die neue Version 1.4B, die bereits in einigen Fernsehgeräten eingebaut ist, unterstützt UHD-1 (4K) nur bis 30 Hz, die HDMI 2.0 (oder HDMI 5, Bezeichnung noch nicht geklärt) wird gerade abgeschlossen und soll 4K bis 60 Hz unterstützen. Wie es mit 4K bei 100 oder 120 Bildern pro Sekunde oder gar bei 8K aussieht ist noch vollkommen ungeklärt.

Bei Displays gibt es HD-Panels, die intern bereits mit 120 Hz oder 240 Hz arbeiten. Es sind auch entsprechende Schnittstellen vorhanden, allerdings nur intern. 4K-Displays werden seit der Internationalen Funkausstellung 2012 vorgestellt. Professionelle Panels mit 4x 3G HD-SDI für p50/60 sind auch bereits verfügbar. 8K-Displays wurden ebenfalls bereits auf der internationalen Funkausstellung 2012 vorgestellt. Für die diesjährigen IFA werden natürlich deutlich mehr Angebote für 4K und auch 8K erwartet.

Ausblick

Zusammenfassend ergibt sich folgender Ausblick:

  • Kameras und Displays stellen aus technischer Sicht kein Hindernis für 4K (und sogar für 8K) dar.

  • Non-Live-Produktionen sind mit Raw-Formaten zeitnah möglich

  • Bottlenecks sind Schnittstellen für die Live-Produktion im professionellen Bereich sowie Codecs und Produkte für eine breite Einführung einer File-basierten Infrastruktur (Mainstream)

  • Experimentelle Live-Produktionen (4x3G) können zeitnah durchgeführt werden

  • Empfänger mit HEVC sind ab 2015 für 4K@p50,60 zu erwarten. Höhere Bildfrequenzen in marktrelevanten Stückzahlen werden erst deutlich später, vielleicht 2018, kommen. Software-Lösungen sind früher denkbar

  • Einzelne Sender werden aus Marketinggründen ab diesem Zeitpunkt 4K anbieten. Endgerätehersteller werden zeitgleich 4K-Inhalte fordern, um 4K bzw. autostereoskopische 3D-Panels vermarkten zu können.

  • Der technische Mehrwert von 4K ohne höhere Bildfrequenzen und eine höhere Dynamik (HDR) ist indessen nur begrenzt erkennbar.

  • Szenische Rückwärtskompatibilität (dynamische Bildgestaltung) und erwartetes Nutzerverhalten (Betrachtungsabstand) unterstreichen den Bedarf nach höherer Bildfrequenz.

  • Eine Ausstrahlung ist über die existierenden Verteilwege möglich, bei Reduktion der Programmanzahl auf etwa 60 % (4K ohne HFR) bzw. 40 oder 50 % (4K mit HFR).

  • 8K ist auf einem guten Weg in Japan bis 2020 eingeführt zu werden

  • HD-Investitionen für den Mainstream sind noch lange sicher – HD kann sogar mit 4K-Sensoren besser ausgereizt werden.


Text und Foto: @ Norbert Bolewski
Weitere Beiträge von FKTG-Mitgliedern