Zukunft der Fernsehtechnik

Beiträge von FKTG-Mitgliedern - Für die Inhalte sind die Autoren verantwortlich

Der Bericht basiert auf einem Vortrag vor der FKTG-Regionalgruppe Leipzig.

Prof. Dr. Rolf Hedtke referierte über die Zukunft des Fernsehens, auch der Fernsehstudiotechnik. Er begann mit Hybrid-TV und Dynamic Broadcasting und leitete dann über zur Produktionstechnik, Cloud Computing und zu Bildverbesserungsmaßnahmen.

Einer neueren amerikanischen Untersuchung zufolge sehen über 50 % der Amerikaner nicht mehr das übliche Fernsehen sondern suchen sich über das Internet ihr Programm heraus, das sie gerade interessiert. Das ist in Deutschland noch nicht so, wird aber auch hier, insbesondere bei den jungen Menschen, zunehmen. Bei uns wünschen sich indessen nach einer Befragung der Deutschen TV-Plattform 88 % der Bundesbürger ein besseres Fernsehbild als heute, also durchgängig HDTV.

Lässt sich beides zusammenbringen und wie wird es beim Fernsehen weitergehen? Darüber sprach am 20. Juni 2012 Prof. Dr. Rolf Hedtke vor der FKTG-Regionalgruppe Mitteldeutschland in Leipzig. Der nachstehende Bericht basiert auf diesem Vortrag.

Hybrid-TV

Unter IPTV (Internet Protocol TV) versteht man die Übertragung von Fernsehen über spezielle Breitbandnetze. Das TV-Programm wird entsprechend dem Internetprotokoll codiert und über Breitbandnetze übertragen. Der Benutzer benötigt eine IPTV-Box eines Providers und ein (zu bezahlendes) Abonnement. Der Datendurchsatz ist unabhängig von der Anzahl der Benutzer, und die Qualität ist gut und kann auch voll HDTV-fähig sein.  Im Gegensatz dazu ist das Web-TV auf frei empfangbare Videos beschränkt, die über sehr unterschiedliche Internet-Netze empfangen werden können. Die TV-Programme werden als Stream übertragen, ohne dass – anders als bei IPTV – ein so genannter Quality of Service (QoS) existiert, das heißt, die sichtbare Bildqualität kann von gut bis unbrauchbar reichen. Sie ist abhängig vom übertragenen Datenstrom, von der empfangbaren Datenrate des Teilnehmers und – ganz entscheidend – von der Anzahl der Teilnehmer. Der Datenstrom  wird gewissermaßen aufgeteilt durch die Anzahl der Zuschauer, die das Programm gleichzeitig sehen wollen.

Eine Variante ist Hybrid-TV. Hier ist im Fernsehempfänger selbst ein integrierter Internetanschluss vorhanden. Die Inhalte werden einerseits über Satellit, Kabel oder Terrestrik im Fernseher in entsprechender Qualiät decodiert und auf dem Bildschirm dargestellt. Erweiterte Anwendungsmöglichkeiten für Hybrid-TV-Empfänger sind die Übertragung von zusätzlichen Daten, Zusatzinformationen, über das Internet. Man kann damit entweder zum Beispiel gleichzeitig ein kleineres zweites Bild oder Programm übertragen (Bild-im-Bild oder auf einem Laptop als „second screen“ zum Beispiel darstellbar), das im Zusammenhang mit dem Fernsehprogramm steht. Die Steuerung erfolgt über sogenannte Marker, die im Fernsehsignal mit übertragen werden, und die zum Beispiel dann auf einen Link zu einer bestimmten Webseite führen. In den USA wurde nun bereits eine interessante Variante erprobt, bei der im Fernsehsignal ständig Zeitmarken mit übertragen werden, die eine zeitsynchrone Wiedergabe eines zweiten Ereignisses über das Internet ermöglichen. Beispielsweise kann statt des Originaltons eine zweite Sprachfassung synchron zum Bild über das Internet wiedergegeben werden. Eine andere denkbare Anwendung ist die Übertragung des zweiten Bildes einer 3D-Wiedergabe. Über die normale Fernsehübertragungsstrecke wird dabei ein 2D-HDTV-Signal übertragen und derjenige, der einen entsprechenden Decoder hat, kann ein zweites Bild über das Internet zeitsynchron auslösen, so dass eine 3D-Wiedergabe ohne Einschränkung der Auflösung (wie das heute beim 3D-TV-Verfahren der Fall ist) erreicht werden kann. Heutige Hybrid-TV-Empfänger bieten zur Zeit noch nicht die Möglichkeit.

Ein Problem ist, dass das Internet keine konstanten Laufzeiten garantiert und damit per se keine  Synchronität sichergestellt werden kann, also ein Synchronitätsverlust entsteht, wenn  die Daten unterschiedlich lange und wechselnde Laufzeit haben. Man muss das Original-Fernsehsignal deshalb erheblich verzögern, gewissermaßen zwischenpuffern, um einigermaßen sicher die Synchronität beider Bilder oder Ereignisse aufrecht zu erhalten. Nun sind die meisten Sendungen des Fernsehens nicht Live. Das heißt sie sind eine Konserve und man könnte zum Beispiel auch daran denken, die Informationen, die über das Internet laufen sollen, schon weit vor der Fernsehausstrahlung auf einen  Speicher im Fernsehgerät zu übertragen, um aus ihm dann die entsprechenden Zusatzdaten mühelos synchron auszulesen.

Dynamic Broadcasting

Eine andere interessante Entwicklung ist das vom Institut für Nachrichtentechnik der TU Braunschweig unter Prof. Dr. Ulrich Reimers entwickelte Dynamic Broadcasting. Grundüberlegung: wenn man terrestrisch überträgt, so ist die Anzahl der übertragbaren Programme deutlich begrenzt. Es lässt sich nun mit der entwickelten Methode zum Beispiel ein Signal mit sehr niedriger Bandbreite für mobile Empfänger terrestrisch übertragen und für hochauflösende Wiedergabe die restliche Information per Internet synchron übertragen, die im Empfänger zu einem hochwertigen Gesamtsignal zusammengesetzt wird. Auch ganz andere „Zusammenstellungen“ sind möglich. Im Grunde handelt es sich um eine Entwicklung mit der die Fernsehprogrammübertragung dynamisch auf verschiedenste Weise aufgeteilt und übertragen werden kann. Kurzum, es erfolgt eine ökonomischere Ausnutzung terrestrischer Anwendungen bei der Rundfunk- und Fernsehübertragung.

Als Fazit bleibt: Das Internet wird das Fernsehen nicht ersetzen aber es bietet viele Möglichkeiten, es zu ergänzen.

Produktion

Während früher in einem Fernsehstudio jede  Bearbeitungsstufe eigene Geräte, also Hardware, verlangte, werden die Aufgaben in heutigen Studios über entsprechende Interfaces in Rechnern, Speichern und anderen IT-Produkten abgebildet. Die  Nachbearbeitung erfolgt heute fast ausschließlich über Software.

Für Neuanwendungen stehen dem Software-Entwickler entsprechende Module zur Verfügung, die in das Programm eingepasst werden. Das bedeutet natürlich auch, dass die Softwareentwicklung immer komplexer wird. Im Gegensatz zu früher ist eine ganze IT-Abteilung nötig, um die Software stets auf dem neuesten Stand zu halten und auf neue Geräte und Verfahren anzugleichen. Und alle paar Monate  kommen Software-Updates, die  vorher auch geprüft werden müssen, ob sie möglicherweise unerwartet Probleme bringen bei Anwendungen, die bislang bereits gut liefen.

Eine übergeordnete Gesamtlösung bietet eine sich so langsam einführende serviceorientierte (Netz-)Architektur (SOA). Das heißt, die einzelnen Funktionen der Software lassen sich kombinieren. Die Anwendung besteht dann aus einer Kombination von lose gekoppelten Diensten, die über einen Zentralcomputer bei Bedarf dynamisch gesucht und eingebunden werden. Die Kommunikation innerhalb einer solchen Architektur ist vollständig automatisiert. Dem Anwender bleibt verborgen, wie und wo die Aufgaben durchführt werden. Diese Methode bietet auch eine sehr ökonomische Auslastung der einzelnen Anwendungen. Diese Prozesse verlangen allerdings zwingend standardisierte Interfaces. Und das ist heute noch einer dieser “Knackpunkte”.  Eine entsprechende  Technikfestlegung und Standardisierung soll vor allem über die  Advanced Media Workflow Association  AMWA (www.amwa.tv)  erreicht werden. Wer näheres dazu wissen will, sich sich dort genauer informieren. Entwickelt werden dort so genannte FIMS, das sind firmenunabhängige Systeme, zur Implementierung interoperabler Mediendienste, basierend auf einer solchen serviceorientierten Architektur.

Cloud Computing

Einen Schritt weiter geht das so genannte Cloud Computing. Die Idee dahinter ist, dass ja weltweit gesehen eine unglaubliche Kapazität an Computer- und Speicherleistung vorhanden ist, deren Ressourcen (weltweit, also auch zeitzonenweit) einen großen Teil des Tages brach liegen. Diese kann man für solche Anwendungen verwenden, wenn ihre Architektur dieser serviceorientierten Architektur angepasst ist. Dann besteht die Möglichkeit, dass eine Anwendung dynamisch automatisch erstellt wird und nur zur Zeit der Ausführung existent ist. Der Serviceprovider, das kann natürlich auch eine große Rundfunkanstalt allein sein, sorgt in dem Falle für eine entsprechende Umgebung für die Ausführung. Wo die Ausführung tatsächlich abläuft, bleibt für den Anwender verborgen und ist für ihn auch unwichtig. Er gibt nur seine Anwendung in die Cloud und erhält wiederum die Rückmeldung der Anwendung auf seinen Rechner. Solche Cloud-Anwendungen wären zum Beispiel die (zeitaufwendige) Transcodierung in unterschiedliche Bearbeitungs- und Verteilformate (zum Beispiel für Mediatheken), Rendering bei Grafik-Anwendungen, Editing, Bildbearbeitung (Farbkorrektur zum Beispiel), automatisierte Qualitätskontrolle, Verteilung der Arbeitsplätze, Konvertierungen und Formatwandlungen.

Bildverbesserungsmaßnahmen

Erhöhung der räumlichen oder zeitlichen Auflösung

Als kommende Bildverbesserungsmaßnahme wird die Aufnahme und Verteilung der Bilder in 1080p50 gesehen. Heute üblich ist das internationale Fernsehformat 1080i25  (1080 aktive Zeilen im Zeilensprungmodus, Interlace)  oder aus deutschen (und anderen) Studios aufgenommen und ausschließlich verteilt 720p50 (720 Zeilen im Vollbildmodus). Das erstere bietet eine höhere Bildpunktzahl (durch das De-Interlacing allerdings stärker fehlerbehaftet), aber eine geringere Bewegungsauflösung, letzteres umgekehrt eine geringere Bildpunktzahl aber dafür die doppelt so schnelle Bewegungsauflösung. Ein moderner Fernseher zu Hause (zumindest fast alle die Flatscreens, die nicht älter als zwei oder drei Jahre alt sind) rechnen das Bild aber auf die mögliche maximale HDTV-Bildpunktzahl von 1920×1080 Bildpunkten bei voller Bewegungsauflösung von 50 Hz um.  Der nächste Schritt wäre es deshalb, die Aufnahme und Wiedergabe mit der maximalen HDTV-Leistung, das heißt im Format-Deutsch 1080p50, also volle Bildpunktzahl 1920×1080 bei 50 Hz Bewegungsauflösung aufzunehmen und zu übertragen. Technisch optimal, wirtschaftlich nicht ideal, denn es wird die doppelte Bandbreite und die doppelte Datenrate benötigt. Und die Frage ist, ob der Fernsehteilnehmer dies letztlich als große Verbesserung ansehen würde.

Allerdings werden auch in der allgemeinen Presse vereinzelt immer mehr Stimmen laut, die eine höhere Bewegungsauflösung fordern, höher als die heute (in Europa) maximal 50 Bildwiederholwechsel je Sekunde. Das hängt damit zusammen, dass im Gegensatz zu den früheren Bildröhrenfernsehern heute sehr viel größere Displays üblich sind und der Betrachtungsabstand für HDTV etwa 3H sein sollte, was bedeutet, dass die Betrachtungsentfernung der dreifachen Bildhöhe im Idealfall entsprechen sollte. Das wiederum hat zur Folge, dass der Unterschied von einem Bild zum anderen bei einer schnellen Bewegung von der Strecke her (genauer von der Winkelgeschwindigkeit her) größer als bei einem kleinen Fernsehbild ist und damit stärker wahrgenommen wird (die Tatsache, dass einige Geräte intern auf höhere Bildwiederholfrequenzen 100 Hz oder gar 200 Hz umrechen, schafft keine wirkliche Verbesserung sondern nur eine vielleicht „glattere“ Bewegungsverunschärfung. Für eine wirkliche Erhöhung der Bewegungsauflösung müsste die Aufnahme auch bei 100 oder mehr Bilder je Sekunde (Hz) liegen. Einige Fachleute sprechen sich insbesondere bei schnellen Sportereignissen dafür aus, aber das bedeutet natürlich auch wieder eine Verdoppelung der Datenmenge.  Auch eine Erhöhung der Datenrate? Genau genommen natürlich ja, allerdings haben Versuche unter anderem in der Hochschule RheinMain gezeigt, dass praktisch nur eine um 40 Prozent höhere Datenrate reicht, um visuell gegenüber einer Verdoppelung keinen Unterschied mehr zu bemerken. Ob und wenn ja, wann die Aufnahme- und Wiedergabe-Bildpunktzahl 1080p50 kommt oder gar eine noch höhere Bildfrequenz, ist allerdings im Moment weltweit völlig offen.

UHDTV

Allerdings gibt es seit Jahren schon bei der japanischen Fernsehgesellschaft NHK den Vorschlag UHDTV (Ultra High Definition TV). Die europäische Rundfunkunion EBU steht diesem Vorschlag offen gegenüber, in den USA bei der SMPTE wurden die entsprechenden Parameter gerade von kurzem standardisiert. Und zur Olympiade 2012 in London werden einige Wettkämpfe zusätzlich in UHDTV aufgenommen werden.

Die Idee, die dahinter steckt, ist, dem Zuschauer das Gefühl zu vermitteln, sich direkt im Geschehen zu befinden (Blickwinkel größer 100 Grad). Der ideale Betrachtungsabstand ist nur noch das 0,75fache der Bildhöhe, die Auflösung entspricht  7680 × 4320 Bildpunkten (16x HDTV). Die Demonstrationen auf der International Broadcasting Convention in Amsterdam im vorigen Jahr waren in der Tat atemberaubend (24 Tonkanäle übrigens). Die Japaner wollen das im Jahre 2020 als Regelbetrieb einführen. Etwas realistischer für Wohnzimmer wäre die vorgeschlagene und zum Standard gehörende Zwischenform von 3840 x 2160 Bildpunkten, 4 x HDTV = 4K. Dafür wurden auf der letzten Consumer-Messe in den USA erste Displays mit entsprechender 4K Auflösung vorgestellt, die sogar bald in den Handel kommen sollen. Wo indessen die Bildquellen herkommen sollen, ist im Moment noch nicht klar. Wenn aber große Unternehmen wie Sony und Panasonic derartige Bildschirme entwickeln ist allerdings zu vermuten, dass ihre Marktforschungsabteilung auch reale Absatzchancen dafür sieht.

Und noch andere Bildverbesserungsmaßnahmen

Größere Farbtiefe

Weitere Bildverbesserungsmaßnahmen sind denkbar. Hier zum Beispiel für die Aufnahme die Entwicklung von Kameras mit 12 oder 16 bit Farbtiefe statt wie heute mit 10 bit oder gar 8 bit. Sie würden einen größeren Kontrastbereich überdecken können, so dass in der Nachbearbeitung ein besserer Ausgleich von Lichtern und Schatten erreichbar wäre. Auch ließen sich Farben aufnehmen, die aufgrund ihrer hohen Spektraldichte (z. B. Neonlichter) bislang nicht im Farbraum farbrichtig darzustellen sind. Und es sind  TV-Displays, AMOLEDs, in der Entwicklung, die diese auch darstellen können. Es gibt Prototypen mit LCDs mit zusätzlich Cyan- und Gelbpixeln, die ebenfalls einen größeren RGB-Farbraum bieten könnten.

 3D

Der ursprüngliche vor einem Jahr ausgelöste Hype bei 3D für den Heimfernseher ist wohl vorbei. Der Hauptgrund ist die zwingende Verwendung von zusätzlichen Betrachtungsbrillen (meist Shutterbrillen oder seltener Polarisationsbrillen), die sich doch als ein Hemmschuh herausgestellt haben. Die im Kino bei 3D-Filmen zwar eingeschränkte Fixierung auf eine Sitzposition ist anders als im häuslichen Bereich für die Beibehaltung der 3D-Wirkung indessen förderlich.

Unterschiedliche Ansichten (= Kameras) wären deshalb bei der Heimwiedergabe eigentlich nötig. Es gibt Methoden, die verschiedenen Ansichten aus den beiden Bildern zu errechnen. Sie funktionieren zwar, es sind aber technische und sichtbare Unzulänglichkeiten vorhanden. Autostereoskopische, also brillenlose Verfahren, verlangen etwa neun perspektivisch unterschiedliche Ansichten, die voneinander getrennt dem Auge des Betrachters dargeboten werden müssen. Das bedeutet selbst bei einem extrem hoch auflösenden 4K-Display eine fast schon unakzeptabel zu nennende 3D-Wiedergabeauflösung von 700 Bildpunkten horizontal je Ansicht. Hinzu kommen extrem hohe Datenraten für die mindestens 8 Kameras bei der Aufnahme, um diese Ansichten real überhaupt aufzunehmen. Wenn man sich diese Daten und Argumente im wahrsten Sinne des Wortes vor Augen führt sieht es eigentlich (noch?) nicht so aus, als ob mit einem durchschlagenden Erfolg in den nächsten Jahren zu rechnen sei. Fachleute sprechen übrigens  von mindestens (!) zehn Jahren noch.

Neues Videoverfahren

Es gibt seit 2010 ein neues Codierverfahren, HEVC, High Efficient Video Coding. Die Effizienz gegenüber dem heute verwendeten AVC-Codierverfahren, wie es heute bei HDTV benutzt wird,  ist doppelt so hoch. Das bedeutet vereinfacht, gleiche Bildqualität bei halber Datenrate. Die endgültigen Spezifizierungs- bzw. Standardisierungsdaten sind 2013 zu erwarten. Was wird das in der Praxis bedeuten? Erst einmal gar nichts, denn das HDTV mit der AVC-Codierung wird erhalten bleiben, schließlich kann man dem Bürger nicht zumuten, dass er sich schon wieder gefälligst einen neuen Fernseher kaufen soll. Aber 1080p50 mit gleicher Bandbreite wie heute, kompatibel zum heutigen Standard, das ließe sich mit diesem Codierverfahren erreichen. Man könnte auch 4K UHDTV (dann eben mit HEVC statt AVC, was von NHK bereits in Betracht gezogen wird) realisieren. Oder eben Internet-Fernsehen, das wäre insofern einfacher, weil der Software-Anbieter Microsoft oder Apple das gleich als Codierverfahren  mit einführen würde. Auch bei mobilem Videoempfang könnte es dann HDTV geben.

Fazit

Bessere technische Bildqualität wird so oder so kommen, schließlich will die Industrie auch in fünf Jahren neue Fernseher oder Fernsehwiedergabemöglichkeiten anbieten. Es bleibt also weiterhin spannend, welche Entwicklungen wirklich auf den Markt kommen oder in den Fernsehanstalten eingeführt werden.

P.S. Ergänzend dazu teilte mir Yvonne Thomas nach Veröffentlichung noch mit, dass die Bezeichnung 4K beim Film 4096 x 2160 Pixel bedeuten und beim Quad-HDTV 3840 x 2160 Pixel, es aber noch keine Einigung über die Bezeichnung gibt.


N. Bolewski – nach einem Vortrag von Prof. Dr.-Ing. Rolf Hedtke vor der FKTG-Regionalgruppe Mitteldeutschland in Leipzig am 20. Juni 2012
Foto: N. Bolewski

Weitere Beiträge von FKTG-Mitgliedern