Der neue Videocodec HVC Ultra

Beiträge von FKTG-Mitgliedern - Für die Inhalte sind die Autoren verantwortlich

Auf einer Regionalveranstaltung der FKTG am 13. Juni in Leipzig stellte Stefan Hofmann, im FKTG-Vorstand und Business Development Manager bei Panasonic, den neuen Videocodec HVC Ultra vor. Insbesondere die Produktionsmitarbeiter des MDR bildeten den Großteil der etwa 50 Veranstaltungsteilnehmer, die von den beiden Regionalleitern Prof. Dr. Adolf Finger und André Guthannß geleitet wurde.

Warum und Warum nicht H.265

HVC Ultra ist ein von Panasonic auf der NAB 2011 vorgestellter Videocodec. Ein erstes Kameramodell, das damit bestückt werden kann, wurde auf der NAB 2012 gezeigt. Der neue Codec basiert auf der bekannten H. 264-Familie. Seine genaue von der ISO standardisierte Bezeichnung ist H.264/AVC MPEG-4 Part 10. Dieser Teil 10 mit der Ausprägung AVC Intra stellt die Profi-Variante des H.264 Consumer-Standards dar. Man fragt sich natürlich, warum schon wieder ein neues Format? Und die sich daran anschließende Frage ist, warum nicht dann gleich H.265?

Tatsache ist, dass die erste Fassung von AVC Intra beispielsweise noch nicht die Möglichkeit vorsah, mit 1080p50/60 zu arbeiten, weil das damals noch gar nicht existierte. AVC Intra wurde deshalb weiter entwickelt in Richtung höherer Bildqualität, was heute auch die zukünftige Thematik 2k, 4k, ja sogar 8k, mit einschließt. Für diese höher gehenden Auflösungen gibt es leider keinen Standard für Videocodecs. Jeder Hersteller macht was anderes. Und da H.264 der nach Angaben des Referenten weltweit gesehen am weitesten verbreitete Codec ist, lag es für Panasonic als Hersteller relativ nahe, diesen Codec im Prinzip beizubehalten und ihn wesentlich zu modifizieren. Auf den neuen Standard H.265 zu warten hätte keinen großen Sinn gemacht, weil der Codec mit H.264 kompatibel sein sollte und der H. 265 auch nur eine Optimierung von H. 264 darstellt, er also nicht wirklich grundsätzlich neues darstellt.

Die Mathematik bleibt H.264

Dieser neue Codec mit der Bezeichnung HVC Ultra verwendet letztendlich die ganze Mathematik, die auch im H.264 steckt. Das heißt, HVC Ultra hat den Vorteil identisch mit H.264 zu sein, nur an einigen Stellen wurden wesentliche Verbesserungen bzw. Veränderungen vorgenommen. Also auch hier wurde der Standard H.264 optimiert, mit dem Ziel bessere Bildergebnisse und ein besseres Multigenerationsverhalten zu erreichen. So wurden einige Dinge realisiert, um die Einsatzmöglichkeiten eines bekannten Codecs zu erweitern und ihn gewissermaßen fit zu machen, um ihn sowohl in Networks, als auch für kreative Produktionen einsetzen zu können – dabei spielen Datenraten und Filestrukturen eine Rolle – und natürlich sollen auch gleichzeitig kosteneffektivere Lösungen erreicht werden.

Wenn man in Richtung höherer Auflösungen geht, wird logischerweise die Datenrate stark nach oben getrieben. Man kommt dabei leicht über 100 Mbit/s oder gar 200 Mbit/s. Dann aber entsteht bei vielen Fernsehanstalten das Problem, dass die Studioperipherie (noch) nicht auf diese hohen Datenraten ausgelegt ist. Hier gab es von Seiten der Anwender den Wunsch, die Datenrate für einen netzwerkbasierten Workflow reduzieren zu können. Das wurde in HVC Ultra nun auch mit zwei Ausprägungen für 25 Mbit/s und 50 Mbit/s erreicht. Und das was man heute im Markt von MPEG 2 mit 50 Mbit/s schon kennt, schafft dieser Codec mit der Hälfte der Datenrate ebenso gut und sogar besser. Wie gut genau, das – so der Referent –  wird sich wahrscheinlich am Ende des Jahres, vielleicht im September, beim nächsten Videocodec-Test der EBU zeigen können. Die Erwartungen sind hoch.
Tatsächlich gibt es jetzt auch für extremere Datenratenreduzierungen, beispielsweise für den Videojournalismus, Möglichkeiten. Dafür vorgesehen sind Datenraten für 12 Mbit/s und 6 Mbit/s und und für Proxy-Anwendungen (Suchsysteme) sogar bis letztlich auf 800 kbit/s.

Ein Codec für alles

Der AVC Ultra-Codec – und das ist das Besondere – ist also in der Lage, angefangen von 444 Mbit/s bis zu den niedrigsten Datenraten alle Ausprägungen auszulesen. Oder anders ausgedrückt, mit einem einzigen Videocodec ist volle Interoperabilität über praktisch alle Datenraten gegeben.

Die nachstehende Tabelle zeigt alle die Möglichkeiten auf, die der neue Videocodec in der Lage ist, zu bedienen. Faktisch alle drei Anwendungsgebiete - Studioqualiät mit den  höchsten Datenraten (Intra) bis zu Datenraten für Videojournalismus mit AVC LongG und für Archiv und Suchzwecke der Modus AVC Proxy, - und somit alle Produktionsbereiche, werden mit ein und demselben Videocodec abgedeckt.

 

Längere Group of Pictures (GoP)

Beim Modus LongG deutet der Begriff  bereits an, dass sich ursächlich am meisten Datenrate durch eine längere Group of Pictures (GoP) erreichen läßt. Allerdings gibt es da auch Sachzwänge zu beachten. Einer davon ist die Art der „Verpackung“. Das Fileformat für AVC LongG bei 50 und 25 Mbit/s heißt nun OP-1b und das Fileformat, bei den noch stärker reduzierten Datenraten ist dann OP-1b/mov. Bei der Proxy-Variante kommt dann nur noch das mov-Format nach Quicktime infrage.

Weitere „Stellschrauben“, an denen gedreht wurde

Der Referent ging anschließend sehr in die Details des Codecs um darzustellen, an welchen Stellschrauben gewissermaßen Änderungen gemacht wurden, um diesen sich selbst gestellten Anforderungen zu genügen. Eine Besonderheit zum Beispiel ist, die 1920 Bildpunkte erst auf 1440 zu reduzieren und dann erst zu komprimieren. Eine andere ist die Intraframe-Vorhersage. Das heißt, man macht eine Vorhersage für das nächste Bild und überträgt dann nur die Differenzen zum Originalbild, was etwa 20 bis 30 % an Bitrate spart. Und eine dritte Stellschraube ergibt sich in der Entropie-Codierung. Hier setzt man (wie übrigens bei H.265 auch) auf CABAC. Das ist die amerikanische Abkürzung für eine kontextadaptive binäre arithmetische Codierung ( CABAC ).

Dieses Verfahren ist sehr viel effizienter als die bisher auch verwendete  CAVLC (kontext-adaptive Codierung mit variabler Länge), aber  auch sehr viel rechenintensiver. Da aber die IT-Technik heute sehr viel mehr Rechenleistung zur Verfügung stellt, verwendet man überwiegend diese Form und spart dabei verlustlos (!) übrigens etwa 30% bis 40% noch einmal ein gegenüber CAVLC.

Das Know-how findet sich nur in zwei neue Bausteinen

Der Aufbau des AVC-Ultra-Codecs unterscheidet sich im wesentlichen durch zwei neue, dem Coder vorgelagerte Chip-Bausteine, der eine zur Vorcodierung und zur Bildanalyse und der andere stellt einen Bit-Allocation-Optimierer (Bit-Zuordnungsalgorithmus) dar.  Insbesondere der erste Baustein dient vor allem dazu, besser als bislang die Bewegung zu definieren, um somit ausgehend vom Grundbild eine längere Group of Pictures mit gleicher oder geringerer Anzahl an Stützbildern zu erreichen. In diesem Baustein steckt gewissermaßen das Know-how, das von Panasonic auch nicht näher bekannt gegeben wird. Angegeben wurde vom Referenten, dass man diese Analyse je Grundbild zweimal oder gar öfter vornimmt, um die Genauigkeit der Vorhersage, mit der gewissermaßen die gesamte Qualität der Bilder steht oder fällt, besser vorhersagen zu können. Im anderen neuen Block, in der adaptiven Bit-Allocation, erfolgt die Optimierung nicht nach einer festen „Vorschrift“, sondern bildinhaltsabhängig. Wie nun die genaue Group of Pictures aussieht, wie lang sie insgesamt ist, und in welcher Form I-, B- und P-Frames am Ende vorliegen, wird zurzeit nicht veröffentlicht.

Der Referent wagte sich ein wenig in die Richtung einer GoP-Länge von 15 bis 18 Bildern mit deutlich mehr B-Bildern als P-Frames. Genauere Angaben sind darüber auch im Internet nicht zu finden.

Was hinten rauskommt ist entscheidend

In diesen beiden Bausteinen liegt gewissermaßen das „Geheimnis“ des AVC Ultra-Codecs wie man bei gleicher Bildqualität zu niedrigen Datenraten kommt. Bei der Entwicklung des Codecs war aber bei allen Modifizierungen eine Grundbedingung einzuhalten. Am Ausgang des Codecs muss das Signal von jedem MPEG-4-Decoder decodiert werden können. Denn nur dann kann eine wirkliche weltweite Operabilität sichergestellt werden und nur dann erhält man die Zertifizierung von MPEG.

Ein weiterer Punkt ist, dass die entsprechenden Parameter auch sinnhaftig innerhalb des MPEG-4-Komplexes sind und übertragen werden. Und das bedeutet, dass man ja auch bei längerer GoP bildgenau schneiden will. Außerdem müssen die ganzen Metadaten sauber mitgeführt werden und sie müssen auch an der richtigen Stelle stehen, um zum Beispiel „Cut detection and I-Frame insert“ zu garantieren (das bedeutet, wie kommt man von einem B- oder P-Frame zu einem I-Frame) – diese und andere Fragen (Realtime Timecode zum Beispiel und die Ausstattung des Buffers) müssen gelöst sein, und wurden vom Referenten kurz angesprochen.

Der Chip und seine Datenstruktur

Gewissermaßen im zweiten Teil des Vortrags ging der Referent auf den AVC-Ultra-Chip ein. Der Daumennagel große Chip mit 30 Megagates komprimiert in einem Baustein zwei Datenströme nach H. 264/AVC MPEG-4 Level 5.2. Er kann damit gleichzeitig zwei Datenströme zur gleichen Zeit komprimieren oder gleichzeitig jeweils einen Datenstrom komprimieren und dekomprimieren. Er stellte dann die File-Struktur vor und besprach noch sehr eingehend die Datenstruktur des Contents bei den File-Formaten wie OP-Atom, OP-1b, OP-1a.

micro-P2 card

Schließlich ging der Referent noch auf die Handelsform der micro-P2 card ein, die den gleichen Formfaktor wie die bisher bekannten SD-Karten haben (Bild).  Ihr maximaler Datentransfer liegt bei 2 Gbit/s und es gibt sie als 32-GB- und 64-GB-Karte.
 
Norbert Bolewski

Übrigens: Stefan Hofmann hat uns freundlicherweise auch den kompletten Foliensatz seines FKTG-Vortrags zur Verfügung gestellt.
 
Text und Fotos: @N. Bolewski
Folie Micro-Karte: Aus dem Vortrag vom Referenten
Weitere Beiträge von FKTG-Mitgliedern