Zwischenbericht der dwerft Potsdam

Seite ausdrucken und/oder als E-Mail versendenSeite ausdrucken und/oder als E-Mail versenden

Im November 2014 stellte Peter Effenberg, Geschäftsführer der transfermedia production services GmbH in Potsdam, das Technologiebündnis „dwerft“ in Potsdam-Babelsberg vor. Ich berichtete damals in meinem Blog darüber, der unter https://www.fktg.org/node/8129/  nachzulesen ist. Nun gab es am 12. April 2016 einen Zwischenbericht über das bis auf 2017 angelegte Projekt.

 

Die Aufgabe ist vom Ansatz her ein wahrhaft großes Unterfangen. Denn die Idee, die dahinter steckt, ist die Entwicklung einer globalen Vernetzungsplattform für Film- und TV-Produktionen. Praktisch die gesamten Informationen für eine Produktion sollen in einer Datenwolke, genannt Linked Production Data Cloud (LPDC), abgelegt werden: Angefangen von der ersten Idee bis zum

Treatment, zum Drehbuch, alle administrativen Angaben für die Vorproduktion, für die Dreharbeiten selbst, über die Postproduktion, über den Vertrieb, die Rechtesituation bis hin zur Archivierung. Alle Informationen sollen tagesaktuell in dieser Datenwolke verfügbar und miteinander verlinkt sein. Das zumindest war und ist nach wie vor die Ausgangsbasis, wie einleitend Peter Effenberg (Foto), der Gesamtprojektionsleiter dwerft, nochmals darlehte.

Dieser Gedanke bietet sich natürlich heute an, denn praktisch alle Produktionen heute sind filebasiert, in verschiedenen Tools werden bereits Metadaten automatisch erzeugt, alle anfallenden Arbeiten wie Drehbuch, zeitliche Planungen usw. werden in Text- oder Excelprogrammen abgelegt, sind also prinzipiell als Daten verfügbar und können ergänzt, geändert und den jeweiligen Bearbeitungsebenen angepasst werden. Es kommt also nur (!) darauf an, sie miteinander zu verbinden.

 

Daten sind nicht gleich Daten

 

Und genau das ist das Problem, denn Daten sind eben nicht gleich Daten. Das heißt, jedes Tool, wenn es denn eines für den gewünschten Anwendungsfall überhaupt gibt, spricht eine andere (Daten-)Sprache. Es gilt also einerseits die Anforderungen erst einmal datenspezifisch aufzulisten, um sie dann in eine gemeinsame Datenstruktur zu „übersetzen“, zu transcodieren. Diese Gesamtaufgabe ist zu groß, um sie in einem einzigen Schritt zu lösen. Man muss sie deshalb erst einmal in Einzelteile auflösen und - das ist wichtig -  dabei stets beachten, dass man sie so anlegt, dass eine gemeinsame Anpassung in Form einer steten Erweiterung gesichert ist. Dann wird es möglich sein, sukzessive die einzelnen Tools zu einer später einmal umfassenden Verlinkung des Gesamtsystems zu schaffen. Das wäre dann erreicht, wenn alle Tools mit allen anderen Tools des Systems miteinander kommunizieren können.

 

Vorteile der LPDC

 

Die Vorteile wären dann deutlich effizientere Workflows, mehr Transparenz und die Möglichkeit, auf intelligentere Produktionsweisen zurückzugreifen. Die so gebündelten Produktions-Metadaten stehen zudem für das Marketing von Filmen deutlich früher zur Verfügung und können bereits während der Produktionsphase für das Ansprechen von Zuschauern genutzt werden.

Um das Ganze überschaubar zu halten wurden für einen ersten Testlauf sechs verschiedene Technologien aus den verschiedenen Herstellungsprozessen an die LPDC angebunden.

Das erläuterten in einem gemeinsamen Vortrag Maike Albers (transfermedia production services) und Dr. Harald Sack (Hasso-Plattner-Institut), der im übrigen auch die Gesamtleitung der Semantik-Technologie-Gruppe hat. Maike Albers (Foto) ist eine langjährige Mitarbeiterin, die alle Stufen der Filmproduktion kennt und die fachliche Unterteilung erkennen und abbilden kann. Einen kleinen Ausschnitt aus der Gesamtauflistung und deren Untergruppen zeigt Bild rechts oben aus dem Bereich Vorproduktion. Dr. Sack ist Wissenschaftler und derjenige, der dann die Aufgabe leitet, die Verbindung zwischen den einzelnen Tools in der Netzstruktur abzubilden. Beide Funktionen ergänzen sich damit idealerweise. Bereits die Auflistung bisheriger Tools zeigt auf, dass sie nicht unmittelbar verbunden werden können. Welche Schwierigkeiten bei einem Im- und Export zur LPDC gelöst werden müssen, um sie letztendlich über eine einzige Schnittstelle (API, Application Programming Interface) zu steuern, wurden als Beispiele aufgezeigt. Die API ist die zu entwickelnde Schnittstelle, über die ein Softwaresystem in die Lage versetzt wird, es in andere Programme einzubinden. Der kreative Prozess der Produktion lässt sich natürlich nicht automatisieren, aber das Weitergeben der Informationen ist das Entscheidende.

 

Umfangreiche Netzwerkaufgaben

 

Es gibt dafür keine allgemeingültigen Standards aber verschiedene Ansätze wie das zu bewerkstelligen ist, die Dr. Sack (Foto) an einigen Beispielen aufzeigte. Gibt es Tools, die beispielsweise bei Kameras und Schnittsystemen Daten in der Extensible Markup Language (XML) bereitstellen, so werden diese direkt verwendet. XML ist eine Auszeichnungssprache zur Darstellung hierarchisch strukturierter Daten in Form von Textdateien. XML wird deshalb häufiger für den plattform- und implementationsunabhängigen Austausch von Daten zwischen Computersystemen eingesetzt.

 

Aber es gibt nicht für alles XML-Daten, Ergänzungen sind erforderlich. Auch haben XML-Daten nicht ganz einheitliche Bedeutungen, und müssen deshalb neu eingeordnet und interpretiert werden.

 

 

 


Es gibt auch eine Menge Tools, die gar keine strukturierten Daten ausgeben und deshalb ein API zwischengeschaltet benötigen, um sie aus der internen Maschinensprache her anzusteuern.

 

Bild oben: Strukturdarstellung für die Steuerung am Beispiel Schnittplatz.

Es wurde deshalb auch eine eigene Semantik in Form eines Resource Description Framework (RDF) angelegt. Das ist eine technische Herangehensweise zur Formulierung logischer Aussagen über beliebige Dinge und gilt als ein grundlegender Baustein des semantischen Webs. Schließlich ist man dabei, in der Cloud eine eigene Ontologie anzulegen, gewissermaßen als Mapping Tool für die Umsetzung von API auf XML. Das alles geht schon sehr tief in die Netzwerktechnik ein und kann hier nur die Dimension der technisch zu leistenden Arbeit grob aufzeigen.


Die Gesamtzusammenhänge verdeutlicht das Bild unten:

 


Stand einiger Teiltechniken

Es folgten dann insgesamt vier Kurzvorträge, die Aufgaben und den Stand von Teiltechniken der Projektpartner aus den dwerft-Verbundprojekten aufzeigten.

 

Den Anfang machte Peter Altendorf vom IRT (Foto), der ein Qualitätskontrollverfahren auf der Basis des Containerformats MXF beschrieb, das in der Branche bevorzugt für AV-Daten verwendet wird. Vorgestellt wurde vor allem ein vom IRT entwickelter MXF-Analyzer, der als zusätzliches Tool die Cloud erweitert.

 

Über eine sehr interessante Befundungssoftware berichtete Jörg Wehling vom Deutschen Rundfunkarchiv. Sie soll den Archiven helfen, schnell und und semi-automatisch einen Statusbericht über den technischen Zustand des Filmmaterials zu geben. Das Gesamtsystem besteht aus einem Filmscanner, der die technische Qualität von Filmmaterial mittels verschiedener Sensoren scannt. Es kann zum Beispiel die Qualität von Klebestellen erkannt werden (Bild unten) und vieles mehr.

Als Ergebnis des Scans werden die einzelnen Parameter mit einer jeweiligen Bewertung aufgelistet, und es wird eine Handlungsempfehlung ausgegeben.

 

Über eine automatische Rechteverwertung und hier speziell über “Linked Open Data” berichtete Jaqueline Röber (Foto) von der filmwerte GmbH. Hier wird aus offenen Datenbanken eine automatische Abfrage vorbereitet, die eine Vielzahl von vertriebsrelevanten Daten zum Beispiel für Filmvertriebe und andere Verwertungsunternehmen vorsieht.

 

Besonders informativ empfand ich die Ausführungen von Andreas Martin (Interlake Media GmbH) (Foto), der über Cloudbased Editing berichtete. Er stellte eine Virtual-Desktop-Infrastruktur vor, die im einzelnen aus einer GPU besteht sowie aus dem Streaming des Monitorinhalts und die Interaktionen mit dem Videostream erlaubt. Er zeigte auf, dass die bisherigen Entwicklungen bereits gut für WebTV-Produktionen geeignet sind, aber die QoS zur Zeit noch nicht für TV- und Serienpostproduktionen geeignet ist. Die Entwicklungen in diese Richtung gehen aber weiter. Vor allem bei Anwendung des neuen G5-Übertragungsstandards ergeben sich aufgrund der höheren möglichen Datenrate bei sehr kurzen Latenzzeiten positive Ansätze zu einer zufriedenstellenden Lösung.

LPDC auch für die Vermarktung

Gastrednerin Katja Struwe (Foto links) von der international tätigen Agentur All Access Agents sprach abschließend über ihre Tätigkeit bei der Vermarktung von AV-Material aufgrund vorab zur Verfügung gestellter Metadaten in der Cloud und meinte, dass auch für die Verbindung von Film- und Markenartikelindustrie die LPDC ein großer Mehrwert darstellt, weil bereits bei der Vorproduktion entsprechende Überlegungen angestellt und in Angriff genommen werden könnten.

 

 

 

Podiumsdiskussion

 

Die abschließende Podiumsdiskussion mit namhaften Vertretern der Branche war nicht gerade von großem Enthusiasmus getragen, zeigte aber die Einzelinteressen der einzelnen involvierten Gruppen auf, die ebenfalls unter einen Hut zu bringen sind. Man darf zumindest bereits heute sehr gespannt sein, was an Ergebnissen nach Ablauf des Forschungsprogramms Ende 2017 vorgezeigt werden kann und welche weiteren Technologien bis dahin  im Rahmen des F&E-Projektes „dwerft" entwickelt werden konnten.

 

Beteiligungen

 

An der „dwerft" beteiligt sind zehn Unternehmen und Hochschulen. Die Partner sind das Deutsche Rundfunkarchiv, filmwerte GmbH, Filmuniversität Babelsberg „Konrad Wolf", Humboldt Institut für Internet und Gesellschaft (HIIG), Hasso-Plattner-Institut, Interlake Media GmbH, Institut für Rundfunktechnik, transfermedia production services GmbH, WDR mediagroup digital, yovisto GmbH. Als assoziierte Partner arbeiten inzwischen die Technologieanbieter Cube-Tec, LockitNetwork und PreProducer mit.

 

........................

Fotos: N. Bolewski (mit Ausnahme des Fotos von Katja Struwe)

Bilder: Bildwand-Folien der Referenten
 

 
Tags: 
Boljour: Das Weblog von Norbert Bolewski