Trimedialität und IP
Was kann das für die Praxis bedeuten?
Autor: Anke Schneider (2WCOM)
Zum einen müssen die Mitarbeiter der Rundfunkanstalten in die Lage versetzt werden, Produktionen rein konzeptionell und operativ aus den verschiedenen Blickwinkeln zu betrachten. Ein Toningenieur, der bisher Radiosendungen produziert hat, muss wissen, wie die Audio-Inhalte für Internet oder Fernsehen aufzubereiten sind, welche Codec-Algorithmen zu nutzen sind, welche Protokolle und welche Detail-Konfigurationen. Für Radio-Moderatoren kann es bedeuten, dass Sie zukünftig nicht nur vor dem Mikrofon sind, sondern auch gefilmt werden, damit der so erstellte Videobeitrag zur Sendung über die Webseite des Senders oder den Facebook Kanal abgerufen werden kann. Zum anderen müssen Lösungen gefunden werden, um die variierenden Anforderungen an redaktionelle Aufbereitung, Tonqualität, Übertragungsweg, Codierungsalgorithmus, Übertragungsprotokolle, Übertragungssicherheit, Redundanzkonzept oder auch Bandbreiten-Ökonomie abbilden zu können.
Mit dem Hintergrund sind zum Beispiel Radioproduktionen deutlich im Vorteil, die ihre Sendung aufnehmen und filmen, aber ausschließlich direkt via IP-Stream verbreiten. In dem Fall muss ein gutes redaktionelles Konzept her, damit die Videos zur Radiosendung möglichst unterhaltsam sind und zur Interaktion animieren. Des Weiteren ist die Überlegung anzustellen, welches Equipment für das Streaming an sich, die Verteilung der Livestreams und die Archivierung idealerweise einzusetzen ist.
Für Rundfunkhäuser, die aufgrund ihrer Infrastruktur nicht nur IP, sondern auch Satellit und terrestrische Übertragung nutzen, sind definitiv mehrere Schritte nötig, um Trimedialität in Konzeption, Produktion und Übertragung umsetzen zu können.
In einem ersten Schritt können die Medien-Produktionsinseln TV, Hörfunk und Online in Hinblick auf die konzeptionelle Beitragsplanung und ein zentrales Content-Management-System zusammenwachsen. Das Ziel ist zum einen die gemeinsame konzeptionelle Arbeit über einen integrierten Newsroom bzw. Newsdesk und zum anderen ein Archiv für den zentralen Zugriff auf die produzierten Inhalte. Hierfür eignen sich Programmbereiche, die zu gleichen Themen produzieren, diese aber je Medium anders aufbereiten. Das können die aktuellen Nachrichten sein, Live-Übertragungen von Sport Veranstaltungen, Konzerten oder Events. Des Weiteren aber auch vorproduzierte Inhalte, die nach Belieben abgerufen werden können, wie regionale Themen oder auch Wissens- und Bildungsbeiträge.
Der zweite Schritt ist deutlich schwieriger umzusetzen. Hier ist für die einzelnen Produktionsbereiche eine voll integrierte Medien-Plattform zu realisieren; mit der eine absolute Interoperabilität von TV, Radio, Online und Content-Archiven gewährleistet sein muss. Somit würde nicht nur ein zentrales Archiv zur Verfügung stehen, sondern Beiträge werden automatisch für TV, Radio sowie Internet aufbereitet und zugleich für die unterschiedlichen Übertragungswege, wie terrestrisch, Satellit und IP, vorbereitet.
Was bedeutet das konkret für Produktion eines Beitrags?
Das Audio- und das Video-Signal sollte zuerst für das Medium mit höchstem Qualitätsanspruch produziert werden. Die Aufbereitung für Medien, die das jeweilige Signal in komprimierter Form und/oder für einen anderen Übertragungsstandard etc. benötigen, muss über Konvertierungsprogramme erfolgen. Hierfür kann ein virtueller Server verwendet werden. Dieser kann ein nicht komprimiertes Signal entgegen nehmen, für die weiteren Medien in Hinblick auf Kodierungsalgorithmen, Standards sowie Protokollen konvertieren und ausgeben. In einem ersten Schritt ist es eventuell schon zufriedenstellend, wenn das Material zeitnah bereitsteht. Perspektivisch ist aber ganz sicher eine unsichtbare Konvertierung das Ziel, um das Verfahren für Live-Produktionen anwenden zu können. Auch sollten diverse variabel einstellbare Parameter vorgehalten werden, wie zum Beispiel für die Konfiguration von Nutzergruppen, die terminierte Verteilung von Inhalten oder die Einrichtung von Telefonbüchern zum schnellen Verbindungsaufbau via SIP von Studio zu Studio. Es zeigt sich erneut, dass der Wandel zu IP schlicht und einfach notwendig ist, um das ökonomische Konzept – also Zeit- und Kostenoptimierung - der Trimedialität zu unterstützen.
Gelebte Trimedialität
Seit einigen Jahren sind diverse Rundfunkanstalten und Forschungseinrichtungen dabei, sich intensiv mit dem Konzept der Trimedialität zu beschäftigen. Was wiederum deutlich zeigt, dass das Thema keine fixe Idee ist, sondern die Zukunft für öffentlich rechtliche und private Rundfunkanstalten.
Bei BR, MDR, SWR und WDR vollzieht sich der Wandel bereits Schritt für Schritt. Für die Medien-Produktionsinseln TV, Hörfunk und Online werden Newsdesks für die konzeptionelle Beitragsplanung und ein zentrales Content-Management-System eingerichtet. Die Redakteure der verschiedenen Programme können so gemeinsam beraten, welches die wichtigsten Themen sind, die in allen Verbreitungswegen stattfinden sollen. Im Falle von außergewöhnlichen Live-Events, wird am Newsdesk entschieden, welcher Redakteur vor Ort geht und welche Redaktion ihn koordiniert. Parallel wird geplant, ob hierfür auch ein Radio- oder Fernsehbeitrag produziert werden soll und welches Material für die Online-Redaktion relevant ist.
Der BR richtet seine Redaktionen und Sendestudios so aus, dass Hörfunk, Fernsehen und Online stärker verzahnt arbeiten können. Außerdem werden auf dem Gelände in München-Freimann für diesen Ansatz ganz neue Gebäude und Arbeitsräume gebaut. Die folgenden Programmbereiche arbeiten bereits trimedial zusammen: Sport, Kultur, Unterhaltung und Heimat, Wissen und Bildung, Aktuelles, sowie Politik und Wirtschaft. Und auch technisch rüstet der BR auf: Bei der Nachrichtensendung „Rundschau“ sind seit kurzem ein Echtzeit-Grafiksystem sowie Kameraroboter, die teilautomatisiert ihre Position anfahren, erstmalig im Einsatz.
Ein BR-Sprecher erläutert: „Ohne Übertreibung darf man behaupten: Beim BR läuft gerade der größte Reformprozess in der Geschichte, programmlich und auch strukturell. Wir sind dabei, uns komplett cross-medial aufzustellen, um gerade in der digitalen Welt innovativer zu werden. Hier ist der BR Vorreiter innerhalb der ARD. Konkret heißt trimediale Organisation: Hörfunk, Fernsehen und Online arbeiten nicht mehr getrennt, vielmehr werden alle Themen von Anfang an medienübergreifend geplant, recherchiert und dann auf den verschiedenen Ausspiel-Kanälen angeboten, unabhängig von Zeit und Ort. Der Bayerische Rundfunk führt die Redaktionen auch räumlich zusammen. Der Bayerische Rundfunk möchte alle Menschen dort erreichen, wo sie Informationen, Unterhaltung oder Musik konsumieren. Davon hängt die Akzeptanz des öffentlich-rechtlichen Rundfunks ab. Alle Gebührenzahlern bekommen ihre Informationen auf allen technischen Verbreitungswegen, die zur Verfügung stehen. Ob on-Demand über unsere Mediathek, über die App BR24 oder im TV oder Hörfunk, wir müssen überall präsent sein. Das können wir nur leisten, wenn wir uns trimedial aufstellen.“
Ein anderer Vorreiter ist MDR SPUTNIK, das junge Programm des MDR. Hier wird nicht nur die jeweilige Radiosendung produziert, sondern Highlights der Sendungen auch im Video festgehalten.
Die junge Zielgruppe von MDR Sputnik hat so die Möglichkeit, Teile der Radiosendung über mobile Endgeräte via Internet auf verschiedenen Plattformen als Video anzusehen und über Facebook zu interagieren. Jan Schmieg (Chef vom Dienst Online, MDR Sputnik) kommentiert dies wie folgt:
„Unseren Moderatoren fällt es leicht zwischen Radio und Facebook live umzuschalten, da wir schon seit vielen Jahren nicht nur Radio machen, sondern auf vielen sozialen Netzwerken mit Videocontent präsent sind. Bei unseren Morningshow-Moderatoren Kathrin und Raimund geht die Radioshow nach dem Stream deshalb nahtlos weiter. Unsere Moderatoren sind motiviert, den User in den Livestream einzubinden und stellen ihm Fragen oder beteiligen ihn an Diskussionen. Kommentare werden „on-screen“ beantwortet und Feedback angenommen. Den unmittelbaren Kontakt zu den Zuschauern wissen unsere Moderatoren sehr zu schätzen. Rein technisch bedeutet das, dass wir für den Livestream drei Smartphones und ein Tablet nutzen, von dem aus über eine App direkt auf Facebook gestreamt wird. Mit Hilfe dieser App kann zwischen den einzelnen Kamera-Einstellungen geschnitten sowie Grafiken und Animationen ein- und ausgeblendet werden. Der Ton wird direkt von den Studiomikrofonen abgenommen, um im Livestream nicht an Klangqualität zu verlieren.“
Die ARD.ZDF medienakademie bietet in Ihrem trimedialen Labor Workshops zum Thema an, die sowohl den redaktionell konzeptionellen Hintergrund als auch den technischen Hintergrund beleuchten.
Wo geht die Reise hin?
Die Rundfunkanstalten selbst drängen auf Technologien, die eine Interoperabilität von TV, Radio, Online sowie Content-Archiven gewährleisten und den intensiven trimedialen Ausbau unterstützen. Ergänzend ist das Institut für Rundfunktechnik in mindestens drei europaweit aufgestellten Projekte involviert, die den Übertagungsweg IP eindeutig unterstützen.
Ein zentrales Ziel des Forschungsprojekts 5G-Xcast (Broadcast und Multicast Communication Enabler für 5G) ist es, ein universelles und multidirektionales IP-Netz zur effizienten großflächigen Mediendistribution aufzubauen. Das Projekt setzt dabei auf dynamisches Umschalten zwischen Unicast, Multicast und Broadcast – und ermöglicht somit auch die Spektrums-effiziente Verbreitung von Programminhalten an sehr viele gleichzeitige Nutzer bei Aussendung nur eines Streams. Endnutzer könnten so zukünftig ohne Belastung ihres Datenkontingents auch mobil mit ihren 5G-fähigen Geräten verlässlich Live- und Linearinhalte in bester Qualität empfangen. Aktuell wird der Broadcast-Modus in 4G/5G in einem Testnetz mit einer Abdeckung von 400 km² im Raum München getestet.
Im Rahmen des Orpheus-Projekts soll eine komplett auf IP realisierte Systemlösung für objektbasiertes Audio realisiert werden, welche die gesamte Kette von Produktion über Verbreitung bis zur Nutzung abdeckt. In der ersten Projektphase wurde bereits eine Radiosendung umgesetzt, mit erweiterten interaktiven Funktionalitäten wie immersivem Audio, Steuerbarkeit der Vorder- und Hintergrundgeräusche, Sprachauswahl und Nutzung von detaillierten Programm-Metadaten.
Die europäische Initiative HbbTV verbindet die Verbreitung von Nachrichten-, Informations- und Unterhaltungsangeboten für Konsumenten über Rundfunk- und Breitbandnetze mittels Set-top-Boxen und Fernsehgeräte, die mit einem zusätzlichen Internetanschluss ausgestattet sind. Dabei haben bereits über 90 % der derzeit in Deutschland verkauften Smart TVs HbbTV eingebaut. Entsprechende Applikationen erlauben es das schnell wachsende Angebot von Medieninhalten für den Endkunden ohne Zusatzgerät direkt am TV nutzbar zu machen. Die dabei verwendete Technik orientiert sich an marktüblichen Standards und Internet-Technologien von Open IPTV Forum (OIPF), Consumer Electronic Association (CEA), Digital Video Broadcasting (DVB) und World Wide Web Consortium (W3C). HbbTV wirkt damit auch der durch die Vielzahl von anderen IP-basierten Dienste-Plattformen verursachten Fragmentierung entgegen. Ende 2017 erschienen erste Smart TVs mit der zweiten Generation von HbbTV. Damit werden künftig neue Anwendungen möglich, wie zum Beispiel die Kopplung eines mobilen Endgeräts oder einer AR-Brille. Neue Features erlauben es, IP und Broadcast noch enger zu verzahnen, um beispielsweise eine Sendung auch außerhalb der eigenen vier Wände weiter sehen zu können oder individuelle Präferenzen zu berücksichtigen, wie zum Beispiel eine andere Sprache zum Bild.
Wenn man sich nun noch die Möglichkeiten für Rundfunksender, Internet Provider und Endnutzer vor Augen führt, die sich über die oben genannten Projekte bieten, wird unterstrichen, dass wir uns von den alt bewährten Distributionswegen weg in Richtung Broadcast via IP bewegen werden. Das große ist aber, dass auf Grund der Tatsache, dass es auch in Deutschland entlegene und schwer zugängliche Gebiete gibt, werden die zu Beginn erwähnten hybriden Lösungen relativ lange Bestand haben.