Das neunte Audio-Fachseminar im Kloster Banz

Autorin: Stefani Renner
Fotos: Archiv Salzbrenner

banz_DSC5623

Insgesamt 20 Referenten aus Europa, Russland, Australien und den USA haben die jeweils zweitägigen Seminar-Durchgänge des neunten Audio-Fachseminars im Kloster Banz mit den Schwerpunkten Broadcast (11. und 12. Oktober) sowie Theater- und Live-Sound (13. und 14. Oktober) zu einem vollen Erfolg werden lassen. Flankiert wurde das Seminarprogramm mit Ausstellungsständen der beteiligten Firmen, zu denen neben den Mediagroup-Mitgliedern auch Audinate, Concept A, Georg Neumann, KS Audio, KS Digital, Müller-BBM, Pinguin Ingenieurbüro, Schoeps Mikrofone, Sennheiser electronic, Smyth Research, Stage Entertainment, VDT und Zactrack gehörten.

15cm_banz_auditorium1

Sowohl im Vortrags- und Workshop-Programm, als auch in der Ausstellung gab es echte Neuheiten zu sehen. So zeigte Smyth Research erstmalig die professionelle Version seines Smyth Realizers für binaurale Kopfhörerwiedergabe der Öffentlichkeit. Ein weiteres Highlight war die erstmalige Zusammenarbeit des Vivace-Systems der Mediagroup mit dem automatischen Follow-System von Zactrack, das eine Nachführung bewegter Mikrofone zum Beispiel im Theater zeigte. Die SALZBRENNER STAGETEC MEDIAGROUP präsentierte in der Ausstellung ebenfalls einen Prototypen, nämlich das TRIAGON-Mischpult mit einer neuartigen Bedieneinheit, die überwiegend auf Multi-Touch-Screens basiert. Die 3D-Videodarstellung iVu des Mediagroup-Mitglieds NVS stand während der Seminarpausen und abends als 3D-Kino zur Verfügung.

Die weiteste Anreise hatte Aidan Williams, Mitgründer von Audinate mit Sitz in Sydney, der mit seinem Vortrag über AVB und Dante eine Vision der Audiovernetzung der Zukunft aufzeigte. Audinate und die SALZBRENNER STAGETEC MEDIAGROUP haben damit nochmals ihre im Frühjahr 2011 geschlossene Kooperation im Bereich der Audio-IP-Vernetzung verdeutlicht.

Einen wirklich eindrucksvollen Akzent setzte auch der Vortrag von Wjatscheslaw Jefimow, dem stellvertretenden Generaldirektor des Bolschoi-Theaters in Moskau, der mit zahlreichen aktuellen Fotos einen Gesamtüberblick über das Großprojekt der Sanierung des Bolschoi-Theaters zeigte.

Durch beide Seminare führte Martin Wöhr, VDT, der mit seinem breiten Erfahrungsschatz nicht nur jeden Vortrag anmoderierte, sondern auch für eine lebhafte Diskussion zu den einzelnen Themen anregte.

woehr_DSC5530

Neben den Referenten und Workshop-Leitern haben sich vier Simultandolmetscher für deutsch, englisch, französisch und russisch, sowie etwa 20 helfende Hände bei Auf- und Abbau, Betreuung der technischen Ausstellung, Logistik und Gesamtablauf engagiert, so dass die knapp 100 Teilnehmer der beiden Seminare eine rundum gelungene Veranstaltung geboten bekamen.

„Wir konnten Teilnehmer aus elf Ländern gewinnen, und zwar nicht nur aus Zentraleuropa, sondern auch aus Australien, Brasilien, China, Russland und den USA," resümiert Stephan Salzbrenner am Freitagabend. „Ihnen haben wir in diesem Seminar Know-How und Technologien aus den aktuellsten Entwicklungen der Pro-Audio-Szene vermitteln können. Wir freuen uns, dass das Wiederaufleben der Banz-Seminare nach einer mehrjährigen Pause trotz schwieriger allgemeinwirtschaftlicher Zeiten so gut gelungen ist und bedanken uns nochmals herzlich bei den unterstützenden Firmen und natürlich den Referenten!"

Die Vorträge und Workshops im Einzelnen

01_fricke_078-031

Eine der vielbeachtetsten Live-TV-Shows des Jahres war der Eurovision Song Contest ESC, der im Mai in Düsseldorf ausgetragen und vom NDR als Host-Broadcaster technisch unterstützt und übertragen wurde. Als Head of Sound für den Audiobereich dieser internationalen Produktion war Ulli Fricke, Toningenieur des NDR in Hamburg, verantwortlich. Mit einer farben¬frohen Präsentation voller Fotos und Superlativen eröffnete er mit seinem Vortrag über die technischen Anforderungen der ESC-Produktion das Broadcast-Seminar in Banz. Aufgrund des Umfangs der Produktion, der räumlichen Größe der Bühne und der extrem kurzen Umbauzeiten zwischen den verschiedenen Live-Acts musste zum Beispiel nicht nur ein konsequentes Mikrofon-Management eingeführt, sondern auch eine akribische Mikrofonstativ-Logistik festgelegt werden. Neben Schmunzlern wie dem neuen Berufsbild des Stativstellers ging Ulli Fricke in seinem kompakten Einstundenvortrag auch auf nahezu alle beteiligten Audiogewerke ein. Dazu gehörten der Studiobau aus Standard-Doppelcontainern, die TV-Mischungen über AURUS-Mischpulte, der FOH-Mix und das Kommentatoren- und Kommandosystem ebenso wie der In-Ear-Rehersal-Raum zur Voreinstellung der Monitormischung oder die außergewöhnliche Unterbringung des technischen Equipments in offenen Containern, die aus Platzmangel unter die Decke der Arena gezogen wurden.

02_theile_091-040

Im nächsten Vortrag ging Dr. Günther Theile auf die Weiterentwicklung der ITU Surround Standards ein, hin zu einer dreidimensionalen Audiowiedergabe, also 5.1-Ton plus Höheninformation. Dazu stellte er die Eigenschaften der verschiedenen Wiedergabeverfahren von 2.0-Stereo über 5.1-Surround zu 9.1-AURO-3-D, Wellenfeldsynthese und binauralen Verfahren gegenüber und entwickelte daraus die gestalterischen Möglich¬keiten. AURO-3D gewährleistet demnach gegenüber herkömmlichem 5.1 Ton nicht nur zusätzliche Höheninformation, sondern auch eine bessere Umhüllung des Zuhörers, einen natürlicheren Raumklang und eine deutlichere räumliche Tiefendarstellung. Neben der Erläuterung passender Aufnahmeverfahren für 9.1-Ton war auch die Betrachtung sinnvoller Anwendungen sehr interessant. Günther Theile verglich die Eigenschaften der verschiedenen Audiowiedergabeverfahren mit den Anforderungen, die ein dreidimensionales Fernseh- oder Kinobild stellt. Gerade in diesem Zusammenhang sind die verbesserte räumliche Tiefen-darstellung und die verbesserte Umhüllung von Bedeutung, weshalb sich 9.1-Ton (AURO-3D) hier besonders anbietet. In seiner Zusammenfassung wurde allerdings deutlich, dass das 9.1-Verfahren noch sehr neu ist und praktische Erfahrung erst gesammelt werden muss. Im Zweifel ist – zumindest zum jetzigen Zeitpunkt – eine gute 5.1-Aufnahme sinnvoller, als eine schlecht produzierte 9.1-Aufnahme. Interessenten, die sich tiefer mit der Fragestellung von 9.1-Aufnahmen befassen wollen, verwies er an die Webseite www.hauptmikrofon.de, auf der eine Informationssammlung zu verschiedenen Surround-Verfahren zusammengestellt ist.

Die Firma SCHOEPS ist sehr engagiert bei der Suche nach optimalen Mikrofontechniken für die neuen Formate Auro-3D und 9.1, weshalb Dr. Helmut Wittek, Geschäftsführer Technik der Firma SCHOEPS Mikrofone GmbH, auch als Co-Autor des Vortrags fungierte. Außerdem leitete er zu diesem Thema einen ergänzenden Workshop in Banz, in welchem die Teilnehmer in kleinen Gruppen in einem akustisch von Concept A bearbeiteten Raum die Möglichkeit hatten, verschiedene Aufnahme- und Produktionsverfahren in Stereo, 5.1 und 9.1 zu hören. Insbesondere der Nutzen der Höheninformation für die räumliche Wahrnehmung sowie der Unterschied zwischen verschiedenen Aufnahmetechniken waren Inhalt des Workshops mit zahlreichen Hörbeispielen. Die dazu verwendete 9.1-Anlage, ein 5.1-Surround-Setup mit vier zusätzlichen Lautsprechern als Höhenring, stellte Sennheiser bei. Dabei kamen neun der neuen Neumann-Studiomonitore KH120 sowie zwei der brandneuen KH 810 Subwoofer zum Einsatz, von denen letztere tatsächlich just-in-time zum Seminar aus der Fertigung kamen.

04_smyth_002-001

Dr. Stephen Smyth, Smyth Research, befasste sich ebenfalls mit dem Thema Surround-Sound, und zwar mit der Möglichkeit, die Abhörsituation eines real existierenden Surround-Lautsprechersystems, das als Referenz dient, über Kopfhörer wiederzugeben. Dafür muss zunächst die akustische Übertragungsfunktion von jedem der Lautsprecher zum Ohr gemessen werden, die sich anschließend als binaurale Impulsantwort mit Hilfe eines Audioprozessors in Echtzeit emulieren lässt. Über diese Emulation kann man nun jedes beliebige Signal so umrechnen, so dass für den Zuhörer der Eindruck entsteht, er würde im Referenzraum über die Referenzlautsprecher abhören. Allerdings ist jedes Ohr unterschiedlich geformt und am Kopf angeordnet. Will man eine akkurate Emulation erzielen, so muss die Lautsprecher-Ohr-Übertragungsfunktion für jede Person individuell gemessen werden. Dies geschieht mit Miniaturmikrofonen, die in die Gehörgänge plaziert werden und dort mit verschiedenen Blickrichtungen direkt am Ohr messen, wie das Testsignal aus den Lautsprechern ankommt. Zusammen mit der Erfassung der Kopfbewegungen, dem so genannten Head-Tracking, kann die personalisiert gemessene Übertragungsfunktion nun auch eine richtungs-genaue Surround-Wiedergabe über Kopfhörer ermöglichen.

Grau ist alle Theorie, weshalb während beider Seminardurchgänge spontan die Möglichkeit geschaffen wurde, seine eigene, persönliche Übertragungsfunktion im zur Verfügung stehenden Surround-Abhörraum messen zu lassen und anschließend die Kopfhörersimulation über den Symth Realiser zu hören. In diesem Zusammenhang wurde auch erstmalig die Profi-Version des Realisers gezeigt, die mit professionellen Audiointerfaces versehen ist. Die offizielle Produkteinführung ist für das erste Quartal 2012 geplant.

Keine größere Produktion, ganz besonders im TV-Umfeld, kommt ohne Interkom-Anlage aus. In den letzten Jahren hat sich, angetrieben von der Digitalisierung und Vernetzung, eine Entwicklung weg von kleinen Inseln hin zu großen, campusweit vernetzten Interkom-Systemen abgezeichnet. Jürgen Malleck, DELEC Vertrieb national und international, stellte das derzeit größte Projekt der Neugestaltung einer digitalen senderweiten Kommunikationstechnik in Großbritannien vor. Dabei erläuterte er die Grundlagen der digitalen Interkom-Technologie und stellte Stragegien für Havariekonzepte sowie andere sicherheitsrelevante Aspekte vor. Im Anschluss an seinen Vortrag sowie in den Seminarpausen zeigte er anhand eines DELEC Demo-Systems, wie sich heute ein komplexes Netzwerk aus Routern und Intercom-Sprechstellen realisieren lässt.

Ein weiteres Schwerpunktthema des Broadcast-Seminars war die Loudness-Aussteuerung. Wer könnte dies besser vortragen als Florian Camerer, Tonmeister des ORF in Wien, der als einer der Pioniere dieses Gebiets gilt und als Chairman der EBU-Arbeitsgruppe PLOUD entscheidend an der Entstehung des Loudness-Standards EBU R 128 mitgewirkt hat! Nach einer Einführung der Gründe, die zur Entwicklung der Lautheitsmessung und -aussteuerung geführt haben, stellte er die drei Messgrößen Programmlautheit, Lautheitsbereich und Exakter maximaler Spitzenpegel vor und erklärte ihre Anwendung. Anhand von Beispielen erläuterte er mögliche Arbeitsmethoden und Strategien für die Einführung von Loudness-Aussteuerung im Broadcastbereich. Interessant war dabei auch der Aspekt, dass das Maß Lautheitsbereich eine Orientierung darüber geben kann, ob ein Programm dynamisch komprimiert werden sollte oder nicht. Ein entscheidender Punkt bei der Arbeit mit Loudness-Ausssteuerung ist die Normalisierung des Quellsignals. Zwar wäre es grundsätzlich auch möglich, rein durch mitgelieferte Lautheits-Metadaten eine Angleichung der Lautheit beim Konsumenten zu erreichen. Die erste Variante ist aber vorzuziehen, weil sie unter anderem auch Auswirkungen auf den kreativen Mischprozess haben wird und zu qualitativ besseren Endergebnissen führt. Europa befindet sich bereits mitten in der Übergangsphase zu Lautheitsnormalisierung. Damit stehen wir vermutlich kurz vor der zufriedenstellenden Lösung dieses jahrzehntelang währenden Problems.

07_kessler_017-008

In einem Workshop zum gleichen Thema zeigte Ralph Kessler, Pinguin Ingenieurbüro, in Kleingruppen die praktischen Auswirkungen einer durchgängigen Lautheits-Aussteuerung. Er demonstrierte zunächst anhand von Untersuchungen aus dem Jahr 2003, welche Pegelsprünge beim Fernsehzuschauer zu Hause entstanden sind, als man noch rein mit QPPM aussteuerte und zusätzliche Distributionsprobleme beim Kabel- und Satelliten-betreiber bestanden. Nicht nur innerhalb eines Programms, sondern besonders auch beim Zappen durch die Programme entstanden sehr unangenehme Pegelunterschiede. Anschließend zeigte er das selbe Signal, aber nach EBU R 128 normalisiert und konnte damit beweisen, dass die neue Richtlinie die Anfangsproblematik im heimischen Wohnzimmer enorm verbessern könnte, falls die Richtlinie innerhalb der gesamten Kette von der Produktion über Transmission und Distribution eingehalten wird. Aber auch die Nachteile der automatischen Lautheits-Aussteuerung kamen nicht zu kurz, die sich zum Beispiel bei außergewöhnlichen Signalen zeigen, die ausschliesslich aus Ambience oder Hintergrundmusik (etwa Chillout-Musik) bestehen. Man sollte deshlab nicht nur automatische Verfahren einsetzen, sondern vor allem auch mit den Ohren beurteilen. Ein großer Vorteil der Lautheits-Aussteuerung liegt darin, dass sie eine inheitliche Richtlinie über alle Genres darstellt. Die Probleme bei QPPM-ausgesteuertem Material haben ihre Ursache nämlich auch darin, dass für jedes Genre ein anderer Pegel empfohlen und dadurch die praktische Handhabung deutlich erschwert wird. Man konnte anhand der Hörbeispiele und den Möglichkeiten des AURUS-Pultes gekoppelt mit einem PINGUIN Lautheitslogger sehr gut erkennen, wo eine automatische Lautheitsnormalisierung gut funktioniert und wo eine manuelle Korrektur doch noch wünschenswert wäre.

In einem weiterem Workshop demonstrierte Jens Kuhlmann, Ingenieur für Service und Training bei STAGETEC in Berlin, die Bearbeitungsmöglichkeiten von Embedded-Audio und Dolby-E-Datenströmen in dem Audio-Routing-System NEXUS. Die aktuelle HD-SDI-Karte des NEXUS-Systems kann als insertiertes Gerät innerhalb des Videopfads alle gängigen SDI-Formate bis hin zu 3G-Signalen bearbeiten. Der De-Embedder-Teil liest die Audiosignale aus und speist sie für das weitere Routing auf den internen NEXUS-Bus ein. Das ausgelesene Audiosignal steht somit überall im NEXUS-Netz zur Verfügung. Der Embedder-Teil einer HD-SDI-Karte fügt beliebige Audiosignale aus dem NEXUS-System in das durchgeschliffene Videosignal ein. Zahlreiche Features, von den Bypass-, Clear- und Replacement-Modes über die optio-nalen Sample-Rate-Converter und Decoder-Schnittstellen für die Bearbeitung von einge¬betteten Tönen aus asynchron anliegenden Videosignalen bis hin zum Video-Delay, bieten sich als Helfer im alltäglichen digitalen Vernetzungs- und Codierungsdschungel an.

Ebenso flexibel können Dolby-E-Signale in NEXUS-Systemen gehandhabt werden: Neben einfachem transparenten Durchrouten werden voll integrierte Coder- und Decoder-Karten einschließlich einer übersichtlichen GUI mit netzweitem Zugriff auf die zahlreichen Parameter und Metadaten aller Coder und Decoder eines Netzes angeboten. Beispielsweise wird ein Dolby-E-Signal im Deembedder-Teil der NEXUS-HD-SDI-Karte wie jedes andere Audiosignal ausgepackt und auf den Bus gegeben. Von dort wird es transparent zur Dolby-E-Decoderkarte geroutet, die es decodiert, so dass es anschließend beliebig bearbeitet werden kann. In umgekehrter Reihenfolge arbeitet das Dolby-E-Encoding und anschließende Embedding in einen HD-SDI-Strom. Sogar ein asynchrones Videosignal mit eingebettetem Dolby-E-Datenstrom kann mit NEXUS bearbeitet werden. Weil eine Abtastratenwandlung des HD-SDI-Signals den Dolby-E-Datenstrom zerstören würde, geht man hier einen anderen Weg: Es werden die HD-SDI- und die Dolby-E-Karten direkt miteinander verbunden, so dass der aus dem asynchronen Videosignal entpackte Dolby-E-Datenstrom direkt zum Dolby-E-Decoder weitergeleitet werden kann – fremdgetaktet von der HD-SDI-Karte. Der Decoder decodiert das Audiosignal, welches anschließend als disketes PCM-Signal mit einem Sample-Rate-Converter auf den Basisgerätetakt synchronisiert wird. Eine Lösung, die unseres Wissens nach einmalig in der Welt des HD-SDI und Dolby E ist.

Am Ende des Workshops griff René Harder, Assistent der Geschäftsleitung bei STAGETEC in Berlin, eines der Hauptthemen des Broadcast-Seminars auf und präsentierte die neue Loudness-Meterings im NEXUS, die der EBU-Recommendation R-128 entsprechen. Hier spielt die neue Basisgeräte-CPU des NEXUS eine zentrale Rolle: Sie implementiert die normkonformen Messalgorithmen und liefert die Daten für die Anzeige in den ensprechenden GUI-Komponenten.

09_scholz_039-020

Über die vielfältigen Möglichkeiten des Sendemischpults ON AIR 24 berichtete Dr. Klaus-Peter Scholz, Mitgründer und Geschäftsführer der STAGETEC Entwicklungsgesellschaft in Berlin. Um die breit gefächerten Einsatzgebiete des Mischpults bedienen zu können, wird jede Einheit aus kleingliedrigen Modulen passend zusammengesetzt. Hardware-seitig reicht die Bandbreite von einer vierkanaligen Einheit plus Monitoring-Kassette als einfach zu bedienendes Selbstfahrerpult bis hin zu einer Größe mit 24 Fadern und zusätzlicher Touch-Screen-Bedienung. Dieses Modul bietet mit Hilfe eines übersichtlich gestalteten Programms, das speziell für die Bedienung per Hand am Bildschirm ausgelegt ist, besonders den fortgeschrittenen Nutzern mit tontechnischer Erfahrung Zugriff zu weiteren Parametern. Das Mischpult kann wahlweise als reines Hardware-Mischpult, oder kombiniert mit Touch-Screen-Unterstützung, mit oder ohne Hardware-Monitoringkassette und zusätzlich mit voller Konfigurations- und Fernsteuerungsmöglichkeit über die schon im letzten Herbst gezeigte, komplexe Remote- und Administrator-Software eingesetzt werden. Zusammen mit einer durchdachten Abstufung der Nutzerfreigabe lässt sich das Pult nicht nur für jede Installation, sondern auch für jeden einzelnen Nutzer maßschneidern. Das Audioprocessing findet auf einer Einschubkarte statt, die von einem NEXUS-Basisgerät gehostet wird. So kann man auf das bewährte Prinzip der Kombination von Mischtechnik und Audio-Netzwerk zurückgreifen, dass auch bei allen anderen Mischpulten aus dem Hause STAGETEC angewendet wird. Vor Ort waren zwei unterschiedliche Mischpult-Einheiten zu sehen: eine kleine Lösung mit 8 Fadern plus Touch-Screen sowie eine transportable Einheit mit 12 Fadern und Montoring-Kassette.

Der Vortrag von Sven Boetcher, Marekting-Manager bei Sennheiser Pro-Audio, und Gerrit Buhe, Leiter der Elektronik- und Signalverarbeitungsentwicklung bei Sennheiser im Bereich Professioneller Systeme, vermittelte grundlegende Fakten über drahtlose digitale Mikrofontechnik. Im Gegensatz zu vielen anderen Bereichen der Audiotechnik stellt die drahtlose digitale Signalübertragung gegenüber seinem analogen Pendant noch zahlreiche Herausforderungen dar. Eingegrenzt durch physikalische und gesetzliche Vorgaben gilt es bei drahtloser digitaler Übertragung, für jede Anwendung den ausgewogenen Kompromiss zwischen Audiodatenrate und Audioqualität, Störsicherheit, möglicher Betriebszeit sowie Verzögerungszeit zu finden. Dabei sind die verschiedenen Parameter nicht unabhängig voneinander. Erhöht man beispielsweise die Übertragungsdatenrate, so verbessert man die Audioqualität und kann unter Umständen auf Datenreduktion verzichten, erhöht damit aber gleichzeitig den minimal benötigten Signal/Rausch-Abstand am Empfänger, was je nach vorliegendem Störszenario die zuverlässig erzielbare Reichweite verringern kann. Verwendet man ein Modulationsverfahren, das eine effektivere Ausnutzung der zur Verfügung stehenden Bandbreite bietet, so verringert man die Leistungseffizienz und verkürzt damit die mögliche Betriebszeit bei Batteriebetrieb. Eine starke Kanalkodierung, die eine verbesserte Fehlerkorrektur ermöglicht, erhöht die notwendige Datenrate bei gleichbleibender Audioqualität. Wählt man eine geringere Datenrate für die Übertragung und setzt einen Audio-Codec ein, müssen dessen höhere Anforderungen an die Bitfehlerrate, sowie eventuell eine zusätzliche Latenzzeit hingenommen werden. Gerrit Buhe hob hervor, dass sich drahtlose digitale Mikrofonsysteme aufgrund dieser komplexen Vielfalt verschiedener technischer Möglichkeiten nur sehr schwer untereinander vergleichen lassen.

Die digitale drahtlose Mikrofontechnik ist ein sehr junger Zweig der professionellen Audiotechnik und steckt noch mitten in der Entwicklungsphase. Umso interessanter war es für die Teilnehmer des Banz-Seminars, sich nach dem Vortrag von Sven Boetcher und Gerrit Buhe einen Einblick in den technischen Entwicklungsstand geben zu lassen.

Sowohl für Broadcast, als auch für Theater und Live-Anwendungen nimmt die Bedeutung von AVB-Vernetzungen zu. Aidan Williams, Gründer und technischer Leiter von Audinate, erläuterte die grundlegenden Prinzipien von AVB und gab einen Überblick über die technischen Voraussetzungen und Möglichkeiten. Er stellte die drei Kernstandards von AVB vor, also die päzise Zeitsynchronisation, die Bandbreitenreservierung in einem gebrückten LAN und die Priorisierung des Datenverkehrs in Ethernet-Switches. Es gibt AVB-Transportprotokolle sowohl für Layer 2 (IEEE 1722) als auch für Layer 3 (IEEE 1733). Bei ersterer handelt es sich um eine non-IP-Verbindung, die in einem einzelnen LAN Firewire-Frames über Ethernet übertragen kann. Layer-3-Applikationen hingegen ermöglichen es, die AVB-Services mit dem TCP/IP-Real-Time-Protocoll RTP zu nutzen, welches ein Netzwerk-Routing zulässt und einen Übergang von bestehenden nicht-AVB-fähigem Equipment zu einem AVB-kompatiblen Netzwerk erlaubt. Bei der Einführung von AVB muss man beachten, dass in der gesamten AVB-Cloud ausschließlich AVB-kompatible Netzwerk-Switches einsetzen sollte. Will man AVB in einer bereits bestehenden Infrastruktur implementieren, bilden sich separate AVB-Clouds, es sei denn, man ersetzt das Netzwerk-Backbone durch AVB-fähige Komponenten. Zum Schluss zeigte Aidan Williams noch auf, welche Möglichkeiten Dante auf dem Weg zu einem AVB-kompatiblen Netzwerk bietet. Dante wird inzwischen von zahlreichen Pro-Audio-Herstellern unterstützt und auch die SALZBRENNER STAGETEC MEDIAGROUP hatte Ende 2010 die Zusammenarbeit mit Audinate und der Dante-Produktlinie beschlossen.

12_engel_workshop_DSC5707

Den Auftakt zum Theater- und Live-Sound-Seminar bildete Gunter Engel, Systementwickler bei Müller-BBM, mit seinem Vortrag über die Simulation einer virtuellen Akustik mit dem VIVACE-Raumklangsystem. Ein System zur Erzeugung virtueller Akustik muss verschiedene Aufgaben erfüllen: Es soll den vorhandenen Raumklang ergänzen, dem Zuschauer eine passende räumliche Dimension der Schallquelle geben, für eine gute Klangmischung sorgen und schließlich an jedem Sitzplatz eine gute Einhüllung erzeugen. Darüber hinaus unterstützt eine virtuelle Akustik die Musiker auf der Bühne und eignet sich – da es über qualitativ hochwertiges Audioprozessing, eine Mischmatrix und eine mehr oder minder aufwändige Lautsprecherinstallation verfügt, auch für Klangeffekte. Mit vielen Beispielinstallationen, die von kleinen Sälen wie zum Beispiel beim St. Moritz Art Masters, bis hin zu aktuellen Festinstallationen wie in der Felsenreitschule in Salzburg, oder auch Open-Air-Anwendungen wie bei der Klassik am Odeonsplatz in München reichten, zeigte er die Möglichkeiten und Grenzen einer virtuellen Akustik auf. Besonders hervorzuheben war die aufwändige Implementierung in einer Sportarena, anlässlich der Opernproduktion "St. Francois d'Assise" von Olivier Messiaen in Spanien. Darauf aufbauend demonstrierte Gunter Engel in seinem Workshop in Kleingruppen, wie das virtuelle Raumklangsystem Vivace klingt und welche Möglichkeiten es bietet. Neben der schon in seinem Vortrag erläuterten, virtuellen Raumakustikverbesserung hob er im Workshop vor allem auf die Effektmöglichkeiten des Systems ab. Mit Hilfe eines Saxophonisten konnte der Raum mit und ohne virtuellen Raumklang gehört und auch verschieden extreme Einstellungen probiert werden. Das System bietet darüber hinaus die Möglichkeit, Schallquellen frei und programmierbar über Wände und Decken des Raumes zu bewegen und parallel dazu in den Raumklang zu integrieren. Das kann sowohl für das Zuspielen von Effekten wie auch für eine richtungsgetreue Beschallung genutzt werden. Die Quellenpositionierung kann dabei auf drei Arten erfolgen: Mit der Computermaus im 3D-Modell des Saales, mit einem in Banz neu vorgestellten Richtungszeiger, der in den Raum gehalten wird, oder – auch erstmalig in Banz umgesetzt – vollautomatisch in Kombination mit dem Follow-System von Zactrack. Dazu wurde der zu verfolgende Musiker mit einem kleinen Sender bestückt, mit dessen Hilfe das Zactrack-System die aktuellen Positionsdaten des Musikers bestimmen konnte. Diese Positionierungsinformationen gab es via OSC-Protokoll an das Vivace-System weiter, das daraus die notwendige Audiobearbeitung berechnete und umsetzte. Vorteilhaft an dieser Form der Bewegungsnachführung ist, dass es sich um zwei offene Systeme handelt. So können die vom Zactrack-System errechneten Positionsdaten parallel auch für andere Zwecke einsetzen, zum Beispiel, um neben der Audio-Positionsnachführung auch eine automatische Scheinwerfer-Nachführung zu realisieren.

auditorium_057-020

Um diesen Workshop anbieten zu können, wurde der Raum unter der Federführung von Peter Maier, Concept A, in hohem Maße akustisch bearbeitet. So wurde die Nachhallzeit des Raumes stark verkürzt, was eine deutlichere, wenn auch für die Praxis eher untypischere Demonstration des Vivace-Systems ermöglichte. Insgesamt 24 Lautsprecher von KS-Audio des Typs CL208 sowie 8 Lautsprecher von KS-Digital des Typs C8-Coax wurden auf einem maßkonfektionierten Traversensystem an den Wänden und der Decke des Raums installiert, um die Vivace-Signale wiederzugeben.

Neue Wege, nicht nur inhaltlich, sondern auch in der Art ihrer Präsentation, beschritten Kai Harada, freischaffender Broadway-Sound-Designer aus den USA, und Michel Weber, Sound-Coordinator bei der Stage-Entertainment: Über Videokonferenz war Kai Harada dem Auditorium live aus den USA hinzugeschaltet, unterstützt von Michel Weber vor Ort in Banz. Ihr Thema war die Herangehensweise an die Entwicklung eines zeitgemäßen Sound-Designs für Musicals, das sich in den letzten Jahren stark professionalisiert hat. Kai Harada stellte die einzelnen Arbeits¬schritte von der Ausschreibung bis zur ersten Show dar und ging dabei auch auf Unterschiede zwischen amerikanischen und europäischen Shows ein. Ein Beispiel dazu ist die Tatsache, dass in den USA die Tontechnik in der Regel zunächst in einer Halle aufgebaut und getestet wird, bevor sie im eigentlichen Musical-Theater installiert werden kann, während in Europa eher direkt im Musical-Theater an der Technik gefeilt wird. Die Planung und Einmessung der Tonanlage, Möglichkeiten zum Verstecken von Lautsprechern im Bühnenbild und Kaschieren der Artistenmikrofone sowie die Arbeit mit einer Szenenautomation für den Ton fanden in seinem Vortrag mit vielen Beispielfotos ebenfalls Beachtung. Im Anschluss fuhr Michel Weber mit Details aus der gemeinsam mit Kai Harada realisierten Musical-Show Hinterm Horizont in Berlin fort. Dabei kamen auch viele Sachzwänge zur Sprache, die zum Beispiel die Auswahl von Equipment für eine Show eingrenzen, weil auf bereits vorhandene Technik zurückgegriffen werden sollte. Hinterm Horizont war allerdings technisch erstklassig ausgestattet und konnte mit Hilfe von AURUS und NEXUS in exzellenter Qualität produziert werden. Seit 2011 unterstützen AURUS und NEXUS auch an der ersten Adresse für Musicals, am New Yorker Broadway den Ton bei der Show Follies mit einem Sound-Design von Kai Harada.

In einem Workshop zeigte Christian Fuchs, Application-Manager Theater bei der SALZBRENNER STAGETEC MEDIAGROUP, darauf aufbauend die Möglichkeiten der Szenenautomation des AURUS, die besonders in Theater- und Musical-Produktionen Anwendung findet. Christian Fuchs folgte dabei der Chronologie, wie sie beim Einrichten einer neuen Produktion erfolgt und begann mit der generellen Vorgehensweise bei der Erstellung einer Szenenliste. Diese startet man am einfachsten über Full-Snapshots, wobei man viele Parameter zunächst noch mit der Funktion ISOLATE aus der Automation herausnimmt. Diesen Snapshots verfeinert man schrittweise, so dass man je nach Anforderung schließlich Full-Function-, Channel-Function- oder Function-Snapshots erarbeitet. Will man in einem Snapshot Änderungen von Parametern vornehmen, so bietet sich die globale oder selektive Copy-Paste-Funktion an, mit der die Werte absolut oder relativ verändert werden können. Eine Reihe von Szenenevents müssen in jeder Vorstellung individuell gesteuert eingestartet werden. Dies kann mit Hilfe von MIDI, Maschinen-befehlen oder GPI erfolgen und auch direkt vom Musiker, Dirigent oder Inspizient gestartet werden. Auch das Routing im NEXUS lässt sich über die Szenenliste umschalten. Schließlich lassen sich die Szenenliste und die Logikfunktionen des NEXUS miteinander kombinieren, so dass Steuerbefehle in Abhängigkeit von der gerade aktuellen Szene unterschiedlich heraus-gegeben werden können.

15_jefimov_024-011

Die Restaurierung und der Umbau des historischen Bolschoj-Theaters in Moskau gilt international als eines der herausragenden Projekte unserer Zeit. Wjatscheslaw Jefimov, stellvertredender Generaldirektor des Staatlichen Bolschoj-Akademietheaters von Russland, war sich des hohen Interesses der Seminarteilnehmer gewiss, als er auf die Geschichte und die aktuelle Rekonstruktion des Hauses einging. Neben einer Modernisierung der Spielstätte standen dabei auch konkrete Sicherheitsaspekte im Vordergrund, da das alte Gebäude aufgrund von Fundamentproblemen abzu¬sacken drohte. Mit großer Detailliebe wurde der Originalzustand inklusive der Original-verzierungen rekonstruiert, um das Haus nicht nur als Spielstätte, sondern auch als Kulturdenkmal zu erhalten. Gleichzeitig erhielt das Bauwerk zahlreiche neue Räumlichkeiten. Auch die Bauakustik unter Leitung von Müller-BBM kam in seinem Vortrag zur Geltung, sollte der Saal doch optisch historisch erhalten bleiben und gleichzeitig akustisch an heutige Anforderungen angepasst werden.

Beeindruckend war an diesem, mit vielen aktuellen Fotos des Bolschoj-Theaters unterfütterten Vortrag auch die schiere Größe des Projekts. Die Ton- und Videotechnik wurde ab 2007 federführend von der SALZBRENNER STAGETEC MEDIAGROUP geplant und seit 2009 zusammen mit der russischen Firma Modul T installiert. Das renovierte Bolschoj-Theater wird am 28. Oktober nach einer mehrjährigen Umbauphase offiziell wiedereröffnet.

Das Thema griff später nochmals Dominik Haag auf, Koordinator der Software-Entwicklung der SALZBRENNER STAGETEC MEDIAGROUP. Er ist als Projektmanager in die Planungen der neuen Technik des Bolschoj-Theaters eingebunden, mit Schwerpunkt auf die Entwicklung eines neuen Inspizientensystems aus Komponenten von der ORATIS-Serie von DELEC und MediaControl. Die im Bolschoj-Theater geforderte Funktionalität geht weit über die eines reinen Inspizientenpults hinaus. Sie ist vor allem sehr komplex über das gesamte Haus vernetzt installiert und umfasst die Ruffunktionen, Lichtzeichensteuerung, Nummeratoren¬anzeigen, Intercom-Sprechstellen, die Mithör-Programmauswahl, sie kann Zuspieler steuern und dient als dezentrale Audiomatrix.

Beide hier kombinierten Systeme sind vernetzbar und dezentral aufgebaut. Während die DELEC-Bausteine alle Dienste rund um Audio bieten, also die Audiovernetzung, das Audioprocessing und die Audio-Interfaces und Sprechstellen, übernimmt MediaControl die Konfigurations- und Steuerfunktionen. Im Bolschoj-Theater sind insgesamt 17 MediaController-Einheiten über ein Glasfaser-Netzwerk verbunden, die sich über diverse Tastenmodule, Touch-Screens oder über Tasten der ORATIS-Sprechstellen bedienen lassen. Besonderes Augenmerk wurde auf die Havariesicherheit gelegt. So lässt sich jede Einheit auch als Insel lokal betreiben, sollte zum Beispiel das Netzwerk ausfallen. Darüber hinaus ist das System basierend auf SNMP fehlerüberwacht und trägt alle SNMP-Traps in eine Error-Management-Datenbank ein. Damit wird auch in einem derart großen System eine Administrierung vereinfacht.

Für eine Auffrischung des Grundwissens über Mikrofone sorgte Dr. Helmut Wittek, Geschäftsführer Technik der Schoeps Mikrofone GmbH. Er stellte die Details des digitalen Richtrohres SuperCMIT vor, das aufgrund eines neuartigen Beamformings eine erhöhte Richtwirkung und eine Diffusschall-absenkung von bis zu 15 dB aufweist. Als Einsatzgebiet nannte er neben klassischen Anwendungen von Richtrohren im Filmton und in der Sportüber-tragung auch Bühneninszenierungen. Das Mikrofon wird entweder über eine AES-42-Schnittstelle, Mode 1, direkt an ein digitales Mischpult angeschlossen, oder kann über einen von Schoeps angebotenen speziellen Adapter mit Phantomspeisung versehen und D/A-gewandelt werden. In Banz bestand am Ende des Vortrags sowie in den Pausen die Möglichkeit, das Schoeps SuperCMIT in den halligen Gewölbegängen des Klosters auf seine Richt-wirkung zu testen.

Das Thema der richtungsgetreuen Beschallung ist bei Weitem nichts neues, schließlich wurde es schon vor über 30 Jahren als Deltastereophonie zum Patent angemeldet. In den vergangenen Jahren hat es allerdings einen neuen Schub bekommen, als Systeme zur automatischen Bewegungsnachführung auf den Markt kamen. Über einen Vergleich der beiden Systeme TiMax und Stagetracker anläßlich der Schloßfestspiele Schwerin referierten Martin Wurmnest, freier Tonmeister, der im Auftrag von Neumann & Müller Verantaltungstechnik die Beschallung der Schloßfestspiele gemischt hatte, und John Schröder, Leiter der Tonabteilung des Mecklenburgischen Staatstheaters Schwerin. Ganz besonders interessant war dabei die tonmeisterliche Sicht, aus der die beiden die Einsatzmöglichkeiten erläuterten. Die Einrichtung eines Systems zur Bewegungsnachführung erfordert anfangs zusätzliche Arbeit: Die bespielte Fläche muss in der Steuersoftware in Zonen unterteilt werden, was je nach System unterschiedlich aufwändig sein kann. Zusätzlicher Installations¬aufwand besteht vor allem in Bezug auf die notwendigen Antennen, mit deren Empfangssignalen die Positionierung der einzelnen Akteure berechnet werden kann. Je mehr Antennen verwendet werden, desto besser lassen sich auch außergewöhnlich geformte Bühnenflächen in Zonen darstellen – desto größer ist allerdings auch der Aufwand der Anfangskalibrierung. Als Fazit stellten die beiden fest, dass sie bei vergleichbaren Produktionen nicht mehr ohne automatische Bewegungsnachführung arbeiten wollen, überwiegen doch die Vorteile gegenüber dem Mehraufwand eindeutig. Lob für die präzise Arbeit im Dienste der Theaterbeschallung und für den Vortrag gab es zum Schluss noch von einem prominenten Seminarteilnehmer: von Gerhard Steinke, der damals einer der Autoren des Patents für Deltastereophonie war.