FKT FACHZEITSCHRIFT FÜR FERNSEHEN, FILM UND ELEKTRONISCHE MEDIEN
Das renommierteste technische Fachmagazin für Broadcast, Film und Medientechnik im deutschsprachigen Raum steht seit 70 Jahren für fachübergreifende, praxisnahe und anspruchsvolle Berichterstattung von und für Experten.
Das renommierteste technische Fachmagazin
für Broadcast, Film und Medientechnik im deutschsprachigen Raum steht seit 70 Jahren für fachübergreifende, praxisnahe und anspruchsvolle Berichterstattung von und für Experten.
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
12 | 2020 74. JAHRGANG € 16,–
WWW.FKT-ONLINE.DE
FACHZEITSCHRIFT FÜR
FERNSEHEN,
FILM UND ELEKTRONISCHE
MEDIEN
RUNDFUNKTECHNISCHE
MITTEILUNGEN DES IRT
5G IM FOKUS
NEUE ANSÄTZE FÜR PRODUKTION UND DISTRIBUTION
KÜNSTLICHE INTELLIGENZ
IN DER THEMENPLANUNG
IM INTERVIEW: 30 JAHRE
DEUTSCHE TV-PLATTFORM
OPTIMIERTE SOFTWARE FÜR
VERSATILE VIDEO CODING
Liebe Leser/innen und Partner/innen,
wir bedanken uns für Ihre Treue
in diesem herausfordernden Jahr und
wünschen Ihnen allen ein besinnliches Weihnachtsfest,
ein ruhiges Jahresende, stetige Gesundheit und
vor allem Zuversicht.
Wie schon Alan Kay sagte
„Die Zukunft kann man am besten voraussagen,
wenn man sie selbst gestaltet“.
Lassen Sie uns diesen Weg gemeinsam beschreiten und
Fundamente für eine bessere Zukunft legen!
Ihr Team von
green
BUILDING
GIESSEREI
PRAXIS
C
M
Y
CM
MY
CY
CMY
K
informiert
Aus den
Unternehmen
Standards
und Dienste
MEDIEN
Traditional broadcast_Ad-ibc_210x297 with 3mm bleed.indd 1 12/06/2019 09:50
Produkte
und Lösungen
Termine
concept
S e us at IBC
b oth 10.A31
Mai 2017 FKT
7 | 2019 73. JAHRGANG € 16,–
1 Magazin // News
RUNDFUNKTECHNISCHE
MI TEILUNGEN DES IRT
KI IM SPORTBEREICH
SMPTE2110-30/31
WWW.FKT-ONLINE.DE
FACHZEITSCHRIFT FÜR
FERNSEHEN,
FILM UND ELEKTRONISCHE
MEDIEN
FILM- UND
VIDEOPRODUKTION MIT KI
www.riedel.net
360°-VIDEO
AUF SMART TV
Mai 2017 FKT
RUNDFUNKTECHNISCHE
MITTEILUNGEN DES IRT
MEDIEN
Mai 2017 FKT
RUNDFUNKTECHNISCHE
MI TEILUNGEN DES IRT
FKT Dezember 2020
3
Bild: Silvia von Eigen
Editorial
CALL FOR
PAPERS
Liebe Leserinnen, liebe Leser,
wie die neue Mobilfunkgeneration 5G künftig für Fernsehübertragungen auf
mobile Endgeräte genutzt werden kann, haben Wissenschaftler des Instituts
für Rundfunktechnik (IRT) in dem Forschungsprojekt 5G TODAY untersucht.
Weltweit stieß das Projekt auf großes Interesse, berichten unsere Autoren.
Aneta Baier, Kerstin Pfaffinger und Mahmoud Almarashlid stellen die
Ergebnisse des Pionierprojekts in einem Beitrag ab Seite 26 vor.
Die nächsten Termine
für die Einreichung
von redaktionellen Beiträgen:
Was wir suchen:
Wir suchen technisch anspruchsvolle
wissenschaftliche Beiträge
oder Praxisberichte in sachlicher
Darstellung auf Ingenieur-Niveau.
Neben der Mediendistribution wird 5G künftig auch eine gewichtige Rolle
in der Medienproduktion spielen. In dem EU-Forschungsprojekt VIRTUOSA
haben Andreas Metz und Haci M. Cengiz untersucht, wie 5G mit Virtualisierungskonzepten
kombiniert und für effiziente, standortübergreifende
Live-Produktionen genutzt werden kann (Seite 23).
5G TODAY und VIRTUOSA sind zwei aktuelle Beispiele für die wichtige
Forschungsarbeit, die die Wissenschaftlerinnen und Wissenschaftler am
IRT in den vergangenen Jahrzehnten geleistet haben. Zum Jahresende 2020
schließt das traditionsreiche Haus endgültig seine Pforten in München-
Freimann – und hinterlässt damit eine große Lücke in der deutschsprachigen
Medientechnik-Forschung.
FKT_Online Service.pdf 1 07.06.19 12:43
online
Mit uns sind
Sie bestens
»Newsletter:
Wöchentlich
und kostenlos
TÄGLICH DAS WICHTIGSTE AUS DER BRANCHE:
BAUHAUS-
IMPRESSIONEN MIT AR
Personalveränderungen
Umfangreiches Archiv:
Recherche und Download kostenlos für a le Abonnenten
Nicht-Abonnenten können für einen kleinen Preis einzelne Artikel oder
Gesamtausgaben via PayPal erwerben und downloaden
MAGAZIN
> www.fkt-online.de
The world’s most influential media,
entertainment and technology show
13- 17 September 2019 | RAI, Amsterdam show.ibc.org
FROM TRADITIONAL
BROADCASTING TO
OTT, VR, AND ESPORTS
6 | 2019 73. JAHRGANG € 16,–
1 Magazin / News
Register before 16 August to get your
free visitor pass or the early booking
conference discount
See it differently.
WWW.FKT-ONLINE.DE
FACHZEITSCHRIFT FÜR
FERNSEHEN,
FILM UND ELEKTRONISCHE
IOT, IP, BIG DATA UND MEHR:
EINFLÜSSE DER DIGITALISIERUNG
THAT .
su ports the
SMARTPANEL
ZUKUNFTSVISIONEN
EINER DIGITALEN WELT
MAGAZIN
Future-Proof Technologies / Reliable Solutions / Safe Investment /
THAT...
integrates BOLERO,
the state-of-the-art
wirele s intercom
KI IN DER MEDIENPRODUKTION
LÖSUNGSANSÄTZE UND ERFAHRUNGEN
ERÖFFNUNG DES
FASSBINDER CENTERS
THAT .
loads a fu l
configuration in
le s than 3 seconds
THE ONLY
INTERCOM
THAT...
talks
a l audio
standards
including
AES67
MAGAZIN
OBJEKTSPEICHERUNG IN
MEDIEN-WORKFLOWS
8-9 | 2019 73. JAHRGANG € 16,–
1 Magazin / News
IBC 2019
AKTUELLE MESSETRENDS
WWW.FKT-ONLINE.DE
FACHZEITSCHRIFT FÜR
FERNSEHEN,
FILM UND ELEKTRONISCHE
ESC 2019 IN TEL AVIV MEDIENVERIFIKATION
UND -MANAGEMENT
PRODUCT
SPECIAL
IN ENGLISH
INSIDE
In Kooperation mit der FKTG hat FKT dies zum Anlass genommen, in einer
gemeinsamen Online-Konferenz mit Vertretern aus Wissenschaft, Rundfunk,
Industrie und Politik über Perspektiven und neue Ansätze in der
Forschungsarbeit zu diskutieren. Eine ausführliche Nachlese der Online-
Expertenrunde „Medientechnik-Forschung im Fokus“ finden Sie auf Seite 15.
Eine spannende Lektüre wünscht Ihnen
nscht Ihnen
PS: Im Namen aller Mitarbeiterinnen und Mitarbeiter von Schiele & Schön
wünsche ich Ihnen, liebe Leserinnen und liebe Leser, ein frohes und
besinnliches Weihnachtsfest. Kommen Sie gut ins neue Jahr und bleiben Sie
gesund.
FKT 5/2021
IP-basierte Produktionssysteme
FRIST: 31. Dezember 2020
FKT 6/2021
ISE-Messeausgabe
FRIST: 31. Januar 2021
FKT 7/2021
KI-Verfahren in der
Medienproduktion
FRIST: 28. Februar 2021
Haben Sie Anregungen, Wünsche
oder auch Kritik? Schreiben Sie
uns. Die Redaktion erreichen Sie
per E-Mail über
redaktion@fkt-online.de.
Abonnieren Sie zudem auf
www.fkt-online.de unseren
kostenlosen Newsletter, der Sie
wöchentlich über die wichtigsten
Entwicklungen in der Branche
informiert.
INHALT
MAGAZIN
6 BUSINESS
7 KÖPFE
8 PRODUKTE UND LÖSUNGEN
10 TECH ACROSS AMERICA
Free-form Organic LCD Displays
Coming To A Studio Near you
MICHAEL GROTTICELLI
11 INTERNATIONAL
Konferenzen und Messen
15 Auf dem Weg zu neuen Kooperationen:
Medientechnik-Forschung im Fokus
MARTIN BRAUN
Produktion und Post
19 Der neue Standard im Newsroom:
Künstliche Intelligenz in der redaktionellen
Themenplanung
JOCHEN SCHON
12 TREND
30 Jahre Deutsche TV-Plattform
INTERVIEW MIT CARINE CHARDON
Titelbild: Mohamed Hassan auf Pixabay
Bild links: Convit GmbH
Bild Mitte: Deutsche TV-Plattform
Bild rechts: Fraunhofer HHI
Quelle: Photo by OCV PHOTO on
Unsplash
Quelle: Screenshot aus VIRTUOSA
VideoIPath-System
15 MEDIENTECHNIK-
FORSCHUNG IM FOKUS
NACHLESE ZU ONLINE-
EXPERTENDISKUSSION
VON FKT UND FKTG
22
EFFIZIENT UND STANDORT-
ÜBERGREIFEND
VIRTUOSA: 5G UND
VIRTUALISIERUNG IN DER
RUNDFUNK-PRODUKTION
FORSCHUNG UND ENTWICKLUNG
23
VIRTUOSA – Der Weg zu 5G und
Virtualisierung in der Rundfunkproduktion (POC)
ANDREAS METZ, HACI M. CENGIZ
32 VVENC und VVDEC: Fraunhofer HHI stellt
offene, optimierte Implementierungen des
neuen Videokodierstandards H.266/VVC bereit
26 5G TODAY – Versorgungsprognosen
und Feldtests
ANETA BAIER, KERSTIN PFAFFINGER,
ADAM WIECKOWSKI, BENJAMIN BROSS,
DR. DETLEV MARPE
MAHMOUD ALMARASHLI
INFORMATIONEN DER FKTG
38 Laudatio – Verleihung der Oskar-Meßter-
Medaille an Horst Burbulla
JÜRGEN BURGHARDT
39 Laudatio – Verleihung der Richard-Theile-
Medaille an Dr. Hans Hoffmann
DR. RAINER SCHÄFER
40 Laudatio – Verleihung des Rudolf-Urtel-Preises
an Dr. Anna Kruspe
PROF. DR.-ING. KARLHEINZ BRANDENBURG
41 Laudatio - Verleihung des Innovationspreises
an Prof. Karlheinz Brandenburg
DR.-ING. SIEGFRIED FÖSSEL
Quelle: GeoBasis_DE / BKG 2017
Quelle: FKTG
26 FORSCHUNGSPROJEKT
5G TODAY
VERSORGUNGSPROG-
NOSEN UND ERGEBNISSE
DER FELDTESTS
38
FKTG-PREISVERLEIHUNG IN
ILMENAU
AUSZEICHNUNGEN FÜR
INNOVATIONEN IN FERNSEH-
UND MEDIENBRANCHE
6 Magazin _ Business Dezember 2020 FKT
MAGAZIN
Quelle: Broadcast Solutions
Stefan Breder
(CEO Broadcast
Solutions), Ramunas
Dirmeikis (CEO TVC)
und Wladislaw
Grabowski (COO
Broadcast Solutions)
(v.l.n.r.)
UHD-Fernseher mit
mehr als 70 Prozent Anteil
am TV-Gesamtmarkt
Quelle: GfK Retail & Technology/
Deutsche TV-Plattform
Broadcast Solutions übernimmt
litauischen Systemintegrator TVC
BROADCAST SOLUTIONS hat den litauischen Systemintegrator
TVC Solutions UAB übernommen. Nach dem Erwerb ist TVC mit
Geschäftsführer Ramunas Dirmeikis eine hundertprozentige Tochtergesellschaft
der Broadcast Solutions Group. Die Tätigkeitsschwerpunkte
von TVC überschneiden sich nur geringfügig mit denen von
Broadcast Solutions und ergänzen weitgehend die Aktivitäten des
deutschen Systemintegrators. Insbesondere im Baltikum und in den
GUS-Ländern verstärkt Broadcast Solutions mit der Übernahme
von TVC nun seine Präsenz und kann so ein noch umfangreicheres
Angebot an Produkten und Lösungen sowie einen noch stärkeren
Service und Support anbieten. Obwohl vollständig in die Broadcast
Solutions Group integriert, wird die TVC Solutions UAB als unabhängige
Einheit und unter ihrem Namen auftreten.
TVC ist ein unabhängiger Systemintegrator, dessen Kunden
hauptsächlich aus Europa und gelegentlich aus Afrika, dem Nahen
Osten und Asien kommen. Zu seinen regelmäßigen Arbeiten gehören
Systemdesign, Lieferung von Equipment und Integration von TVund
Rundfunkstudios, MCRs, Playout-Systemen, Newsrooms und
Archivierungslösungen. Ein besonderer Schwerpunktbereich sind
Übertragungswagen und spezielle Messfahrzeuge. Zum Team
gehören mehr als 50 Mitarbeiter, bestehend aus Ingenieuren,
Projektmanagern und einem spezialisierten Fertigungsteam.
www.tvc.tv, www.broadcast-solutions.de
DER ANTEIL VON UHD-FERNSEHERN am TV-
Gesamtmarkt hat in den ersten neun Monaten 2020
die Marke von 70 Prozent überschritten. Laut GfK
Retail & Technology wurden in diesem Zeitraum insgesamt
rund 4,7 Millionen Fernsehgeräte in Deutschland
verkauft, darunter 3,3 Millionen UHD-TVs. Im Vorjahreszeitraum
lag der UHD-Anteil noch bei 62 Prozent
(Q1-Q3 2019: 4,5 Millionen TV-Geräte, davon 2,8
Millionen UHD-Displays), teilt die Deutsche TV-Plattform
mit. HDR ist mittlerweile Standard, 97 Prozent der
Q1-Q3 2020 abgesetzten UHD-Displays unterstützen
mindestens ein Verfahren für High Dynamic Range
(HDR) und können Inhalte mit deutlich größerem
Kontrastumfang und natürlicheren Farben in feineren
Abstufungen darstellen. Bei 55 Prozent (1,8 Millionen)
dieser HDR-Displays sind neben den statischen
HDR-Standards HDR10 und HLG (Hybrid Log Gamma)
auch dynamische HDR-Verfahren wie Dolby Vision
oder HDR10+ integriert. 460.000 der UHD-HDR-TVs
können mit allen vier genannten und derzeit relevanten
HDR-Verfahren umgehen.
Seit 2014 wurden in Deutschland insgesamt 17,4
Millionen UHD-Fernseher verkauft. Aufgrund der
„anhaltenden positiven Marktentwicklung“ im
Segment TV-Geräte geht die Deutsche TP-Plattform
davon aus, dass bis zum Jahresende 2020 die Schwelle
von 20 Millionen verkauften UHD-TVs erreicht wird.
https://uhdr.de, https://tv-plattform.de
Digitalradio-Sendernetz mit weiteren Standorten
Das Sendernetz des ersten nationalen DAB+ Multiplex soll bis
Ende 2020 um neun weitere Standorte ausgebaut werden. Durch
die neuen Senderstandorte wird der Empfang in den jeweiligen
Regionen sowohl innerhalb von Gebäuden als auch mobil nochmals
deutlich verbessert. Insgesamt wird das bundesweite DAB+ Netz im
Kanal 5C zum Jahresende dann 149 Standorte umfassen. Die aktuelle
Planung sieht vor, dass bis zum Jahresende die Standorte Dillberg und
Quelle: Media Broadcast
Nennslingen (beide Bayern), Eisenhüttenstadt (Brandenburg),
Wismar (Mecklenburg-Vorpommern), Hürtgenwald
und Schöppingen (beide Nordrhein-Westfalen), Ahrweiler
(Rheinland-Pfalz), Schneidlingen (Sachsen-Anhalt) und
Erfurt (Thüringen) hinzukommen. Bereits im April 2020
gingen die Standorte Bad Belzig in Brandenburg sowie Neustadt/Unger
und Chemnitz/Reichenhain in Sachsen in Betrieb.
Mit den neuen Standorten erhöht Media Broadcast die
Reichweite des ersten nationalen DAB+ Multiplex auf 87 Prozent
der Bevölkerung beim Empfang innerhalb von Gebäuden.
Der mobile Empfang ist auf 96 der Fläche Deutschlands
möglich, die Bundesautobahnen sind zu 99 Prozent versorgt.
Im ersten nationalen DAB+ Multiplex sind 13 Programme zu
empfangen, darunter vier Programme von Deutschlandradio
und neun Programme privater Radiosender.
www.media-broadcast.com
FKT Dezember 2020
Magazin _ Köpfe 7
Quelle: Bild: BR/Markus Konvalin
Dr. Katja
Wildermuth
wird neue
BR-Intendantin
Quelle: Privat
MAGAZIN
DR. KATJA WILDERMUTH (55) wird Amtsinhaber Ulrich
Wilhelm als neue Intendantin des Bayerischen Rundfunks
nachfolgen. Der Rundfunkrat wählte Wildermuth mit 38 von
48 Stimmen. Dr. Katja Wildermuth tritt das Amt zum 1. Februar
2021 an, die Amtszeit beträgt fünf Jahre. Katja Wildermuth, derzeit
Programmdirektorin des Mitteldeutschen Rundfunks in
Halle, promovierte an der Ludwig-Maximilians-Universität
(LMU) München im Hauptfach Alte Geschichte. Während ihrer
Promotionszeit war sie als Dozentin am Institut für Alte
Geschichte an der LMU tätig und volontierte im Lektorat des
R. Oldenbourg Verlags München. Ab 1994 arbeitete Katja
Wildermuth als Autorin und Redakteurin, unter anderem für das
ARD-Politmagazin „FAKT“. 2004 übernahm sie die Leitung der
Redaktion Geschichte und Gesellschaft. 2016 wechselte Katja
Wildermuth zum Norddeutschen Rundfunk, wo sie bis 2019
den Programmbereich Kultur und Dokumentationen leitete. Seit
April 2019 verantwortet sie die crossmediale Programmdirektion
Kultur des Mitteldeutschen Rundfunks.
Anlässlich des „International Symposiums on Broadband
Multimedia Systems and Broadcast (BMSB)“ der
Broadcast Technology Society des Institute of Electrical and
Electronics Engineers (IEEE) hat Professor Ulrich Reimers
den “2020 Special Service Award” erhalten. Verliehen wurde
ihm diese Auszeichnung in Anerkennung seiner „many
years of leadership and outstanding research of broadcast
technology development and standardization“.
www.ieee.org
Auszeichnung
für Professor
Ulrich Reimers
www.br.de
Quelle: Riedel Communications
RIEDEL: VINCENT LAMBERT
VERANTWORTET GESCHÄFT IN
JAPAN UND SÜDKOREA
Riedel Communications hat Vincent
Lambert zum General Manager für
Riedel Japan und Südkorea befördert.
Lambert berichtet an Riedel APAC-
Chef Simon Roehrs. Als Global Head
of Systems Consulting hatte Lambert
ein Team von zehn Kundenservice-
Ingenieuren zu einer 33-köpfigen technischen Pre-Sales-Abteilung
ausgebaut. Zuvor war er als Systemberatungsmanager für
Riedel APAC von Japan aus tätig. Zu seinen weiteren früheren
Positionen zählen die Leitung von Betrieb und Technik bei Walt
Disney Television Japan, Vertriebs- und Produktmanagementfunktionen
bei FOR-A in Japan sowie mehrere Positionen als
Rundfunktechniker in London.
www.riedel.net
Quelle: Tata Communications
TATA COMMUNICATIONS hat Kabir Ahmed Shakir zum
neuen Chief Financial Officer ernannt. Kabir übernimmt die
Position ab 21. Oktober 2020 und ist künftig für das strategische
Finanzmanagement des Unternehmens verantwortlich, einschließlich
Investor Relations. Kabir Ahmed Shakir bringt fast
drei Jahrzehnte Führungserfahrung im strategischen Finanzmanagement
mit sowie einen starken Fokus auf Wachstum,
Geschäftsprozesse und operativer Umsetzung in unterschiedlichen
Branchen und regionalen Märkten. Zuletzt war er als Chief
Financial Officer bei Microsoft Indien für das Finanzmanagement
aller Microsoft-Standorte in Indien verantwortlich.
www.tatacommunications.com
Kabir Ahmed
Shakir
neuer Finanzchef
bei Tata
Communications
8 Magazin _ Produkte Dezember 2020 FKT
MAGAZIN
Riedel vernetzt Ü-Wagen von
Game Creek Video
GAME CREEK VIDEO, ein Anbieter von mobilen TV-
Produktionseinrichtungen, hat fünf neue Ü-Wagen auf den
Markt gebracht, die mittels IP-Gateway-Lösungen von Riedel
untereinander vernetzt sind. Riedels MediorNet FusioN Standalone-IP-Konverter
steuern die komplette SMPTE ST 2110-
basierte Signalverarbeitung in den fünf mobilen Einheiten – die
alle den neuesten Stand der Technik in der 4K/HDR-Produktion
darstellen. Die neuen Ü-Wagen von Game Creek sind allesamt 16
Meter lange, erweiterbare Systeme. Sie bringen eine komplette
ferngesteuerte IP-Einrichtung in einem einzigen Ü-Wagen unter
und machen dadurch eine sekundäre B-Einheit für die Unterstützung
vor Ort überflüssig. Bravo und Columbia, die ersten beiden
Game Creek Video-Ü-Wagen mit den Riedel IP-Infrastrukturlösungen,
wurden Ende 2019 auf den Markt gebracht, Gridiron A,
Gridiron B und Celtic folgten Anfang des Jahres. Jede Einheit ist
mit 16 kompakten MediorNet FusioN 6-Gateways und zwei 2-RU
MediorNet MBR 18-Chassis ausgestattet. In Kombination bilden
sie ein Truck-to-Truck-Interface (T2T), das jeweils bis zu 32 x
32 optische Videopfade unterstützt. So lassen sich bis zu 128
Glasfaserleitungen auf nur acht reduzieren – das vereinfacht jede
Produktion erheblich und reduziert Fehlerquellen. Das Medior-
Net-basierte T2T-Interface schafft zudem eine nahtlose, herstellerunabhängige
Konnektivität zwischen Game Creek Videos fünf
neuen Trucks und der Flotte von SDI-Baseband Trucks. Dadurch
entfällt die Notwendigkeit, SDI-Signale von elektrischen Kupferauf
Glasfaserleitungen und zurück zu konvertieren. Über eine
25-Gigabit-Ethernet-Schnittstelle können die FusioN-Gateways
Signale über das SMPTE ST 2110-Netzwerk transportieren und
dann als CWDM-SDI direkt an die vorhandene Infrastruktur in
den Baseband-LKWs ausgeben.
www.riedel.net
Quelle: Riedel Communications
Videobearbeitung: Blackmagic
Design legt DaVinci Resolve 17 vor
Blackmagic Design hat mit DaVinci Resolve 17 eine neue
Version seiner Videobearbeitungssoftware vorgestellt
– mit über 300 Neuerungen. Neben HDR-Gradingtools und
neu gestalteten Bedienelementen für die primäre Farbkorrektur
gibt es mit der Fairlight Audio Core eine Fairlight
Audioengine der nächsten Generation und Echtzeit-
Unterstützung für 2.000 Audiospuren. Zudem umfasst die
neue Version Dutzende andere zeitsparende Werkzeuge
für Editoren wie einen umgestalteten Inspector und neue
Ansichten für die Bin-Sortierung und Clip‐Metadaten.
Damit Anwender schneller arbeiten können, wurden die
Fairlight-Werkzeuge für die Schnittauswahl mit Maus und
Tastatur aktualisiert. Neu sind auch die Fairlight Audio Core
und der FlexBus, eine Audioengine der nächsten Generation
und Bus-Architektur, die 2000 Spuren unterstützt. Für
Editoren gibt es eine Slate-Ansicht mit Bin-Unterteilungen
für Metadaten, heranzoombare Wellenformen für den
Tonschnitt, intelligente Neukadrierung, einen vereinheitlichten
Inspector und Dutzende andere zeitsparende Tools.
Außerdem können in Fusion erstellte Kompositionen nun
in den Edit- und Cut-Arbeitsräumen als Effekte, Titel oder
Übergänge verwendet werden. Für Coloristen wartet DaVinci
Resolve 17 mit neuen Kreativwerkzeugen auf. Das Zeichnen
von Power Windows wurde verbessert, es gibt neue
Wipe-Optionen im Split-Screen-Modus, eine zusätzliche
„Sat vs. Lum“-Kurve, verbesserte Scopes, Unterstützung für
17-Punkt-3D-LUTs und mehr. Eine Public Beta von DaVinci
Resolve 17 steht auf der Website zum Download bereit.
www.blackmagicdesign.com
Quelle: Blackmagic Design
MOG MIT 350 INSTALLATIONEN AUF DEUTSCHEM MARKT
MOG Technologies, Anbieter von End-to-End-Lösungen für professionelle
Medien, hat mit 350 Installationen in Deutschland einen „weiteren Meilenstein“
auf dem deutschen Markt erreicht. Mit Unterstützung des langjährigen Partners
Broadcast Solutions hat MOG im November den 354. Auftrag erfolgreich nach
Deutschland ausgeliefert. Der Kunde SWR erhielt zehn Einheiten des Produkts
mDECK Densu X-2. Als Lösung zur Erhöhung der Flexibilität bei den täglichen
betrieblichen Aufgaben wurde mDECK entwickelt, um Produktionsteams bei
der Aufnahme, Ingest, Kodierung und Wiedergabe mehrerer Kanäle beliebiger
Medienformate zu unterstützen und gleichzeitig dateibasierte und Baseband-Inhalte
zu unterstützen. mDECK kann weiterhin hybride Operationen
durchführen, die je nach den verschiedenen Modellen variieren können.
Quelle: MOG Technologies / Broadcast Solutions
www.mog-technologies.com, www.broadcast-solutions.de
FKT Dezember 2020
Magazin _ Produkte 9
Quelle: Sony
Neue Professional Displays
von Sony mit Full Array LED
Sony hat vier neue BRA
VIA BZ40H Professional
Displays vorgestellt,
die speziell für Geschäfts-,
Unternehmens- und Lehrumgebungen
entwickelt
wurden. Diese großformatigen
Bildschirme von 55
bis 85 Zoll bieten 4K-Auflösung und ein Full Array LED.
Die Full Array LED-Technologie soll dem Unternehmen
zufolge scharfe Kontraste ermöglichen: Helle Bereiche
in einem Bild werden durch die Hintergrundbeleuchtung
hervorgehoben, sodass diese erstrahlen (850 cd/m²). Das
Design mit schlankem Aluminiumrahmen bietet dank
seitlich platziertem Logo, neu angeordneten Anschlüssen
und verstärkter Struktur die Möglichkeit, das Display nicht
nur im Quer-, sondern auch im Hochformat anzubringen
– was ein oft geäußerter Kundenwunsch sei. Zu den
Ausstattungsmerkmalen zählen 16:9-4K-Auflösung, der
4K-X1-Prozessor von Sony sowie Kompatibilität mit High
Dynamic Range (HDR)-Videoformaten. Zusammen mit
X-Balanced-Lautsprechern liefere die BZ40-Serie Kunden
„hervorragende Bild- und Soundqualität für einzigartiges
Signage“, heißt es bei Sony.
Immersiver Sound im Heimkino
MPEG-H 3D AUDIO ist ab sofort in zahlreichen Heimkino-Produkten
des Unternehmens Sound United verfügbar.
Sound United ist das Mutterunternehmen von Denon,
Polk Audio, Marantz, Definitive Technology, HEOS, Classé
sowie Boston Acoustics. MPEG-H-kompatibel werden
die ausgewählten AV-Verstärker und -Preprocessor von
Denon und Marantz durch ein Firmware-Update.
MPEG-H Audio ist ein offener ISO-Standard und wurde
maßgeblich vom Fraunhofer IIS entwickelt. Das Audiosystem
für UHD-TV und Streaming unterstützt sowohl
immersiven Sound als auch die
Möglichkeit für Benutzer, Audioelemente
an ihre Wünsche anzupassen.
MPEG-H wird seit 2017
im ATSC-3.0-Standard von allen
südkoreanischen TV-Sendern
eingesetzt und ist zudem für die neuen Rundfunkstandards
in Europa, China und Brasilien vorgesehen. Mit der
Verfügbarkeit von MPEG-H für AV-Receiver von Denon
und Marantz können Nutzer nun einen „umhüllenden und
personalisierbaren Klang in höchster Qualität genießen,
der den künstlerischen Intentionen des Urhebers gerecht
wird“, teilt Fraunhofer IIS mit. Dies optimiere vor allem
das Nutzererlebnis bei Sport-, Musik-, TV- und Filmübertragungen.
www.iis.fraunhofer.de, www.soundunited.com
MAGAZIN
https://pro.sony/en_GB/products/pro-displays
ANZEIGE
Remote-Work über
Proxy-Editing – neue Perspektiven
in medialoopster
MIT MEDIALOOPSTER 6 kommt im vierten Quartal 2020 die
neue Version des Media Asset Management Systems von nachtblau
auf den Markt. Für Produzenten und Anwender gleichermaßen
interessant sind die neuen Features für ortsunabhängiges
Arbeiten. Durch die Integration von Proxy-Editing mit Adobe
Premiere können Video-Projekte nun im Home-Office erstellt
und bearbeitet werden. Das Rendering der fertigen Schnitt-
Projekte findet automatisch unter Nutzung der Hires-Dateien
statt, ohne dass diese heruntergeladen werden müssen.
medialoopsters zentrale Eigenschaft ist die Erhaltung aller
Metadaten über sämtliche Workflow-Prozesse hinweg. Dies
gilt auch für die Arbeit mit der neu entwickelten Cloud-Videoplattform.
Sie ermöglicht erstmals - direkt aus der Anwendung
heraus - die selektive Veröffentlichung von Video-Assets zum
kollaborativen Arbeiten. Dabei können durch integrierte
Review-&-Approval- sowie Kommentar-Funktionen zeit- und
kostenintensive Arbeitsprozesse minimiert werden.
Metadaten sind auch sonst ein großes Thema bei medialoopster.
KI-Technologien verschiedener Anbieter, wie neuerdings
auch die KI Video Mining Plattform DeepVA, erlauben die
Erkennung von Gesichtern, Objekten, Logos und Schrift.
media loopster übernimmt die KI-Daten framegenau und macht
die erkannten Objekte durchsuchbar. Als Suchergebnis werden
dann die exakten Zeitabschnitte innerhalb der Videos angezeigt.
Auch die Erstellung von Untertiteln durch KI-Engines sowie
deren Übersetzung lassen sich in medialoopster einbinden.
Eine weitere Neuerung ist die vereinfachte Integration von
Drittsystemen. So können nun durch einfache Konfiguration
eigene Menüpunkte im medialoopster Interface angelegt werden.
Diesen Menüpunkten können wiederum beliebige externe Workflows
in Form von Webhooks zugeordnet werden.
Mehr Informationen erhalten Sie:
e. info@nachtblau.tv
t. 040 521 03 270
www.medialoopster.com, www.nachtblau.tv
10 Magazin _ Tech Across America Dezember 2020 FKT
MAGAZIN
Free-form
Organic LCD Displays
Coming To A Studio Near you
Image: Michael Grotticelli
MICHAEL GROTTICELLI
is an experienced editor
and regular contributor
to FKT’s Tech Across
America column.
We’ve all seen or heard about flexible, or freeform,
video display technology. It’s found in
mobile phone and tablets today but could be outfitting
your next TV studio. A technology known
to mobile phone developers called organic liquid
crystal displays (OLCD) is now being tested for dynamic
set elements where video can be wrapped
around and on top of a set piece. The technology
enables low cost, large area and shapeable
displays that can be used virtually anywhere. And,
unlike other flexible display approaches, OLCD is
naturally scalable to large sizes (e.g., studio walls).
Liquid crystal display, or LCD, is the most
widely used technology that accounts for more
than 90% of the displays sold today. However,
they are made with glass that limits the ability to
flex and the displays and conform to surfaces. If
you replace the glass with ultra-thin plastic, an
LCD can be made to bend, by carefully selecting
the liquid crystal materials and optimizing the
assembly process.
The technology is not new: it’s been in development
since 2014. Yet OLCD can now achieve
the same performance (and size) as your TV at
home, but on plastic. The manufacturing process
has been developed to be highly compatible with
existing capital equipment used for amorphous
silicon LCDs and, leveraging the existing materials
supply chain, making OLCD a cost-effective
option for flexible, color video-rate
displays. OLCD screens are ultra-thin
(0.3mm) plastic displays that can
be laminated directly onto curved
surfaces to a radius of curvature of
ten millimeters.
As with glass-based LCD, the
lifetime of OLCD is independent of
the display brightness, because it
is achieved through transmission of
a separate light source (the backlight),
rather than emission of its own light. For
example OLCD can be made ultra-bright for
viewing in daylight conditions without affecting
the display lifetime – an important requirement
for studio displays.
The ability to wrap displays around studio set
objects and configure them into more organic
shapes is what free-form really means. TV studios
can now have displays that can have video displayed
on any surface, including pillars, curved
walls and ceilings.
Today, glass displays are limited to straight or
gently curved edges because of the challenges of
handling glass with more complex shapes, whereas
plastic OLCDs can be easily cut to exotic shapes
Product
designers
want
to design displays
around the product,
and not the other
way round.
using laser profiling. Once the display has been
built, the plastic substrate can be gently released
from the rigid carrier ensuring a simple, reliable
high yield “release” process. The ability to cut
plastic displays to shape offers an infinite degree
of design freedom. For example, it is now possible
to insert a physical hole in the middle of a display
to create a “donut shape” display. Holes can be also
added to fit around the functional design of the
studio, for example, around knobs and switches.
Product designers want to design displays
around the product, and not the other way round.
“Free-form” means more than non-rectangular;
it is the ability to integrate displays seamlessly
into any 3D shaped surface. Only plastic displays
can become truly free-form displays and wrapped
around objects that have multiple axes and direction
of curvature.
Several companies that have supported the
mobile device industry for years are now experimenting
with large-sized displays that are thin,
lightweight and shatterproof. They say that unlike
flexible OLED displays—which have been already
been adopted in smartphones and smartwatches,—OLCD
opens up the use of flexible displays to
a wider range of applications that could include
broadcast studios. In fact, it has several attributes
that make it better suited to digital signage than
flexible OLED.
And, they say, OLCD is the lowest cost
flexible display technology—at three
to four times lower cost that flexible
OLED. This is because OLCD display
manufacturing uses organic
rather than silicon-based thin film
transistors (TFTs). Organic TFTs
do not require as high a processing
temperature as silicon-based
TFTs, so the manufacturing process
for OLCD displays has a significantly
lower cost.
What about resolution, you say? The
required pixel density of a display changes with
both application and screen size. A six-inch phone
display needs a pixel density of 490ppi to deliver
2K (2560×1440) and 368ppi for HD. This changes
to 188ppi and 141ppi for a 15.6-inch notebook, or
53ppi and 40ppi for a 55-inch TV. Flexible OLCD
displays can achieve the same resolutions and
pixel densities as amorphous silicon glass LCD
displays (350ppi), allowing 2K (and higher) resolutions.
2K resolution meets the needs of in-vehicle
displays, for example, while 4K matches those
of 15.6-inch notebooks, monitors, TVs, and digital
signage.
FKT Dezember 2020
Magazin _ International 11
The lifetime of an OLED display is closely
linked to its brightness, with each doubling of
brightness leading to a quartering of a lifetime
and daily use problems such as image burn-in.
OLCD technology uses a separate backlight, which
allows high luminescence levels to be delivered
without compromising the display lifetime; and
unlike OLEDs, OLCDs aren’t prone to burn-in.
Lastly, OLCD has also been used in the fabrication
of ultra-high contrast dual cell displays with
true pixel level dimming, offering OLED-like performance.
Due to these and other unique properties,
OLCD has the potential to transform how and
where displays are used in studio productions. It’s
not a matter of if, it’s when costs come down and
large display become more mature.
MAGAZIN
DENSITRON, a provider of Human Machine
Interaction (HMI) and display technology, has announced
that NEP The Netherlands is now using
the Intelligent Display System (IDS) solution for
a wide variety of production tasks at its broadcast
centre in Hilversum. The media technology
company’s road to implementing IDS began in
2015. NEP The Netherlands’ reliance on IDS has
increased over time, and as of 2020 it is being
used to control lights, PTZ cameras and studio
door information. IDS has also been integrated
with several other core systems, including the
Ross OverDrive automated production control system
and – thanks to a bespoke plug-in developed
by the Densitron team – with the Avid FastServe
playout server. Most recently of all, NEP The
Netherlands has also installed IDS in its outside
broadcast unit, iOB, that was introduced in 2019.
A pod-like facility delivered on a flatbed truck,
iOB serves as a remote production gallery that
can utilise shared system resources in Hilversum
and other NEP locations as part of the Centralised
Production concept.
Dutch NEP uses Densitron‘s Intelligent
Display System (IDS)
www.densitron.com
Source: Densitron / NEP
CUSTOM CONSOLES announces the completion
of a 5 metres wide by 3 metres high MediaWall for
BBC Studioworks in Elstree, Hertfordshire. The
new structure is installed in the production control
gallery used for the supervision of programmes
from the George Lucas Stage. BBC Studioworks
operates a complete gallery suite assigned to the
George Lucas Stages at Elstree Studios, supporting
large-scale TV productions. The galleries have
direct access to Stages 1 and 2 and have hosted
shows such as Strictly Come Dancing, The Voice,
and A League of Their Own. George Lucas used
Stages 1 and 2 during the filming of the ‘Star
Wars’ trilogy and welcomed the opportunity of
naming Stage 1 the George Lucas Stage. Fully
soundproofed, the stage is 1,465 square metres
in area and 15 metres high. Located in front of
the production control desk, the MediaWall spans
almost the full width of the gallery’s front wall and
supports 44 video monitors plus their associated
under-monitor displays. A studio clock display
and speakers are also attached. Four storage cabinets
are positioned at floor level, accommodating
power and signal distribution equipment.
New „MediaWall“ goes live at
BBC Studioworks
www.bbcstudioworks.com
www.customconsoles.co.uk
Source: Custom Consoles
12 Magazin _ Trend Dezember 2020 FKT
MAGAZIN
30 Jahre
Deutsche TV-Plattform
Carine Chardon,
Geschäftsführerin
Deutsche TV-Plattform
Interview mit
Geschäftsführerin Carine Chardon
Drei Jahrzehnte rasanter medientechnologischer Entwicklungen hat die Deutsche TV-Plattform
mitgestaltet – der Verein versteht sich als Koordinator unterschiedlicher Interessen, als Drehscheibe
für Informationen und als neutraler Aufklärer für die Öffentlichkeit. Bei der Gründung im
Jahr 1990 (noch unter dem Namen „Nationale HDTV-Plattform Deutschland“) zeichnete sich die
„digitale Revolution in der Bewegtbild-Technik“ bereits ab, wie Geschäftsführerin Carine Chardon
im Interview in Erinnerung ruft. FKT hatte Gelegenheit, mit ihr über die Anfänge sowie über
aktuelle und künftige Aufgaben zu sprechen.
Frau Chardon, die Deutsche TV-Plattform
feiert in diesem Jahr ihr 30-jähriges Bestehen.
Warum kam es 1990 zur Gründung des Vereins?
Carine Chardon: Der Verein wurde ursprünglich
als „Nationale HDTV-Plattform Deutschland“ gegründet,
um die Markteinführung von HDTV nach dem im
Rahmen des europäischen Forschungsprojektes Eureka
95 entwickelten 1250/50-Standards auf breiter Ebene
zu koordinieren und zu unterstützen. Die europäische
Industrie, Bundesministerien, Europäische Kommission,
Forschungseinrichtungen sowie TV-Sender und Netzbetreiber
reagierten damit auf japanische Versuche, einen
weltweit einheitlichen 1125/60-Standard zu etablieren.
Das war ein ambitioniertes Unterfangen. Damals standen
in den TV-Haushalten nur analoge Röhrenfernseher,
aber die digitale Revolution in der Bewegtbild-Technik
zeichnete sich bereits ab. Deswegen wurde das aus dem
Eureka-Projekt stammende analoge Projekt „HD Mac“
rasch beerdigt und der Verein konzentrierte sich fortan
auf die Digitalisierung des Fernsehens. Und da gab
es viel zu tun! Es wurden Arbeitsgruppen gegründet,
Strategien ausgeheckt, Kompendien verfasst und Events
und Symposien durchgeführt. Und Szenarien, wie sich
der Übergang von analog zu digital möglichst elegant
vollziehen könnte. Im Prinzip ist das heute noch so, nur
haben sich die Themen und Bühnen gewandelt.
FKT Dezember 2020
Magazin _ Trend 13
Die Plattform versteht sich als „einzigartigen
Zusammenschluss“ verschiedener Akteure im
Medienbereich. Was ist das Besondere Ihrer
Interessensvertretung?
Carine Chardon: Unsere Mitgliederstruktur
bildet die gesamte
Wertschöpfungskette der Branche
ab, vom Sender über Infrastrukturbetreiber
und Hersteller bis zu
Forschung, Bundes- und Landesbehörden.
Wir können daher wie keine
andere Institution in Deutschland
Experten und Entscheider aus
allen Bereichen zu den relevanten
Branchenthemen zusammenbringen
und so signifikanten Mehrwert
für unsere Mitglieder und den Markt schaffen.
An welchen Entwicklungen war die Deutsche
TV-Plattform in den vergangenen drei Jahrzehnten
entscheidend beteiligt?
Carine Chardon: Nach außen hin am sichtbarsten
waren sicher die Meilensteine entlang der Digitalisierung
der Verbreitungswege und Einführung neuer TV-Technologien
und Standards. Ob Digitalisierung der Verbreitungswege
Kabel und Satellit, HDTV, HbbTV, DVB-T und
DVB-T2 HD und Ultra HD: wann immer in den letzten
30 Jahren eine neue Medientechnologie entwickelt
und eingeführt wurde, hat die Deutsche TV-Plattform
unterstützt, indem sie verschiedene Interessenslagen
koordiniert, als Drehscheibe für Informationen fungiert
und die Öffentlichkeit neutral und umfassend aufgeklärt
hat. Es gab aber auch wichtige Projekte, die unter dem
Radar der breiten Öffentlichkeit gelaufen sind – oder
aktuell noch laufen, wie unsere UHD-Plugfest-Reihe. Die
Geburtsstunde dazu war übrigens die IFA 2014. Ultra HD
war damals das zentrale Thema unseres Messestands.
Die Kollegen hatten ihre liebe Not und Mühe, die verschiedenen
Geräte miteinander so zu verbinden, dass ein
UHD-Bild zu sehen war… Aus dieser „Grenzerfahrung“
wurde die Idee geboren, Events für herstellerübergreifende
Geräte-Tests zu kreieren, um bereits in der Entwicklungsphase
UHD-Geräte auf Interoperabilität und
korrekte Implementierung neuer Features abzuklopfen.
Daraus ist schnell eine europäische Initiative entstanden,
die bis heute Bestand hat, und Herstellern, Infrastrukturanbietern
und Diensteanbietern bei der Entwicklung hilft
– was am Ende auch den Zuschauern zugutekommt.
Die digitalen elektronischen Medien haben
sich in den vergangenen 30 Jahren rasant entwickelt.
Woran machen Sie das fest?
Carine Chardon: Ich denke, das kann man in drei
Phasen einteilen. Die erste war die Ablösung der analogen
TV-Verbreitung durch das digitale Fernsehen,
wodurch das Programmangebot enorm zugenommen
hat. Den Auftakt dazu machte die Einführung von DVB-T
in den Jahren 2003 bis 2008. Im Großen und Ganzen war
mit Ende der analogen Satellitenverbreitung im April
2012 digitales TV in Deutschland etabliert, auch wenn es
im Kabel noch ein wenig gedauert hat, bis der Umstieg
komplett vollzogen wurde – die Netze waren aber natürlich
schon längst vorher digitalisiert. Die zweite Phase
„Wann immer in den
letzten 30 Jahren eine
neue Medientechnologie
entwickelt und eingeführt
wurde, hat die
Deutsche TV-Plattform
unterstützt.“
war die Einführung von HDTV, wo Ende 2009 / Anfang
2010 mit dem Start der großen privaten und öffentlich-rechtlichen
Sendergruppen endlich den Durchbruch
eingeläutet wurde – die DTVP unterhielt ja bereits seit
2004 eine Arbeitsgruppe HDTV.
Mit HDTV wurden die Fernsehbilder
zu besseren Bildern, und durch
Ultra HD und HDR gilt das heute
umso mehr. Die dritte Phase, die
vor wenigen Jahren begonnen hat,
beschäftigt uns derzeit wohl mit
am meisten: die Verbreitung von
Inhalten und Diensten über das
Internet. Von der Einführung des
IPTV-Fernsehens bis zur Massenverbreitung
von Smart-TV, die
„Over The Top“ Bewegtbild-Apps
empfangen: die DTVP begleitet diese Entwicklung seit
über einer Dekade. Entlang dieser Zeitlinien gab es
natürlich auch noch andere wichtige Themen, denen sich
die Deutsche TV-Plattform intensiv gewidmet hat – etwa
HbbTV. Was zunächst als „moderner Teletext“ gestartet
war, ist inzwischen eine der Kerntechnologien für die
Interaktivität von Broadcast Diensten – von Barrierefreiheit
bis Targeted Advertising bietet HbbTV den Sendern
zahlreiche Möglichkeiten. Der klassische Teletext existiert
indes noch (!) weiter…
Ziel des Vereins ist die Einführung digitaler
Technologien auf Grundlage offener Standards.
Warum ist das entscheidend?
Carine Chardon:
Standards bieten die notwendige
Grundlage, um
Märkte schnell wachsen zu
lassen und Interoperabilität
zu gewährleisten – der
DVB-Standardfamilie etwa
ist wortwörtlich das digitale
Fernsehen zu verdanken.
„Bei unserem
Dauerbrenner Ultra HD
beschäftigen wir uns
derzeit intensiv mit dem
Thema HDR.“
Über die Jahre haben
sich die Arbeitsgruppen der Deutschen TV-Plattform
dynamisch an die Veränderungen in der
Medienwelt angepasst. Woran arbeiten aktuell
die Arbeitsgruppen Media over IP, Smart Media
und Ultra HD?
Carine Chardon: In erster Linie an Projekten, die wie
die UHD-Plugfest-Reihe zunächst im Maschinenraum
der Branche stattfinden, um den Zuschauern an Deck ein
besseres und komfortableres TV-Erlebnis zu ermöglichen.
Bei unserem Dauerbrenner Ultra HD beschäftigen
wir uns derzeit intensiv mit dem Thema HDR. Das Ziel
ist hier, ein optimales HDR-Erlebnis beim Kunden zu
erzielen. Dazu erarbeiten wir Empfehlungen für die
Produktion und den Transport von HDR-Signalen über
die gesamte Produktions-/Verteilungskette bis hin zum
Endgerät. Außerdem beleuchten wir in diesem Kontext
die Vor- und Nachteile der verschiedenen HDR-Spezifikationen.
Ferner haben wir CI Plus 2.0 auf dem Radar und
diskutieren die Chancen und Herausforderungen einer
Markteinführung der neuen Version der CI-Plus-Schnittstelle.
Damit würde sich der Formfaktor der Schnittstelle
MAGAZIN
14 Magazin _ Trend Dezember 2020 FKT
MAGAZIN
ändern, die dann nicht mehr auf dem PCMCIA-Slot,
sondern auf USB basiert. Daraus ergäben sich für die
Marktbeteiligten und Konsumenten eine Reihe von Vorteilen,
allerdings würde ein Umstieg auf CI Plus 2.0 auch
größere logistische und kommunikative
Anstrengungen erfordern
und muss wohlüberlegt sein.
Deswegen wollen wir Anfang 2021
einen erweiterten Kreis aus den
relevanten Unternehmen und Stakeholdern
aus der DACH-Re gion
zusammenbringen, die sich mit
einer möglichen Einführung von CI Plus 2.0 befassen.
Ein gutes Stück weiter sind wir bereits beim Thema
Metadaten für die Content-Distribution. Dazu zählen
etwa Trailer, Bilder oder Texte, die uns Zuschauern den
Weg zum Wunschprogramm weisen. Kreation, Pflege
und korrekte Darstellung dieser Metadaten sind aber für
Inhalteanbieter, Dienstleister und EPG-Betreiber durch
die Vielzahl der Video-Plattformen eine große Herausforderung.
Das führt dann beispielsweise zu abgeschnittenen
Textbeschreibungen bei Serien oder Filmen,
über die wir uns alle schon einmal gewundert haben.
Um solche Reibungsverluste bei der Ausspielung von
Metadaten zu minimieren, benötigt
man ein übergreifendes Verständnis
in der Branche. Genau dafür
hat die Deutsche TV-Plattform ein
„Basis-Set Metadaten“ erarbeitet.
Es enthält von Beschreibungen
über Publikationswege bis hin zu
technischen Angaben umfassende
und anschauliche Hinweise für die
Pflege und das Vorhalten von Metadaten
für die Distribution, und zwar
sowohl für lineare als auch für non-lineare Verbreitung.
Mit dem Basis-Set ist die Arbeit aber noch nicht abgeschlossen.
Als nächstes widmen wir uns den Themen
Tagging und Steuerungsdaten.
„Die Schließung des IRT
ist ein großer Verlust für
unsere Branche.“
„Es ist grundsätzlich
denkbar, dass wir in
Zukunft die ein oder
andere kleinere Aufgabe
des IRT übernehmen.“
der FKTG – zusätzliche Aufgaben übernehmen,
etwa um als Interessensvertreter zu agieren oder
bei Standardisierungsfragen noch intensiver
mitzuwirken?
Carine Chardon: Die Schließung
des IRT ist ein großer Verlust
für unsere Branche. Der außerordentliche
Sachverstand und das
große Engagement der IRT-Mitarbeiter
hat auch eine Stückweit
die Deutsche TV-Plattform mit
getragen. Angesichts der interessensübergreifenden
Struktur der Plattform ist es grundsätzlich denkbar, dass
wir in Zukunft die ein oder andere kleinere Aufgabe des
IRT übernehmen.
Ein Ausblick: Welche Herausforderungen sind
darüber hinaus in den kommenden Jahren zu
meistern?
Carine Chardon: Aktuell sicherlich trotz Corona-Pandemie
und Umzug aller Aktivitäten in die digitale
Domäne unsere Sichtbarkeit zu bewahren, die Themen
und Projekte voranzutreiben, um
unsere Mitgliedsunternehmen
bestmöglich zu unterstützen. Perspektivisch
gibt es einige Themen
und Trends, um die wir uns kümmern
werden. Dazu gehören neben
der Bildqualität die Frage der Leistungsfähigkeit
der Internet-Infrastruktur
für die schnell wachsende
Anzahl an Streaming-Nutzern, die
Nutzung von KI in den Medien,
das große Feld von Addressable TV und personalisierten
TV-Diensten. Auch das Thema Cloud ist für viele unsere
Mitglieder in ihren Herstellungs- und Vertriebsprozessen
von steigender Relevanz.
Mit der Schließung des Instituts für Rundfunktechnik
(IRT) zum Jahresende 2020 entsteht eine
große Lücke in der deutschsprachigen Medientechnik-Branche.
Inwiefern kann die Deutsche
TV-Plattform vor diesem Hintergrund – möglicherweise
auch in Kooperation mit Vereinen wie
Frau Chardon, vielen Dank für das Gespräch.
https://tv-plattform.de/
Interview: Martin Braun
DEUTSCHE TV-PLATTFORM MIT NEUEM VORSTAND
Vertreter von über 50 Mitgliedsfirmen, Organisationen und Institutionen der Deutschen TV-Plattform
haben auf einer digitalen Mitgliederversammlung des Vereins einen neuen, sechsköpfigen
Vorstand gewählt. Andre Prahl (Bereichsleiter Programmverbreitung, Mediengruppe RTL
Deutschland) wurde als Vorstandsvorsitzender bestätigt. Als Stellvertreter agieren Markus Zumkeller
(Director of Technology and Engineering, Sony Europe) und Sascha Molina (Produktionsdirektor
NDR, für die ARD), der neu in den Vorstand berufen wurde. Er folgt auf Dr. Michael Rombach
(Produktionsdirektor ZDF), der nicht mehr für die Wahl kandidiert hatte. Ebenfalls in den
Vorstand gewählt wurden Joachim Abel (Vice President Product Management Services, Deutsche
Telekom), Christoph Mühleib (Geschäftsführer, Astra Deutschland) und Rolf Wierig (Global Head
of Entertainment & Video Content, Vodafone Group). Dem Vorstand gehören zudem weiterhin
die Leiter der Arbeitsgruppen an: Dr. Niklas Brambring (CEO Zattoo, Leiter der AG Media over IP),
Stefan Kunz (Vice President Broadcast Services Sky Deutschland, Leiter der AG Ultra HD) und
Jürgen Sewczyk (JS Consult, Leiter der AG Smart Media). Die Mandatsperiode des neuen Vorstands
beträgt zwei Jahre. https://tv-plattform.de/
Andre Prahl, Markus Zumkeller, Sascha
Molina (obere Reihe von links nach
rechts), Joachim Abel, Christoph Mühleib,
Rolf Wierig (untere Reihe von links
nach rechts)
Quelle: Deutsche TV-Plattform
FKT Dezember 2020
Magazin _ Konferenzen und Messen 15
Quelle: Photo by OCV PHOTO on Unsplash
MAGAZIN
Auf dem Weg zu
neuen Kooperationen
Medientechnik-Forschung im Fokus
Die Schließung des Instituts für Rundfunktechnik (IRT) zum Jahresende 2020 hinterlässt eine
große Lücke in der deutschsprachigen Medientechnik-Forschung. Anlass für FKT und FKTG, in
einer gemeinsamen Online-Konferenz mit Vertretern aus Wissenschaft, Rundfunk, Industrie und
Politik über Perspektiven und neue Ansätze in der Forschungsarbeit zu diskutieren.
Wie sehr das Thema die Branche umtreibt, zeigte
die ausgesprochen große Resonanz der ersten
gemeinsamen Expertendiskussion von FKT und FKTG
am 5. November 2020. Zehn hochkarätige Experten beteiligten
sich an der Diskussion, das Online-Seminar war
komplett ausgebucht. An welchen neuen Projekten die
Forschung arbeitet, welche Probleme in den kommenden
Jahren zu lösen sind und welche Rolle dabei die gemeinsame
Entwicklung offener Standards spielt, hat die
Runde in einem zweistündigen Live-Format diskutiert.
HDR-SDR-Konvertierung
Zu Bereichen des UHDTV-Fernsehens, speziell zu High
Dynamic Range (HDR) und Wide Color Gamut, forscht
das Team um Professor Mike Christmann und Lucien
Lenzen an der Hochschule Rhein-Main in Wiesbaden.
„Wir haben einen Algorithmus für eine dynamische,
automatische Konvertierung von HDR nach SDR entwickelt“,
erläuterte Christmann. [1] Außerdem befassen
sich die Wiesbadener mit Künstlicher Intelligenz (KI),
konkret mit Deep Learning-Ansätzen, um beispielsweise
verloren gegangene Bildinhalte in Archivmaterialien
wieder sichtbar werden zu lassen.
Software statt Hardware
Machine Learning ist ein Thema, das am Fraunhofer
IIS in Erlangen eine große Rolle spielt – etwa, wenn es
um besseres Verstehen von Sprache (Natural Language
User Interface) oder um weitere Optimierung von Codecs
geht, wie Dr. Siegfried Fößel skizzierte. Er wies zudem
darauf hin, dass sich die Forschungsaktivitäten in den
vergangenen Jahren stark gewandelt haben: Stand früher
Hardware-Design im Mittelpunkt, so gehe es heute größtenteils
um Softwareentwicklung.
16 Magazin _ Konferenzen und Messen Dezember 2020 FKT
MAGAZIN
Seit jeher ist der Anwendungsbezug von Forschung im
Fokus des Instituts für Rundfunktechnik (IRT), das zum
Jahresende 2020 seine Pforten schließen muss. [3]
Einige der aktuellen Projekte beziehen sich ebenfalls
auf die neue Mobilfunk-Generation 5G (siehe hierzu die
Beiträge zu VIRTUOSA und 5G TODAY ab Seite 23 in dieser
Ausgabe), darüber hinaus befinden sich Themen wie
Video over IP, Machine Learning oder auch Hybrid-Radio
im Zentrum der Aktivitäten. Fest steht: Die Forscher in
München-Freimann haben in den vergangenen Jahrzehnten
wegweisende Arbeiten geleistet für die Etablierung
offener Standards. Ein Beispiel hierfür ist Hybrid
Broadcast Broadband TV (HbbTV), wie IRT-Forscher Dr.
Rainer Schäfer in Erinnerung rief. Sein Plädoyer: „Zu den
Plattformen, die von internationalen Kräften getrieben
werden, muss man Forschung und Standardisierung als
nationale und europäische Gegengewichte kreieren - um
nicht vollkommen von Entwicklungen aus anderen Ländern
überrannt zu werden.“
Expertenrunde im Gespräch: Dr.-Ing. Siegfried Fößel, Lucien Lenzen, Dr. Ernst Dieter
Rossmann, Jürgen Marchlewitz (erste Reihe v.l.n.r.), Martin Braun, Thomas Harscheidt,
Jürgen Burghardt, Professor Ulrich Reimers (zweite Reihe v.l.n.r.), Professor Alexander
Raake, Professor Peter C. Slansky, Wolfgang Wagner, Professor Mike Christmann (dritte
Reihe v.l.n.r.), Dr. Rainer Schäfer, Claus Pfeifer (vierte Reihe v.l.n.r.)
An der Technischen Universität Ilmenau beschäftigen
sich die Forscher mit immersiven Medien und insbesondere
mit XR, also Augmented, Virtual und Mixed
Reality, wie Professor Alexander Raake erläuterte. An
dem Thüringer Forschungsstandort entsteht aktuell
ein Virtual Reality-Zentrum, auch sollen demnächst in
einem virtuellen Studio volumetrische Aufnahmen [2]
umgesetzt werden. In Ilmenau
geht es zudem um die Bewertung
der technischen Qualität von
Video-Streaming – hinsichtlich
Kriterien wie Rauschverhalten
oder Farbwiedergabe.
Machine Learning
Mit Themen wie Physical Layer Security setzen sich
derweil Wissenschaftler der Technischen Universität
Braunschweig in der Grundlagenforschung auseinander.
„Wie kann ich dafür sorgen, dass bereits auf dem physikalischen
Übertragungsweg Datensicherheit gewährleistet
wird?“, ist hier eine der Kernfragen. Professor Ulrich
Reimers skizzierte, dass auch in Niedersachsen Machine
Learning von großer Bedeutung ist – und zwar durchaus
mit Anwendungsbezug. Hier geht es beispielsweise
darum, im Umfeld des autonomen Fahrens die visuelle
Erkennung von „höchst ungewöhnlichen Ereignissen“
zu gewährleisten. Darüber hinaus beschäftigen sich die
Braunschweiger mit Distributionsthemen, also etwa mit
der Kommunikation über Terahertz-Frequenzen oder mit
der Medienverbreitung via 5G Broadcast und DVB-I.
Forschung zu 5G
„Europäisches
Gegengewicht
in der Forschung“
Bewegtbild-Qualität
An der Hochschule für Fernsehen und Film (HFF) in
München steht die künstlerische Anwendung sehr stark
im Vordergrund, erklärte Technik-Professor Peter C.
Slansky. Die HFF gilt als einer der größten Filmproduzenten
Münchens (in Vor-Corona-Zeiten mit einer
Produktion von mehr als 120 Filmen pro Jahr), die Hochschule
betreibt Kinos, verfügt über vier Studios und eine
Etage für Postproduktion.
Die Anwendungs forschung an der HFF München
umfasst Fragen wie die Sicherheit von Lichtquellen in
Filmscheinwerfern; in der Grund lagenforschung arbeitet
Professor Slansky bereits seit geraumer Zeit an einem
Klassifizierungssytem für Bewegtbild-Qualität. Und auch
an der HFF spielt Künstliche Intelligenz eine wichtige
Rolle, jüngst erhielten die Münchner den Zuschlag für
eine KI-Professur.
Technologie-Scouting
Der WDR setzt KI-Verfahren bereits in Form einer
Mining-Plattform ein, die in Zusammenarbeit mit dem
Fraunhofer IAIS entstanden ist. [4]
„Das Thema ist wichtig, insbesondere
mit Blick auf die Optimierung
unserer Arbeitsprozesse“, betonte
Wolfgang Wagner, Direktor Produktion
und Technik beim WDR.
Für ihn ist entscheidend, dass der
öffentlich-rechtliche Rundfunk
weiterhin Zugang zu innovativen Forschungs- und
Entwicklungs-Ergebnissen hat. Die größte Herausforderung
sieht Wagner in der dynamischen Entwicklung
neuer Technologien einerseits und andererseits in dem
„weitreichenden Transformationsprozess“, der durch
den Wandel in der Mediennutzung vor allem bei dem
jüngeren Publikum forciert wird. „Wir haben uns stärker
damit auseinanderzusetzen, wie Technologie-Scouting
und Technik-Evaluation stattfinden kann.“ Dabei sei ein
intensiver Anwendungsbezug entscheidend, Grundlagenforschung
könne man nicht betreiben.
IT-Durchdringung
Sein Haus will künftig auf noch breitere Kooperatio nen
mit Partnern wie Hochschulen, Forschungsinstituten,
Industrie und andere Medienunternehmen setzen. „In
solchen Netzwerken können wir in Zukunft wirkungsvoller
agieren als in der Vergangenheit in dem spezifischen
Bereich der Broadcast-Technologie“, erklärte Wagner
mit Verweis auf einen viel „höheren Grad an IT-Durchdringung“
in der Broadcast-Branche. Beispielhaft stehen
dafür die Themen All IP, Video over IP, Audio over IP –
also die Integration von klassischen IT-Technologien in
Studios und Übertragungswagen.
Diese Entwicklung wirft weitreichende Fragen auf,
etwa mit Blick auf Sicherheitsaspekte. „Mit IP-Security
müssen wir uns auch weiterhin sehr intensiv beschäfti-
FKT Dezember 2020
Magazin _ Konferenzen und Messen 17
gen“, betonte Thomas Harscheidt, Geschäftsführer von
CBC, dem Broadcast- und Produktionsunternehmen der
Mediengruppe RTL Deutschland.
„Green IT“ und „Green TV“
Harscheidt brachte die Aspekte „Green IT“ und „Green
TV“ ins Gespräch, die ihm aus mehreren Gründen relevant
erscheinen. „Wir müssen nach der ökonomischen
und ökologischen Sinnhaftigkeit von Distributionsmethoden
fragen“, bekräftigte der CBC-Mann. Heute verteilen
CDN-Provider die Signale im Unicast-Verfahren.
„Da müssen wir überlegen, ob das bei stärkerer Nutzung
der richtige Weg ist – oder nicht eher eine intelligente
Kombination von Multicast und Unicast.“
Ökologisch, aber auch ökonomisch sinnvoll erscheinen
neue Ansätze in der Produktion – beispielsweise bei
der Übertragung der Formel 1 mittels Remote Production
und zentraler Regie. Aus den ursprünglich 18 Tonnen
Material – mit denen die Crew früher von Rennen zu
Rennen geflogen ist – sind zwei Tonnen geworden,
weniger „Ballast“ also. „So etwas stellen wir uns auch bei
weiteren Sportarten und bei anderen Events vor.“
Hybride Produktionen
Abseits dieser Vorhaben setzen die Kölner verstärkt auch
auf hybride Produktion. Gemeint ist damit der nahtlose
Übergang zwischen realen und virtuellen Studio-Sets.
Und auch hier hat die IT-Welt ihren Einfluss: „Wir haben
unsere virtuellen Sets bei RTL fast komplett auf Game
Engines umgestellt. Das sind die sogenannten Unreal
Engines von Epic, die aus dem Spielebereich kommen.
Die setzen mittlerweile den Maßstab.“
Die neue Mobilfunkgeneration 5G gewinnt derweil
für CBC auch in der Produktion an Bedeutung, etwa mit
Blick auf mobilen Journalismus bei der aktuellen Live-
Berichterstattung. Gleichzeitig verstärkt sich der Trend
bei der Mediengruppe RTL zu „softwarelastiger“ Arbeit,
wie es Harscheidt formulierte. Er betonte, wie wichtig vor
diesen Herausforderungen eine enge Zusammenarbeit
mit der Wissenschaft ist.
Fehlende Praxistauglichkeit
Dass die Forschung für den Audiobereich einen großen
Stellenwert hat, stellte Jürgen Marchlewitz, Präsident des
Verbands Deutscher Tonmeister (VDT), klar. Der Verband
hat mehr als 2.000 Mitglieder, die in vielen Bereichen
tätig sind – von der Produktion über Theater und Film
bis hin zu Akustik, Beschallung und Events. „Forschung
und Entwicklung sind für uns ein sehr wichtiges Thema“,
betonte Marchlewitz. Unter dem Oberbegriff „Immersive
Audio“ sind eine ganze Reihe unterschiedlicher Formate
entstanden, sei es Dolby Atmos,
Auro 3D oder 360 Reality Audio.
Wie diese neuen Formate aus
künstlerischer Hinsicht sinnvoll
zu nutzen sind, ist dabei eine der
essenziellen Fragen. „Nach unserer
Beobachtung ist es mitunter
so, dass die technischen Entwicklungen
an Praxistauglichkeit vermissen lassen“, kritisierte
Marchlewitz. Er appellierte, bei der Entwicklung und
Standardisierung anwendungsbezogene Fragestellungen
mit einzubringen und sich für einen noch stärkeren
Austausch zwischen Forschung, Industrie und Anwendern
stark zu machen. Dass die Medientechnik-Expertise
der Forschungsinstitute für die Industrie „extrem
wichtig“ ist, daran ließ Claus Pfeifer, Head of Connected
Content Acquisition bei Sony, keine Zweifel. „Es geht
um Austausch, um auch gewissen Wettbewerb und um
Kommunikation“, betonte er. Um Produktionen in einer
vernetzten Welt remote und flexibel realisieren zu
können, nützten indes keine Insellösungen mehr.
Deshalb seien gemeinsame Industriestandards wie
SMPTE, AMWA oder DPP notwendig – an denen auch
Sony mitwirkt.
Offene Standards vs. proprietäre Lösungen
Offene, gemeinsame Standards können funktionieren,
das zeigt auf der Distributionsseite die erwähnte,
maßgeblich vom IRT geschaffene Lösung HbbTV seit
nunmehr zehn Jahren – und zwar senderübergreifend in
der öffentlich-rechtlichen
und in der privaten Fernsehlandschaft.
„HbbTV ist in der
Tat ein sehr gutes Beispiel
für Zusammenarbeit“, bestätigte
CBC-Chef Harscheidt.
Insofern sei es schade, dass
das IRT diese Entwicklung nicht mehr vorantreiben
kann. „Aber vielleicht könnten wir das im Rahmen der
Deutschen TV-Plattform weitermachen?“ Dass es in den
vergangenen Jahren zwischen öffentlich-rechtlichem
und kommerziellem Rundfunk Hürden bei der technischen
Standardisierung gegeben haben könnte, hat auch
WDR-Technikchef Wolfgang Wagner nie so empfunden.
„Für mich war eher die Problematik bei der Standardisierung,
dass viele Standardisierungsprozesse zu lange gedauert
haben und von der Anwendung überholt worden
sind“, kritisierte er.
Gefangen im Ecosystem
„Standardisierung sorgt
für Innovation und
Wettbewerb“
„HbbTV ist ein
gutes Beispiel
für Zusammenarbeit“
Ein weiteres Problem machte Dr. Siegfried Fößel vom
Fraunhofer IIS aus: Wo es für Hightech-Firmen opportun
sei, beteiligten sie sich aktiv an der Standardisierung.
„Sobald die Unternehmen aber das Gefühl haben, sie
könnten dies in ihrem eigenen Ecosystem abbilden,
haben sie kein Interesse mehr an der Standardisierung.“
Es entstünden proprietäre Lösungen, proprietäre Interfaces,
proprietäre Konnektoren. „Das führt dann dazu,
in einem Ecosystem gefangen zu sein. Und deswegen
rufe ich dazu auf, sich mehr an der Standardisierung zu
beteiligen.“ Standardisierung bedeute indes nicht nur
Interoperabilität, sondern sorge auch für Innovation und
Wettbewerb, ergänzte er. Es können Lösungen entstehen,
die vorher überhaupt nicht angedacht waren. „Standardisierung
ist für mich deswegen auch eine große Kommunikationsplattform
zwischen Forschern und Anwendern“.
Politische Wahrnehmung
In rege Kommunikation kamen die
beteiligten Forscher, Anwender und
Industrievertreter auf dem Expertenpanel
indes mit der Politik – als Dr.
Ernst Dieter Rossmann, Vorsitzender
des Ausschusses für Bildung, Forschung
und Technikfolgenabschätzung, seine Wahrnehmung
der Branche beschrieb. „Im Wirtschaftsministerium
habe ich vernehmen dürfen, dass das Ministerium
sich lange engagiert hat – die großen technologischen
Umbrüche in der Medientechnik aber im weitesten
Sinne als abgeschossen ansieht.“ Man habe die Branche
stark gefördert in den vergangenen Jahren, wolle
MAGAZIN
18 Magazin _ Konferenzen und Messen Dezember 2020 FKT
MAGAZIN
aber keine besondere zusätzliche Aktivität entwickeln.
Rossmann regte eine systematische Bestandsaufnahme
der Forschungskapazitäten, der Forschungsleistung
und der Forschungsfragen an – und darauf aufbauend
eine Roadmap, einen Forderungskatalog zu entwickeln.
Eine solche Denkschrift wäre für den politischen Diskurs
wichtig, wenn sich die Medientechnik-Branche mit ihren
Anliegen stärker wiederfinden
wolle, sagte er – verbunden mit
dem Angebot, diese Themen in
den Ausschuss für Technikfolgenabschätzung
einzubringen.
Zugriff auf Big Data
Und drängende Fragen gibt es in
der Medientechnik-Forschung
zweifelsohne: Professor Alexander Raake von der TU
Ilmenau erläuterte, dass die Forschung etwa bei der
Qualitätsbeurteilung von Streamingdiensten derzeit aus
rechtlichen Gründen gar keinen Zugriff auf die relevanten
großen Datenmengen hat. „Hier wäre ein Programm
sehr interessant, gemeinsam mit entsprechenden Konsortien
Forschungsdatenbanken zu erstellen, um dies zu
ermöglichen.“
Kreativ-Workshops
Klar ist: Die Medien haben in den vergangenen 20 Jahren
an Bedeutung gewonnen, sagte Fraunhofer-Forscher
Dr. Siegfried Fößel. Es müsse viel mehr in die Forschung
investiert werden, aber auch in die Anwendungsbereiche
etwa in Form von Kreativ-Workshops. So schaffe man
neue Möglichkeiten, die technischen Errungenschaften
auch zu nutzen. „Ich hielte es für fatal, wenn wir all diese
Entwicklungen nur den großen Hightech-Unternehmen
überlassen.“ Was in der Politik bisher vergessen worden
sei: „Medientechnik ist nicht mehr klassisches produzierendes
Gewerbe, Medientechnik ist heute Informationstechnik.“
Cluster-Bildung
Professor Mike Christmann sieht dies ähnlich. „Wir sind
nicht mehr diejenigen, die mit 15-Kilo-Kameras ins Feld
ziehen – wir sind die Informationsübertrager von der
Bildquelle bis zur Bildsenke“, betonte er. Christmann
regte an, ein gemeinsames Cluster zu bilden, in dem die
Medientechnik-Forschung ihre Themen bündelt und ihre
Forschungsaktivitäten gemeinsam mit der Industrie in
verschiedene Projekte definiert.
„Informationsübertrager
von
Bildquelle bis Bildsenke“
Bündelung bestehender Kräfte
Professor Ulrich Reimers stellte Themen aus dem Umfeld
der Medientechnik vor, deren Stellenwert von acatech,
der Akademie für Technikwissenschaften, in ihrem Technikradar
2020 im Vergleich zu anderen Technik-Feldern
ermittelt worden war. Auf Platz zwei liegt
„5G – Potentiale für die deutsche Industrie“. Auf Platz
sieben folgt „Automatisierte
Cyber-Abwehr-Systeme“ und auf
Platz 16 „Virtual Reality (VR)/Augmented
Reality (AR)“. Er rät, die
Erkenntnisse des Technikradars bei
Überlegungen zu Gesprächen mit
politischen Gremien zu beachten.
Wenn die Branche Einfluss nehmen
wolle, dann sollte sie selbst
es organisatorisch zusammenbringen. „Und wenn wir
in der Medientechnik Einfluss gewinnen wollen, auch
in Richtung auf Förderprogramme, geht das nicht ohne
Beteiligung der Deutschen TV-Plattform. Insofern sollten
wir sehen, dass – wenn wir etwas Derartiges wollen – wir
nichts Separates tun, sondern die Kräfte bündeln, die es
in Deutschland gibt“, bekräftigte Reimers.
Neues Forum
Und die Kräfte werden zum Jahresende 2020 weniger.
„Die Lücke, die die IRT-Schließung verursacht, bereitet
uns relativ große Sorgen“, sagte VDT-Präsident Jürgen
Marchlewitz. Der Verband habe sich mit dem Institut gut
verbunden gefühlt – auch mit Blick auf die internationalen
Organisationen wie zum Beispiel die EBU. „Das fehlt
uns und ich würde mir sehr wünschen, wenn wir eine
Lösung finden würden, wie wir diese Lücke schließen
– zum Beispiel dadurch, dass sich die Experten dieser
Runde vernetzen und wir ein neues Forum für zukünftige,
praxisgerechte Technologien schaffen.“
Zusammenarbeit, Austausch, Diskurs
Für Kooperationen auf allen Ebenen und in allen Themen
– von IP, 5G bis hin zu Virtual Production – sprach sich
auch Sony-Vertreter Claus Pfeifer zum Abschluss der
Expertenrunde von FKT und FKTG aus. „Mein Appell:
Zusammenarbeit, Austausch, Diskurs. Ich weiß, dass
meine japanischen Kollegen die Schließung des IRT sehr
bedauerlich finden und ich hoffe, dass andere Gruppierungen
wie die FKTG oder die Deutsche TV-Plattform
Teile der Aufgaben übernehmen können, um dieses
Sprachrohr in die internationalen Tech-Konzerne
bringen zu können.“
Martin Braun
Hinweis: Ein Mitschnitt der zweistündigen Veranstaltung
ist auf YouTube zum kostenfreien Abruf verfügbar
(https://youtu.be/C0AhrVvWTaY).
Auf Wiedersehen: Weitere Online-Expertenrunden sind in Planung.
Literatur
[1] Lenzen, Christmann: Dynamische Konvertierung bei der HDR/
SDR-Parallelproduktion. In: FKT 4/2020, S. 33ff.
[2] Feldmann, Ebner, Schreer, Bliedung: Volumetrisches Video –
Professionelle Aufnahme und Produktion. In: FKT 8-9/2018, S. 43ff.
[3] Braun: Bitteres Ende. Institut für Rundfunktechnik (IRT) wird
aufgelöst. In: FKT 8-9/2020, S. 6ff.
[4] Maroni, Köhler, Fisseler, Becker: Die ARD Mining-Plattform.
In: FKT 5/2020, S. 22ff.
FKT Dezember 2020
Magazin _ Produktion und Post 19
Quelle: Convit GmbH
MAGAZIN
Der neue
Standard im Newsroom
Künstliche Intelligenz
in der redaktionellen Themenplanung
Newsrooms
müssen die
Nachrichten- und
Informationslage
permanent
monitoren,
das Relevante
herausfiltern und
es in ihre eigene
Themenplanung
aufnehmen.
350.000 Tweets, 65.000 Foto-Uploads und 350.000 Scrolls auf Instagram, mehr als 400 Stunden
neues Videomaterial auf YouTube, 3,8 Millionen Suchanfragen bei Google – und das in nur
einer Minute. 1) Diese Fakten verdeutlichen, wie herausfordernd es für eine Redaktion ist, aus der
Unmenge an Informationen jene herauszupicken, die für das jeweilige Medium und dessen Zielgruppe
relevant sind. Manuell lässt sich solch eine Aufgabe keinesfalls bewältigen. Auch gängige
Technologien und Systeme stoßen zunehmend an ihre Grenzen. Grenzen, die eine redaktionelle
Themenplanung auf Basis von künstlicher Intelligenz (KI) durchbricht.
Redaktionen – ganz gleich, ob in großen Medienkonzernen,
überregionalen Tageszeitungen, lokalen
Wochenblättern oder Agenturen – stehen allesamt vor
derselben Herausforderung: Nicht nur die Menge an
Informationen wächst rasant, sondern auch die Anzahl
der Informationsquellen. Zu den etablierten Quellen,
wie etwa Nachrichtenagenturen, Recherchenetzwerke,
Pressesprecher, Veranstaltungsportale, Behörden,
Quelle: Convit GmbH
JOCHEN SCHON,
Geschäftsführer der Convit GmbH
www.convit.de
1) https://www.coupofy.com/social-media-in-realtime/
20 Magazin _ Produktion und Post Dezember 2020 FKT
MAGAZIN
Eine KI überwacht
unzählige
Streams und
sortiert die
eingehenden
Meldungen.
Quelle: Convit GmbH
persönliche Kontakte und die Recherchen der eigenen
Redakteure, gesellen sich immer mehr Posts aus
den sozialen Medien. Vor diesem Hintergrund sind
Newsrooms gefordert, die Nachrichten- und Informationslage
permanent zu monitoren, das Relevante
herauszufiltern und es in ihre eigene Themenplanung
aufzunehmen. Immer dann, wenn Informationen digital
vorliegen, entfaltet eine KI ihre besondere Stärke: Sie
ist in der Lage, unzählige Streams zu überwachen und
die eingehenden Meldungen vorzusortieren – von
Nachrichtentickern über die Websites von Medienhäusern
bis hin zu Twitter-Feeds. Zudem strukturiert sie
eingehende Meldungen sowie Posts und fasst diese in
Themen-Clustern zusammen.
Themenspezifische Meldungen
und Beiträge KI-basiert analysieren
Im Mittelpunkt stehen dabei Methoden des Natural
Language Processings (NLP). Die künstliche Intelligenz
untersucht vorhandene Texte, Meldungen und Posts im
Hinblick auf Merkmale (Features) wie Personen, Orte,
Institutionen und Sachverhalte. Auf Basis einer Named
Entity Recognition extrahiert sie dabei relevante Informationen
und erkennt inhaltliche Zusammenhänge. Die
KI leitet aus den Texten weitere sinntragende Informationen
über die bereits offengelegten Merkmale ab.
Indem sie die gefundenen Merkmale (Entitäten) dann
über ein Wissensnetz begrifflich eindeutig bestimmt
(Disambiguierung), kann sie eine Entität wie „Angela
Merkel“ definieren und ihr eine Bedeutung zuschreiben,
etwa „Bundeskanzlerin“. Zugleich generiert sie mittels
Disambiguierung hilfreiche Zusatzinformationen und
fügt sie der Entität hinzu, zum Beispiel „Frau“, „Physikerin“,
„Bundestag“, „Berlin“, „CDU“. Nachdem die KI die
Merkmale in Vektoren umgerechnet hat, vergleicht sie
die Features verschiedener Texte aus unterschiedlichen
Quellen miteinander und berechnet, wie ähnlich die inhaltlichen
Ausprägungen sind (Embedding). Abschließend
erstellt sie eine Liste mit passenden Meldungen
und Informationen.
Beiträge crossmedial planen
Indem die künstliche Intelligenz die Nähe zwischen
Themen berechnet und ähnliche Meldungen – übersichtlich
sortiert – in einem Dashboard darstellt, gewinnen
Redakteure sehr schnell einen guten Überblick über die
aktuelle Themen- und Nachrichtenlage. Zugleich können
sie verschiedene Themenkomplexe gezielt durchsuchen
und relevante Nachrichten taggen: Während ein Artikel
eines konkurrierenden Mediums zum Beispiel einen
Überblick über ein Thema liefert, geht ein Nachrichtensender
in einem Beitrag auf seiner Website näher auf
einen bestimmten Aspekt desselben Themas ein. Parallel
kündigt sich in den sozialen Medien ein Shitstorm an,
weil das Thema gesellschaftliche Brisanz hat. Redakteure
können nun entscheiden, welche Aspekte sie für einen
späteren Artikel oder TV-Beitrag als relevant erachten.
Per Drag-and-Drop ist es ihnen möglich, ihrer eigenen
Themensammlung thematisch passende Tweets und
multimediales Archivmaterial hinzuzufügen. Indem sie
diese Themensammlung um Agentur- und Pressemeldungen
sowie Social Media Posts erweitern, ergibt sich
ein immer vollständigeres Bild des Themas. Wichtig ist,
dass alle Objekte innerhalb der Themensammlung miteinander
verknüpft sind. So ist sichergestellt, dass das
immer komplexere Weltgeschehen in der redaktionellen
Themenplanung adäquat abgebildet ist. Schlussendlich
sind Redakteure in der Lage, Beiträge für alle an das
Tool angebundenen Kanäle und Plattformen crossmedial
zu planen und auf Basis der vorab erstellten Themensammlung
passende Artikel zu erstellen sowie medienspezifisch
umzusetzen. Dabei stellen Konnektoren
zu Social-Media-Plattformen und internen Produktionssystemen
sicher, dass Beiträge weiterverarbeitet und im
gewünschten Publikationsmedium veröffentlicht werden
können.
Collaboration erhöht Effizienz
von Redaktionen
Um zu verhindern, dass mehrere Redakteure denselben
Themenkomplex bearbeiten, zeigt das KI-basierte
Planungs-Tool an, ob sich weitere Kollegen mit dem
FKT Dezember 2020
Magazin _ Produktion und Post 21
identischen Sachverhalt beschäftigen. Davon profitieren
insbesondere die Newsrooms großer Medienhäuser. Sie
können die Ressourcen ihrer Mitarbeiter besser nutzen:
Redakteure arbeiten entweder gemeinsam an einem vielschichtigen
Thema oder beleuchten jeweils verschiedene
Aspekte eines Themenkomplexes. Die Fähigkeit, kollaborativ
zusammenzuarbeiten und personelle Ressourcen
optimal zu nutzen, steigert die Effizienz und den Output
von Redaktionen deutlich.
MAGAZIN
Dem Wettbewerb einen Schritt voraus sein
Einen weiteren Vorteil entfaltet eine Lösung für die
KI-gestützte Themenplanung beim Monitoring der Konkurrenz.
Die künstliche Intelligenz analysiert ähnliche
News des Wettbewerbs und generiert aus ausgewählten
Twitter-Feeds individuell zusammenstellbare Streams,
die sich in Echtzeit aktualisieren. So erhalten Redakteure
bei der Ausarbeitung eines Themas einen aktuellen
Überblick über die neuesten Veröffentlichungen
innerhalb ihrer Peer Group. Sie wissen nicht nur, welches
Medium sich auf welche Aspekte fokussiert, sondern
auch, welche Themen in welchem Kanal und in welchem
regionalen oder lokalen Umfeld gerade im Trend liegen.
Auf dieser Grundlage können sie sich mit ihrem eigenen
Beitrag vom Wettbewerb abgrenzen, sich einem Thema
aus einer anderen Perspektive nähern oder es inhaltlich
weiterführen. Auch für eine wirkungsvolle Suchmaschinenoptimierung
(SEO) ist es essenziell, die Konkurrenz
im Auge zu behalten. Mit dem Wissen um den Wettbewerb
können Redaktionen ihr Ranking in organischen
Trefferlisten deutlich verbessern.
Archivmaterial automatisch durchsuchen
Neben der Planung leistet ein KI-basiertes Planungs-
Tool auch bei der Themenausarbeitung eine wertvolle
Hilfestellung. Mittels Verschlagwortung können Redakteure
festlegen, welche Aspekte sie in einem späteren
Artikel oder TV-Beitrag beleuchten möchten. Sie
wählen aus einer Input-Liste, welche die KI automatisch
generiert, relevante aktuelle Inhalte aus verschiedenen
Quellen sowie passende Keywords aus und fügen sie
ihrer Themensammlung hinzu. Die gewählten Keywords
machen das Thema für andere Redakteure leichter
auffindbar. Zudem können Anwender das Archivmaterial
KI-gestützt durchsuchen, etwa nach früheren Veröffentlichungen
der eigenen Redaktion sowie nach passendem
Bild-, Video- und Audio-Material. Sie geben ein Stichwort
in die Suchmaske ein, und die KI spielt passende
Vorschläge innerhalb weniger Millisekunden aus, indem
sie die ebenfalls durch Verfahren der künstlichen Intelligenz
automatisch extrahierten Metadaten im Hinblick
auf ihre Ähnlichkeit mit dem Suchbegriff analysiert. So
gewinnen Redakteure einen Überblick über ein Thema
und können in einem neuen Artikel auf ältere Beiträge
verweisen oder sie verlinken.
Wissen, welche Themen morgen relevant
sein werden
Über die momentanen Möglichkeiten hinaus wird ein
KI-gestütztes Tool für die crossmediale Themenplanung
zukünftig große Potenziale eröffnen, was die Erstellung
von Prognosen betrifft. Indem eine künstliche Intelligenz
auf Unmengen an historischen sowie Reichweitendaten
zugreift und sie gezielt auswertet (Big Data), kann sie
Vorhersagen für zukünftige Entwicklungen ableiten
und ein recht zuverlässiges Prognosemodell entwickeln:
Redakteure können ihrer Themensammlung multimediales Archivmaterial,
Social Media Posts sowie Agentur- und Pressemeldungen
hinzuzufügen.
Wie gut sind die Chancen, dass sich ein Thema zu einem
Trend entwickeln wird? Hat es das Potenzial, eine große
Reichweite zu erzielen? Die Kenntnis um erwartbare
Trends versetzt Newsrooms in die Lage, aus der Vielzahl
an Themen die vielversprechendsten herauszufiltern und
ihre Mitarbeiter optimal einzusetzen, um die richtigen
Themen auszuarbeiten.
Gekommen, um zu bleiben
KI-gestützt automatisiert sind viele Prozesse der crossmedialen
Themenplanung keine ineffiziente Aufgabe
mehr, sondern Erfolgsfaktoren, die den entscheidenden
Unterschied zum Wettbewerb machen. Redaktionen können
beliebige Informationsquellen in einem zentralen Tool
bündeln, inhaltlich verwandte Informationen zu einem
Thema zusammenfassen und Beiträge aller Art einfach
und schnell planen – von Texten über Videos und Audios
bis hin zu Social Media Posts. Schon bald wird es möglich
sein, ein redaktionelles Planungs-Tool zu einer vollständigen
Redaktions-Plattform zu erweitern – crossmediale
Produktion inklusive. Dabei wird eine KI zum Beispiel
nicht nur automatisch ermitteln, in welchem Format ein
Video-Beitrag in welchem Kanal auszuspielen ist und ihn
in das benötigte Videoformat umwandeln. Sie wird auch
prognostizieren, wann der ideale Zeitpunkt sein wird, um
das Video auszuspielen. KI-gestützte Redaktions-Tools
werden kommen – und bleiben.
JOCHEN SCHON
ist Gründer und Geschäftsführer der Convit GmbH. Das 2015 gegründete IT-
Start-up mit Sitz in Köln hat sich der Mission verschrieben, Unternehmensprozesse
durch die optimale Nutzung von Daten und maschinellen Lernverfahren
zu automatisieren und so Zeit sowie kreative Potenziale für die innovative
Weiterentwicklung im digitalen Zeitalter zu aktivieren. Vor der Gründung
seines Unternehmens war der Diplom-Informatiker mehr als zehn Jahre am
Fraunhofer Institut für intelligente Analyse- und Informationssysteme (IAIS) beschäftigt,
zuletzt als Abteilungsleiter im Bereich Organized Knowledge. Jochen
Schon hat es sich nicht nur zur Aufgabe gemacht, Cutting-Edge-Technologien
aus den Bereichen Big Data und Künstliche Intelligenz für die Wirtschaft nutzbar
zu machen, sondern auch, deren Möglichkeiten und Grenzen aufzuzeigen.
Vor diesem Hintergrund hält er auch praxisorientierte Vorträge über „Künstliche
Intelligenz in der Medienproduktion“.
Quelle: Convit GmbH
SCIENCE
WWW.FKT-ONLINE.DE
12|2020
FACHZEITSCHRIFT FÜR
FERNSEHEN, FILM UND
ELEKTRONISCHE MEDIEN
RUNDFUNKTECHNISCHE
MITTEILUNGEN DES IRT
23 VIRTUOSA – Der Weg zu 5G und
Virtualisierung in der
Rundfunkproduktion (POC)
ANDREAS METZ, HACI M. CENGIZ
26 5G TODAY – Versorgungsprognosen
und Feldtests
ANETA BAIER, KERSTIN PFAFFINGER,
32 VVENC und VVDEC:
Fraunhofer HHI stellt offene,
optimierte Implementierungen des
neuen Videokodierstandards
H.266/VVC bereit
ADAM WIECKOWSKI, BENJAMIN BROSS,
DR. DETLEV MARPE
MAHMOUD ALMARASHLI
FKT Dezember 2020
Forschung & Entwicklung _ Beiträge 23
VIRTUOSA – DER WEG ZU 5G
UND VIRTUALISIERUNG IN DER
RUNDFUNKPRODUKTION (POC)
FORSCHUNG
ANDREAS METZ, HACI M. CENGIZ
Das EU-Forschungsprojekt VIRTUOSA demonstriert
die Kombination von 5G mit Virtualisierungskonzepten
für eine effizientere und kostengünstiger
standortübergreifende Produktion von
Live-Inhalten – wie beispielsweise Sport- oder
Musikberichterstattungen. Die neue Generation
von Mediennetzwerken basiert auf drahtloser
5G-Kommunikation und auf Technologien, die in
der IT bereits weit verbreitet sind, bislang aber
nicht für die Medienproduktion geeignet erschienen:
Internet Protocol (IP)-Technologie, Software-Defined
Networking (SDN)-Technologie,
Network Function Virtualization (NFV), High Performance
Computing (HPC) und Cloud Computing.
Einführung – All-IP
Alle modernen Netze basieren auf dem sogenannten Internet
Protokoll (IP). Dies ermöglicht prinzipiell eine universelle
Kommunikation aller Dienste innerhalb nahezu aller global
vernetzten Orte – auch innerhalb der Medienproduktion.
Neben der weltweiten Signalzuführung in die Funkhäuser
durch Reporter löst die IP-Produktion auch innerhalb eines
Studios und auf dem Mediencampus den Einsatz klassischer
Video- und Audiosingale ab.
Die Migration der altbewährten Signale wie SDI, ASI und
AES3 auf eine standardisierte Netzwerkstruktur wurde anfangs
in Zweifel gezogen, später kontrovers diskutiert. Mit
dem Projekt VIRTUOSA sollte der Beweis gelingen, dass eine
komplette Medienproduktion über IP-Infrastrukturen sowohl
im Studio zwischen den Medienstandorten als auch mobil
über moderne 5G-Netze technisch möglich ist und darüber
hinaus den Anforderungen der Medienschaffenden gerecht
wird.
Use-Case in drei Phasen
Das Projekt wurde zeitlich in drei aufeinander aufbauende
Phasen gegliedert, von denen jede einen typischen Anwendungsfall
in der Medienproduktion definierte. In Phase 1
wurde die Produktionsinfrastruktur eines Hauptstudios auf
Basis des SMPTE-Standards ST2110 im IRT nachgebaut. Sie
bildete die typische Studioproduktion von Magazinen und
Nachrichtensendungen ab: der Moderator befindet sich im
Studio, eventuell mit einem oder mehreren Studiogästen.
Alle Beiträge wurden vorproduziert und liegen auf einem
Server zur Einspielung bereit. Das Studio umfasst mindestens
eine Kamera (besser zwei bis drei Kameras), für jede
Person ein Mikrofon, einen Kontrollmonitor für den Moderator
und je nach Studio-Design einen Monitor/Videoleinwand
im Hintergrund des Moderators. In Phase zwei wird das Produktionsstudio
um ein Remote-Studio erweitert: ein zweites
Studio zur Livezuschaltung eines Interviewgastes. Dabei
handelt es sich um eine professionelle Studioumgebung,
wie sie typischerweise in einem Regional- oder Auslandsstudio
anzutreffen ist. Die Anbindung erfolgt in der Regel
über permanente Verbindungen und je nach Situation und
Anforderungen werden codierte oder sogar unkomprimierte
Video- und Audiosignale übertragen. In Phase drei wird der
Versuchsaufbau um eine mobile Reportereinheit ergänzt, um
die kurzfristige Berichterstattung von auswärts abzubilden.
Die Anbindung an das Hauptstudio erfolgt dabei über eine
mobile 5G-Infrastruktur.
Technische Realisierung
Die technische Realisierung der lokalen IP-Produktionsinfrastruktur
setzt im Kernnetz auf moderne Spine-Leave-Architektur
mit Mellanox-Switches vom Typ SN3700. Sowohl die
Produktionsmittel als auch die Test- und Messgeräte wurden
direkt an die Leaf-Switches angebunden. Das Netz wurde so
strukturiert, dass die Leaf 1-Switches alle Geräte des Produktionsstudios
und die Leaf 2-Switches das Equipment der Regie
enthielten. Im IP-Studio wurden alle Video- und Audiosignale
der beiden Sony HDC-3100 Kameras und der StageTec
Nexus-Audiokreuzschiene nativ über IP bereitgestellt. Um
auch klassische Basisbandsignale in eine IP-Produktion zu
integrieren, wurden die Nevion Virtuoso MI als Video-Gateways
verwendet und der Videoserver Sony PWS-4500 sowie
alle Monitore über SDI-Verkabelung daran angeschlossen.
Die Regie im Projekt VIRTUOSA war die eines Produktionsstudios.
Alle Videosignale vom und zum Bildmischer
(Sony XVS-6000) sowie vom und zum Multiviewer (TAG MCM
9000) wurden ausschließlich als IP-Streams übertragen. Dasselbe
galt für die Audiosignale: Die Zuführung zur Audioverarbeitung
im StageTec Nexus erfolgte ausschließlich über
das Netzwerk. Selbst die Wiedergabe in der Regie erfolgte
über IP-Lautsprecher. Die Regie-Monitore wurden wiederum
über die VIRTUOSA MI Video-Gateways angeschlossen.
Für die Synchronisation in der VIRTUOSA-Infrastruktur
wurde das PTP-Profil nach Standard SMPTE ST2059 verwendet.
Vergleichbar mit einer klassischen Taktverteilung,
war auch hier die Taktquelle (Meinberg M3000) GPS-verkoppelt.
Die Mellanox-Switches verteilten PTP im Boundary
Clock Modus zu allen Endgeräten, was einem hierarchischen
Master-Slave-Betrieb entsprach. Der nötige Zeitcode wurde
ebenfalls vom PTP abgeleitet. Lediglich der Videoserver, der
im Basisband arbeitete, benötigte die klassische Taktung
24 Forschung & Entwicklung _ Beiträge Dezember 2020 FKT
FORSCHUNG
Abbildung 1: Software Defined Networking Orchestrator
Quelle: Screenshot aus VIRTUOSA VideoIPath-System
über Black Burst. Eine zusätzliche Verkabelung für Takt- und
Zeitinformationen entfiel damit.
Verwendung offener Standards
Der Aufbau einer kompletten Produktionsumgebung setzt
die Integration von Geräten unterschiedlichster Hersteller
voraus. Damit alle Audio-, Video-, Metadaten- und Taktsignale
problemlos zwischen den verschiedenen Geräten ausgetauscht
werden können, sind standardisierte Schnittstellen
unumgänglich. Dies ändert sich auch mit der Transformation
zu einer IP-Infrastruktur nicht. Im Projekt VIRTUOSA wurde
daher durchgehend die Standardfamilie SMPTE ST2110
angewendet, da diese für alle Essenzen einen eigenen, separaten
IP-Stream beschreibt – analog zur klassischen Infrastruktur
im Basisband – und somit bestens für Studioumgebungen
geeignet war. Auf eine Kompression der Video- oder
Audiosignale wurde verzichtet, was die minimalen Delays
und die bestmögliche Qualität ermöglichte. Für die Synchronisation
und Zeitverteilung in IP-Netzen wurde das Precision
Time Protokoll (PTP) nach Standard IEEE 1588 definiert. Für
die professionelle Medienproduktion fand die Definition
nach SMPTE ST2059 Anwendung.
Video IPath – Software Defined Networking
Orchestrator
Das Projekt VIRTUOSA wurde im Kernelement mit der
SDN-Orchestrator-Software von NEVION/SONY realisiert,
welche die volle Integration der Media- und IP-Nodes umfasst
und eine zentrale Verwaltung von Netzwerkgeräten ermöglicht.
Das System diente für die Media Nodes als NMOS
IS-04 Registry Server und steuerte diese per NMOS IS-05.
Media Nodes, die noch kein NMOS integriert hatten, wurden
per Treiber oder per NAT’ing (Network Address Translation)
eingebunden.
Die Anbindung der verwendeten Mellanox-Switches
SN3700 an den SDN-Orchestrator erfolgte mit OpenFlow,
einem Netzwerkprotokoll, das die direkte und sichere Kommunikation
zwischen Netzwerksystemen über Ethernet ermöglichte.
In diesem Modell wurde ein IP-Paket dann gemäß
der OpenFlow-Konfiguration weitergeleitet, wenn eine solche
Konfiguration mit den Paketparametern übereinstimmte.
Andernfalls wurde das Paket durch die normale Pipeline
(normale Weiterleitung/Routing) behandelt. Die Switch-Implementierung
basierte auf dem Hybridmodell, dass die
Koexistenz einer OpenFlow-Pipeline und einer normalen
Pipeline ermöglichte. Somit konnten die Switches und In-
Band betriebenen Geräte an das vorhandene Management
Netzwerk des IRT angeschlossen werden.
Die Verwaltung der verwendeten Multicast IP-Adressen
wurde bei NMOS- und SDP-gesteuerten Geräten dem Orchestrator
überlassen, der diese dynamisch aus seinem Pool
zuwies. Video IPath berechnete serviceorientiert den optimalen
Ende-zu-Ende-Pfad für jede beliebige Verbindung.
Das System berücksichtigte die derzeitig und zukünftig verfügbare
Bandbreite und verhinderte so die Überbuchung
einer Leitung. Dabei wurden die Redundanzanforderungen
voll einbezogen und SMPTE 2022-7 Ströme disjunktiv per
„Shortest Path First“-Algorithmus geschaltet.
Schalten im Netz
Ein „sauberes“ bzw. synchronisiertes Umschalten zwischen
zwei Signalen stellt die IP-Produktion vor eine Herausforderung.
Bisher verhält es sich so, dass ein Endpunkt beide Ströme
abonniert, diese puffert, zwischen diesen Strömen umschaltet
und das ursprüngliche Signal abmeldet. Make-before-Break
ist ein Ansatz, der sich dieser Problematik annimmt.
Er verzichtet auf eine Verdopplung der Bandbreite, indem
der redundante Pfad für die neue Verbindung verwendet
wird, sofern eine Redundanz besteht.
Neben der verdoppelten Bandbreite ergibt sich das
Problem der zeitlichen Divergenz, bedingt durch separate
API-Aufrufe für eine Umschaltung. Diese zeitliche Divergenz
kann sich je nach Menge der gleichzeitig geschalteten Signale
auch akkumulieren. NVIDIA (ehemals Mellanox Technologies)
hat eigens für das Projekt VIRTUOSA eine Lösung entwickelt.
Das „saubere“ Umschalten soll demnach im Switch
selbst passieren, sodass ein Endgerät bei der Umschaltung
nicht beide Signale gleichzeitig empfangen muss. Diese
Umschaltung muss so erfolgen, dass der Empfänger davon
nicht gestört wird bzw. es zu einem Aussetzer kommt. Der
Ansatz basiert auf RTP-Zeitstempel und die Verwendung
des oxm_field im OpenFlow (OpenFlow Extensible Match
Quelle: Screenshot aus VIRTUOSA VideoIPath-System
Abbildung 2:
SDN-Ansicht der Topologie
FKT Dezember 2020
Forschung & Entwicklung _ Beiträge 25
Abbildung 3:
Nachverfolgung der
einzelnen Dienste
Quelle: Screenshot aus VIRTUOSA VideoIPath-System
FORSCHUNG
Quelle: IRT
Quelle: LOGIC
Format – OXM). Die RTP-Pakete desselben Frames beinhalten
alle den gleichen Zeitstempel. Die Entwicklung von NVI-
DIA für VIRTUOSA kann Ingress-Signale auf RTP-Zeitstempel
abgleichen, am Ende eines Frames umschalten und auf die
Egress-Ports weiterleiten.
Diese Entwicklung wird im Switch implementiert und in
Phase 2 des Projektes eingesetzt, in der die Produktionsbedingungen
über zwei Standorte untersuchen werden. Der
Fokus der Phase 2 liegt auf der Echtzeit-Anwendung über
WAN für eine Produktion. Die Kosten für solche WAN-Verbindungen
steigen mit der Bandbreite und erlauben keine Verzögerung
für Live Produktionen. Diesen Bedarf zu decken,
wird für Kontribution zwischen den Lokationen JPEG XS
angewendet. Die Eigenschaften vom JPEG XS zeichnen sich
durch eine effektive Kompression bei geringer Laufzeit aus
und bietet sich deshalb für Remote-Produktion sehr gut an.
Das VIRTUOSA-Projekt ist getrieben von Innovationen.
Die Einbindung von Cloud Applikationen, Remote-Einheiten
und zentrale Geräte sind Ressourcen, die dynamisch eingebunden
werden müssen. Die Anforderung dafür wird sein,
eben diese autonomen Systeme für Produktionen unterschiedlicher
Art zusammenzuschalten, um Signale auszutauschen.
Das müssen die SDN-Controller untereinander, sicher
und kontrolliert, kommunizieren können.
Zusammenfassung
ANDREAS METZ (FKTG)
ist Projektleiter und Senior Engineer –
Department Future Networks im Institut
für Rundfunktechnik.
www.irt.de
HACI M. CENGIZ
ist SDN-Pionier und Solution Strategist
bei LOGIC.
www.logic.tv
Die Projektpartner haben im Projekt VIRTUOSA beleuchtet,
wie die Optionen von IP, Cloud und Orchestrierung zur Gestaltung
künftiger technischer Entwicklungen genutzt werden
können. Eine komplett funktionstüchtiges IP-Produktionsstudio
wurde aufgebaut. Die Steuerung aller Video-,
Audio- und Metadaten erfolgte herstellerübergreifend und
nach der aktuellen NMOS-Logik. Für die Umsetzung wurden
ausschließlich am Markt verfügbare Produkte verwendet. Anfängliche
(Schnittstellen-)Probleme, bedingt durch Neuimplementierung
der NMOS-Treiber oder Integration neuer
Produktserien, konnten gemeinsam mit den Projektpartnern
und -unterstützern behoben werden. Das Gesamtsystem
wurde nach der Inbetriebnahme durch das IRT erfolgreich auf
Standardkonformität und die prinzipielle Eignung für eine
Produktionsumgebung untersucht. Bei Tests und Messungen
wurde das JT-NM Tested Programm Version 1.3 verwendet
und auf die langjährige Erfahrung des IRT zurückgegriffen.
Die COVID-19-Pandemie hat das Projekt überschattet
und den Projektablauf beeinflusst, war aber gleichzeitig der
ultimative Beweis, dass der in 5G-VIRTUOSA gewählte Ansatz
einer IP-basierten Produktion richtig und nötig ist, um auch
in Zukunft flexibel, kostengünstig und effizienter zu produzieren.
Projektpartner
Weitere Informationen zum Projekt 5G-VIRTUOSA und den
Partnern finden sie unter www.5g-virtuosa.eu.
NEWSLETTER
wöchentlich & kostenlos
die neusten Infos über
› Personalentwicklungen
› Unternehmen
› Produkte und Lösungen
› Standards und Dienste
› Termine
www.fkt-online.de/newsletter
26 Forschung & Entwicklung _ Beiträge Dezember 2020 FKT
FORSCHUNG
5G TODAY – VERSORGUNGS-
PROGNOSEN UND FELDTESTS
ANETA BAIER, KERSTIN PFAFFINGER, MAHMOUD ALMARASHLI
Im Forschungsprojekt 5G TODAY wurde weltweit
das erste großflächige 5G-Testfeld für Fernsehübertragungen
auf mobile Endgeräte betrieben.
Gefördert von der Bayerischen Forschungsstiftung
(BFS), erprobten die Projektpartner Institut
für Rundfunktechnik (IRT), Kathrein Broadcast und
Rohde & Schwarz sowie die assoziierten Projektpartner
Bayerischer Rundfunk (BR) und Telefònica
Deutschland die TV-Verbreitung für eine künftige
5G-Technologie. Das Projekt stieß auf weltweit
großes Interesse – in der Rundfunkbranche und
darüber hinaus.
Die unter dem Begriff 5G Broadcast bekannte Technologie
ermöglicht die Rundfunkverbreitung auf Basis des
4G/5G-Mobilfunkstandards. Sie basiert auf der FeMBMS
(Further Evolved Multimedia Broadcast Service)-Spezifikation,
die im Sommer 2017 im 3GPP Release 14 mit dem Ziel
verabschiedet wurde, die Belange der Rundfunkanbieter
besser zu berücksichtigen. Zu den wichtigsten Eckpunkten
der FeMBMS-Spezifikation zählen: der Empfang der Medieninhalte
ohne SIM-Karte und ohne Authentifizierung, die Verfügbarkeit
von bis zu 100 Prozent der Übertragungskapazität
für Rundfunkanwendungen, sowie die Realisierung deutlich
größerer Senderabstände als in der Mobilfunkwelt üblich.
Tabelle 1: Symbollängen für CAS and MBSFN-Teil des FeMBMS-Signals
Subframe-Typ Funktion Symbollänge
CAS (Cell Acquisition
Subframe)
MBSFN (Multimedia
Broadcast
Single Frequency
Network)
Synchronisation
& Signalisierung
Abbildung 1: FeMBMS Radioframe
Cyclic Prefix
(CP)
Trägerabstand
66,67 µs 16,67 µs 15 kHz
Daten 800 µs 200 µs 1,25 kHz
Die Erprobung der TV-Verbreitung über 5G Broadcast fand
vom 1. Juli 2017 bis 29. Februar 2020 statt. Zuerst wurden
Komponenten für Sende- und Empfangstechnik entwickelt
und anschließend ein Testfeld im Bayerischen Oberland in
Betrieb genommen. Zwei Hochleistungssender mit je 100 Kilowatt
Antennenleistung an den Standorten Ismaning und am
Wendelstein versorgten das gesamte Bayerische Oberland.
Auf Basis dieses High-Power-High-Tower-Konzepts (HPHT)
wurde die großflächige Ausstrahlung von Fernsehprogrammen
über 5G Broadcast getestet. Im Rahmen des Projektes
fanden umfangreiche Voruntersuchungen, Simulationen und
Feldmessungen statt, mit dem Ziel, 5G Broadcast als Rundfunktechnologie
zu evaluieren. Die Versorgungsprognosen
und einige wesentliche Ergebnisse der Feldmessungen werden
hier vorgestellt.
1. Grundlagen
Die FeMBMS-Spezifikation im 3GPP Rel. 14 des LTE/5G-Standards
soll die Rundfunkübertragung im SFN (Single Frequency
Network) über HPHT-Netze ermöglichen. Hierzu wurden
LTE Numerologies definiert, welche durch die Verwendung
geringer Trägerabstände große Cyclic Prefix (CP)-Längen erlauben.
Tabelle 1 zeigt die Symbollängen und CP-Längen für
verschiedene Subframe-Typen.
Für den Trägerabstand von 1,25 kHz ergibt sich eine
CP-Länge von 200 µs. Diese Konfiguration ist für die Datenübertragung
spezifiziert. Für die Synchronisation und Signalisierung
im Rahmen einer 100-prozentigen MBSFN-Übertragung
werden jedoch noch zusätzliche Kontrollinformationen
benötigt, welche im CAS-Signal mit einem CP von 16,67 µs
enthalten sind. Abbildung 1 zeigt den schematischen Aufbau
eines FeMBMS-Radioframes und die Lage des darin befindlichen
CAS-Signals (rot markiert). Das CAS-Signal befindet sich
auf dem Subframe #0 und wird mit einer Periode von 40 ms
übertragen. Es ist somit in jedem vierten LTE-Radioframe enthalten.
In den restlichen 39 MBSFN-Frames werden die Daten
übertragen. Eine Versorgung für das Datensignal ist nur dann
gewährleistet, wenn sowohl das MBSFN- als auch das CAS-Signal
empfangen werden können. Das CAS-Signal verfügt nur
über ein sehr kurzes CP, was es für den Gleichwellennetzbetrieb
in HTHP-Netzen unattraktiv macht. Es ist dafür jedoch
deutlich robuster und benötigt ein wesentlich geringeres
C/N (Carrier to Noise) als das entsprechende Datensignal.
Zwei Varianten hinsichtlich der inhaltlichen Belegung
des CAS-Signals der einzelnen Sender sind möglich: Üblicherweise
sind die im CAS-Signal festgelegten PCIs (Physical
Cell Identity) unterschiedlich. Alternativ lassen sich die Sender
jedoch auch mit identischen PCIs als SFN betreiben und
können somit von einem sogenannten „SFN-Gewinn“ profitieren.
Das FeMBMS-Signal kann verschiedene MCS (Modulation
and Coding Scheme) annehmen. Im Rahmen von 5G
TODAY wurde hauptsächlich MCS9 mit QPSK-Modulation
untersucht.
FKT Dezember 2020
Forschung & Entwicklung _ Beiträge 27
(Quelle: GeoBasis_DE / BKG 2017)
(Quelle: GeoBasis_DE / BKG 2017)
FORSCHUNG
Abbildung 2: 5G TODAY Sendernetz
Abbildung 3: Mobiler Empfang für das Datensignal (MBSFN) für MCS9
2. Sendernetz und Versorgungsprognose
Abbildung 4: Versorgungsprognose mit 3D-Ausbreitungsmodell (Sender Ismaning)
Zur Umsetzung der Versorgungsanforderungen wurde ein
Sendernetz mit zwei Sendern an Standorten des Bayerischen
Rundfunks konzipiert. Die Sendernetzkonstellation ist Abbildung
2 zu entnehmen. Die Ausstrahlung erfolgte im Kanal 56
auf Basis eines FeMBMS-Signals mit 5 MHz Bandbreite und
einer Sendeleistung von jeweils 100 kW ERP für den Sender
Wendelstein und 100 kW für den Sender Ismaning. Der
Abstand zwischen den beiden Sendern beträgt ca. 63 Kilometer.
Der Sender Wendelstein hatte eine Schwerpunkthöhe
der Antenne von 54 Metern, der Standort selbst liegt jedoch
sehr exponiert auf einer Höhe von ca. 1.800 Meter über dem
Meeresspiegel. Das Sendesignal wurde auf die bereits vorhandene,
vertikal polarisierte DVB-T2-Antenne aufgeschaltet.
Am Sender Ismaning betrug die Schwerpunkthöhe der
Antenne 215 Meter. Für diesen Standort wurde von der Firma
Kathrein eine neue Antenne entwickelt, mit der das Signal
wahlweise horizontal, vertikal oder rechtsdrehend zirkular
polarisiert abgestrahlt werden konnte. Für die im Folgenden
beschriebenen Messungen wurde die Sendeantenne in Ismaning
mit vertikaler Polarisation eingesetzt.
Als Basis für die Planungsparameter wurden die Empfehlungen
aus EBU TR034 [1] zu Grunde gelegt und entsprechend
der geforderten Mobilempfangsprognosen für den
Autoempfang mit externer Antenne modifiziert. Die Parameter
sind in Tabelle 2 zusammengefasst. Die Prognose der
Versorgungswahrscheinlichkeit für die FeMBMS-Ausstrahlung
erfolgte auf Basis klassischer Rundfunkplanungstools
und wurde mittels der Planungssoftware FRANSY erstellt. Für
die Netzplanung und -konzeption im Rahmen von 5G TODAY
wurde sowohl das IRT 2D-Modell als auch das IRT 3D-Modell
eingesetzt. In Abbildung 3 ist die Versorgungsprognose für
das Datensignal mit MCS9 zu sehen. Die dargestellte Mobilempfangsprognose
wurde mittels IRT 2D-Modell berechnet.
Es lässt sich erkennen, dass für die Datensignale eine sehr
gute mobile Versorgung im Großraum München zu erwarten
ist.
Ein zusätzlicher Gewinn hinsichtlich der Prognosequalität
ist durch den Einsatz eines 3D-Ausbreitungsmodells
zu erreichen, welches Mehrwegeausbreitung auch über die
Vertikalebene hinaus berücksichtigt. Exemplarisch ist in
Abbildung 4 die Prognose auf Basis hochaufgelöster Topound
Morphodaten für die Feldstärke des Senders Ismaning
dargestellt. Die Berechnung wurde mit dem IRT 3D-Modell
durchgeführt. Die Prognose vermittelt einen Eindruck über
die Abhängigkeit der Feldstärke von der Morphographie. So
zeigen sich sehr differenzierte Feldstärkeverläufe, welche
die zugrundeliegenden morphographischen Gegebenheiten
plastisch widerspiegeln. Der Gewinn, der sich durch die
Reflexionsberücksichtigung ergibt, ist in Abbildung 5 dargestellt.
Es profitieren insbesondere solche Orte von den
Reflexionen, welche ansonsten topo- bzw. morphografisch
bedingt (beispielsweise durch Abschattung) nur schlecht
mit Feldstärke vorsorgt wären. Die Berücksichtigung der Reflexionen
erhöht die Prognosegenauigkeit und erlaubt somit
bereits im Vorfeld eine deutlich detailliertere Planung des
Sendernetzes.
Tabelle 2: Planungsparameter für mobilen Empfang
Mobilempfang
MBSFN
Mobilempfang
CAS
C/N [dB] (hier für MCS 9) 10,7 -6
Bandbreite [MHz] 5 5
Empfängerrauschzahl [dB] 6 6
Man made noise [dB] 1 1
Kabeldämpfung [dB] 0 0
Empfangsantennengewinn [dBd] 0 0
Ortsstreuung [dB] (kombiniert} 5,5 5,5
Resultierende Mindestfeldstärke [dBµV/m]
(10 m Empfangshöhe, 50 % Ortswahrscheinlichkeit)
Resultierende Mindestfeldstärke [dBµV/m]
(10 m Empfangshöhe, 99 % Ortswahrscheinlichkeit)
(Quelle: GeoBasis_DE / BKG 2017)
43,0 26,6
55,8 39,4
28 Forschung & Entwicklung _ Beiträge Dezember 2020 FKT
FORSCHUNG
Abbildung 5:
Feldstärkegewinn
durch
Reflexionsberücksichtigung
(Quelle: GeoBasis_DE / BKG 2017)
3. Verifizierung der Versorgungsprognose
und Ergebnisse der Feldtests
Im Rahmen des Projektes fanden sowohl stationäre als auch
mobile Messungen statt, mittels derer insbesondere der Einfluss
des CAS-Signals auf die Empfangsqualität untersucht
werden sollte. Zur Beurteilung der Netzkonzeption wurden
sowohl das RSRP (Reference Signal Received Power) als auch
das CINR (Carrier to Interference plus Noise Ratio) analysiert.
Da es im Rundfunk üblich ist, die Empfangssituation auf
Basis von Feldstärken anstelle von Leistungen zu bewerten,
wurden die RSRP-Leistungswerte in eine korrespondierende
Feldstärke für ein 5MHz-Signal umgerechnet.
Für die Messungen wurde die Messsoftware KSA der Firma
Kathrein Broadcast/Enkom eingesetzt. Es wurde sowohl
das MBSFN-Datensignal mit einem Cyclic Prefix (CP) von
200 µs betrachtet, als auch das CAS-Signal mit einem CP
von 16,7 µs.
Abbildung 6:
Messroute für
die mobilen
Messungen
(Quelle: GeoBasis_DE / BKG 2017)
Abbildung 7: Vergleich CAS-Messwerte und Prognosen auf der Messroute
3.1 Mobile Messungen
Die Messroute ist in Abbildung 6 dargestellt. Sie verläuft
vom Sender Ismaning in Richtung Sender Wendelstein und
durchquert dabei verschiedene Versorgungssituationen. Die
Prognose des Versorgungspotenzials für das CAS-Signal ist
ebenfalls der Abbildung 6 zu entnehmen. Es werden versorgte
Bereiche (grün), durch Eigeninterferenz gestörte Bereiche
(blau) und aufgrund von Feldstärkemangel nicht versorgbare
Bereiche (rot) ausgewiesen.
Zunächst wurde hinsichtlich der Messwerte eine Plausibilitätsprüfung
durchgeführt, wozu die in Feldstärkewerte
umgerechneten gemessenen RSRP-Werte mit den in
FRANSY prognostizierten Feldstärkewerten verglichen wurden.
Zu diesem Zweck wurden für die Messwerte jeweils
Medianwerte über 100-Meter-Teilstrecken gebildet, um
eine Vergleichbarkeit mit den auf 100x100m-Pixeln durchgeführten
Prognosen herzustellen. Abbildung 7 zeigt einen
Vergleich der Messwerte für das CAS-Signal mit der Prognose.
Für den Fehler zwischen Messung und Prognose ergibt
sich in diesem Fall eine rechtssteile Verteilung mit einem
Mittelwert von -0,2 dB (Medianwert 0,8 dB) und eine Standardabweichung
von 6,9 dB. Auch der nichtlineare Korrelationskoeffizient
gemäß [2] als Maß für den Zusammenhang
zwischen gemessener und berechneter Feldstärke weist in
diesem Fall einen sehr guten Wert auf und zeigt damit für
diese Messroute eine sehr hohe Übereinstimmung der Werte
an. Unter diesem Aspekt erscheinen die Messwerte plausibel
und wurden daher nachfolgend weiteren Analysen unterzogen.
Nach der Verifizierung erfolgten die ersten Messungen,
für die beide Sender mit gleichem PCI betrieben wurden.
Für die Analyse wurden aus den Messwerten Medianwerte
über eine Messstrecke von jeweils acht Metern erstellt. Dieses
Vorgehen diente der Eliminierung von Fast-Fading-Effekten,
die gemäß [3] durch eine Medianwertbildung über
einen Sektor von 20 Wellenlängen erreicht werden. Eine
Darstellung der gemessenen CINR-Werte über der Messroute
findet sich in Abbildung 8. Das CINR steht für das Träger-Interferenz-Verhältnis
und ist ein wichtiger Parameter
für die Beurteilung der Qualität des Empfangssignals. Wenn
das CINR einen erforderlichen Mindestwert übersteigt, kann
vom Empfang eines störungsfreien Videosignals ausgegangen
werden.
3.1.1 Einfluss des PCI
Anschließend erfolgte ein Vergleich der Messwerte für unterschiedliche
und gleiche PCIs. Zu diesem Zweck wurde
zunächst für die gesamte Messroute jeweils für die Feldstär-
FKT Dezember 2020
Forschung & Entwicklung _ Beiträge 29
Abbildung 8: Gemessenes CINR auf der Messroute bei gleichem PCI (MCS 9)
ke sowie für das CINR die kumulative Verteilungsfunktion
berechnet. Dies erfolgte sowohl für das MBSFN-Signal, als
auch für die beiden CAS-Signale der Sender Ismaning und
Wendelstein. Darüber hinaus wurde im Sinne eines Best-Sever-Ansatzes
aus den beiden CAS-Werten jeweils der bessere
für die Auswertung herangezogen und den Einzelsenderwerten
gegenübergestellt. Dies entspräche einem Empfänger,
der in der Lage wäre, sich in jeder Situation auf den
Sender zu synchronisieren, der hinsichtlich der Feldstärke
bzw. dem CINR das beste Ergebnis liefert.
Die Kurven in Abbildung 9 stellen die inverse kumulative
Verteilungsfunktion dar, aus der sich die Überschreitungswahrscheinlichkeit
ablesen lässt. So kann beispielsweise für
das MBSFN-Signal abgelesen werden, dass ein Feldstärkewert
von 70 dBµV/m mit einer Wahrscheinlichkeit von 70 Prozent
auf der Messroute überschritten wird. Wie Abbildung 9 zeigt,
liegen die Werte für das gemessene CAS-Signal bei Gleichwellennetzbetrieb
(gleiche PCIs) und für das CAS-Signal
unter Annahme eines Best Server-Ansatzes sehr dicht beieinander.
Hier ist also über die gesamte Messstrecke betrachtet
kein großer Effekt hinsichtlich des Gleichwellennetzbetriebs
(Netzgewinn oder Eigeninterferenz) erkennbar. Auch
MBSFN- und CAS-Signal zeigen für die Feldstärke ähnliche
Werte. Beim CINR weist das MBSFN-Signal hingegen deutlich
höhere Werte als das CAS-Signal auf. Dies ist sowohl bei
gleichen als auch bei unterschiedlichen PCIs (Best Server)
der Fall und kann als Indiz dafür gewertet werden, dass das
MBSFN-Signal auch bei unterschiedlichen PCIs von einem
gewissen „SFN-Gewinn“ profitiert. Für die Versorgung mit
5G Broadcast könnte in diesem Zusammenhang auch von
Bedeutung sein, wie die Synchronisationsstrategie des Empfängers
realisiert ist – beispielsweise, ob sich der Empfänger
auf das erste oder auf das stärkste Signal synchronisiert.
Da es in Ermangelung kommerzieller Empfänger bisher
keine klare Zuordnung der Messparameter zur objektiven
und/oder subjektiven Empfangsqualität gibt, konnte eine
Abschätzung der möglichen Versorgung lediglich auf Basis
der in Tabelle 2 aufgeführten Mindestfeldstärken und
C/N-Werte erfolgen. Es lässt sich auf der hier betrachteten
Messroute feststellen, dass sowohl für das CAS- als auch
für das MBSFN-Signal ausreichend Feldstärke für eine Mobilversorgung
gegeben wäre (unter Berücksichtigung eines
Höhenabschlags von 10 Metern auf 1,5 Meter Empfangshöhe).
Das gemessene CINR hingegen überschreitet den erforderlichen
C/N-Wert auf der betrachteten Messroute zwar für
das CAS-Signal mit sehr hoher Wahrscheinlichkeit, für das
MBSFN-Signal jedoch nur mit einer Wahrscheinlichkeit von
ungefähr 50 Prozent. Allerdings ist die abfallende Flanke in
diesem Fall sehr steil, so dass ein geringfügig kleinerer erforderlicher
C/N-Wert bereits mit hoher Wahrscheinlichkeit zu
einer Versorgung führen würde.
3.1.2 Vergleich Einzelsender und SFN
Es erfolgte darüber hinaus ein Vergleich zwischen den Einzelsendern
und dem Gleichwellennetz (SFN) hinsichtlich des
CINRs und BLERs (Block Error Rate) für das Datensignal. Die
Vergleichsmessungen wurden auf einer kürzeren Route in
der Münchner Innenstadt durchgeführt. Im SFN-Fall hatten
die beiden Sender Ismaning und Wendelstein das gleiche
PCI, im Einzelsenderfall entsprechend unterschiedliche PCI.
In Abbildung 10 sind die Überschreitungswahrscheinlichkeiten
des CINRs auf der Stadtroute dargestellt. Abbildung 11
FORSCHUNG
Abbildung 9: Überschreitungswahrscheinlichkeit für Feldstärke und CINR auf gesamter Messroute
30 Forschung & Entwicklung _ Beiträge Dezember 2020 FKT
FORSCHUNG
Quelle: IRT
ANETA BAIER
ist am IRT im Bereich Future Networks
als Senior Engineer tätig. Sie war die
Projektleiterin des Bayerischen Forschungsprojektes
5G TODAY.
www.irt.de
Abbildung 10: CINR-Vergleich Einzelsender und SFN für das Datensignal auf der Route
in der Münchner Innenstadt
Abbildung 11: BLER-Vergleich Einzelsender und SFN für das Datensignal auf der Route
in der Münchner Innenstadt
Abbildung 12:
Messpunkte für
stationäre Messungen
(Quelle:
GeoBasis_DE /
BKG 2017)
zeigt die dazugehörige Auswertung der BLER. Beide Abbildungen
beziehen sich auf den Sendebetrieb mit MCS9.
Ein Netzgewinn für das SFN im Vergleich zum Einzelsender
ist in beiden Abbildungen zu erkennen. Das CINR des
Gleichwellennetzes ist merklich höher als das der beiden
Einzelsender. Auch in der BLER erreicht man durch den
SFN-Betrieb erkennbar verbesserte Werte. Im Bereich der
für MCS9 angenommenen 10,4 dB CINR liegt der Wert für
die BLER des SFNs bei ungefähr 10 -2 , der bessere Einzelsender
erreicht hingegen nur einen Wert von 10 -1 .
3.2 Stationäre Messungen
Im Rahmen der Feldtests wurden mit Unterstützung des
Bayerischen Rundfunks stationäre Messungen durchgeführt.
Die Messpunkte sind in Abbildung 12 dargestellt. Die Auswahl
erfolgte auch hier auf Basis einer zugrunde gelegten
Versorgungsprognose. Es wurden Gebiete für die stationären
Messpunkte ausgewählt, die gemäß Simulation aufgrund
der CAS-Problematik gestört sein müssten. Für eine zweite
Messreihe wurde der Sender Ismaning dann mit entsprechenden
Delays beaufschlagt, um auf den Messpunkten
eine Lage der CAS-Signale innerhalb des CP zu generieren.
Hierdurch sollte für das CAS eine Optimierung der Gleichwellennetzsituation
erreicht werden. Für die violette Strecke,
die hier betrachtet wird, betrug das Senderdelay 150 µs.
Abbildung 13 zeigt die CINR-Werte auf den violetten
Messpunkten bei gleichen PCIs. Erwartungsgemäß verbessert
sich das CINR für das CAS-Signal (grüne Kurven) nach
der Delayoptimierung, jedoch tritt diese Verbesserung nicht
an allen Messpunkten auf.
Zusammenfassung
Im Rahmen der Auswertungen im 5G TODAY-Projekt konnte
eine gute Übereinstimmung zwischen Versorgungsprognose
und gemessenen Feldstärken gezeigt werden. Über alle
Messungen hinweg betrachtet, zeigte sich kein großer Effekt
hinsichtlich der PCI-Konfiguration für das CAS-Signal. Das
MBSFN-Signal wies in der Regel deutlich höhere CINR-Werte
als das CAS-Signal auf. Dies war sowohl bei gleichen als
auch bei unterschiedlichen PCIs der Fall und kann als Indiz
dafür gewertet werden, dass das MBSFN-Signal auch bei
unterschiedlichen PCIs von einem gewissen „SFN-Gewinn“
profitiert. Die Feldmessungen auf der betrachteten Route
zeigten auch, dass sowohl für das Datensignal als auch für
das CAS ausreichend Feldstärke für eine Mobilversorgung
gegeben wäre. Das gemessene CINR war hingegen auf einigen
Teilen der Messroute nicht ausreichend, um eine mobile
Versorgung zu gewährleisten. Als Ursache hierfür kommt
das CAS-Signal in Frage, das für die Synchronisierung und
Signalisierung verantwortlich ist, jedoch können weitere
Einflussfaktoren, wie beispielsweise die Synchronisationsstrategie
des Empfängers, nicht ausgeschlossen werden.
Weiterhin konnte für das hier untersuchte Gleichwellennetz
(SFN) ein Netzgewinn gegenüber dem Einzelsender nachgewiesen
werden.
FKT Dezember 2020
Forschung & Entwicklung _ Beiträge 31
Quelle: IRT
KERSTIN PFAFFINGER
leitet das Sachgebiet Rundfunkversorgung
bei der ARGE RBT. Zuvor war sie
am IRT im Sachgebiet Funksysteme
tätig.
www.irt.de
Quelle: IRT
MAHMOUD ALMARASHLI
Mahmoud Almarashli war Ingenieur im
Bereich Future Networks am IRT. Derzeit
arbeitet er bei Qualcomm an der Entwicklung
von HF-Produkten.
www.irt.de
FORSCHUNG
Die FeMBMS-Nachfolgespezifikation wird als LTE-based
5G Terrestrial Broadcast bezeichnet und soll noch in diesem
Jahr im 3GPP Rel. 16 verabschiedet werden. Die neue
Spezifikation sieht eine erhöhte Robustheit des CAS-Signals
vor, was zu einer verbesserten Gleichwellennetzfähigkeit
des Systems führen sollte. Zudem werden neue Numerologies
für das Datensignal eingeführt. Ein verlängertes CP von
300 µs mit 0,37 kHz Trägerabstand soll die Realisation von
großflächigen SFNs ermöglichen, ein CP von 100 µs, gekoppelt
mit einem vergrößerten Trägerabstand von 2,5 kHz sorgt
für bessere Mobileigenschaften.
5G TODAY war ein Pionierprojekt, in dem Sende- und
Empfangskomponenten entwickelt und erste Feldtests
durchgeführt wurden. Inzwischen gibt es mehrere Testversuche
weltweit, die sich mit Feldtests sowie dem Einsatz von
hybriden Diensten beschäftigen. Zu vielen Aspekten des
Systems sind noch weitere Erkenntnisse erforderlich, um aktiv
die Standardisierungsarbeiten im Sinne des Rundfunks
beeinflussen zu können. Die Zukunft des 5G Broadcast bleibt
also spannend.
Abbildung 13: CINR auf den violetten Messpunkten bei gleichen PCIs, MCS9
Referenzen:
[1] TR 034: Simulation parameters for theoretical LTE eMBMS
network studies, EBU, December 2015
[2] Rainer Großkopf, Vergleich der Genauigkeit von Verfahren
zur Feldstärkevorhersage im UHF-Bereich, Technischer Bericht
Nr. B 87/87, IRT, 1987
[3] William C.Y. Lee, Estimate of local average power of a mobile
radio signal, IEEE Transactions on Vehicular Technology, Vol.
VT-34, No. 1, 1985
ARD/ZDF FÖRDERPREIS
»FRAUEN + MEDIENTECHNOLOGIE« 2021 AUSGESCHRIEBEN
Der ARD/ZDF Förderpreis »Frauen + Medientechnologie« geht in die nächste Runde.
Bewerbungen sind bis zum 28. Februar 2021 online möglich. Bewerben können
sich Absolventinnen von Hochschulen und Universitäten in Deutschland, Österreich
und der Schweiz. Die Abschlussarbeiten zu aktuellen technischen Fragestellungen
aus dem Themenbereich der audiovisuellen Medien in Fernsehen, Hörfunk
oder Online müssen nach dem 1. Januar 2019 angenommen worden sein.
Nach Abschluss einer ersten Beurteilungsphase werden im Mai 2021 zehn Nominierte
der Öffentlichkeit vorgestellt. Nach einer weiteren Juryrunde werden im Juli
2021 die drei Preisträgerinnen bekannt gegeben. Sie werden dann auf einer Preisverleihung
im Spätsommer/Frühherbst 2021 mit Geldpreisen im Gesamtwert von
10.000 Euro ausgezeichnet. Ausgerichtet wird der ARD/ZDF Förderpreis »Frauen +
Medientechnologie« 2021 von der ARD.ZDF medienakademie, der Fort- und Weiterbildungseinrichtung
des öffentlich-rechtlichen Rundfunks in Deutschland.
ø http://www.ard-zdf-foerderpreis.de/
Quelle: Grafik: ARD/ZDF Förderpreis
32 Forschung & Entwicklung _ Beiträge Dezember 2020 FKT
FORSCHUNG
VVENC UND VVDEC:
FRAUNHOFER HHI STELLT OFFENE,
OPTIMIERTE IMPLEMENTIERUNGEN
DES NEUEN VIDEOKODIER
STANDARDS H.266/VVC BEREIT
ADAM WIECKOWSKI, BENJAMIN BROSS, DR. DETLEV MARPE
Einleitung
Komprimierte Videodaten machen heute den mit
Abstand größten Anteil an Bits im Internet sowie
im mobilen Datenverkehr aus. Dabei ist die
Tendenz weiter steigend. Im Juli 2020 wurde der
neue Videokodierstandard Versatile Video Coding
(H.266/VVC) verabschiedet. H.266/VVC wurde
gemeinsam von ITU-T und ISO/IEC entwickelt und
soll helfen, alle zukünftigen Herausforderungen im
Bereich der Videoübertragung zu meistern.
Parallel zur Entwicklung der VVC-Standardspezifikation in
Textform wurde eine Referenzimplementierung in Software
gepflegt, das sogenannte VVC Test Model (VTM). Das
VTM wurde während der Standardisierungsphase genutzt,
um neu vorgeschlagene Technologien im Hinblick auf Kodiereffizienz
und Komplexität zu erproben. Die Entwicklung
der Kodiereffizienz (Bitratenreduktion) sowie der Enkoder-/
Dekoderkomplexität (Laufzeit) für die verschiedenen Versionen
von VTM gegenüber der HEVC-Referenzsoftware (HM) ist
in Abbildung 1 dargestellt.
Es ist zu sehen, dass neben der Kodiereffizienz (grüne
Kurve) auch die Enkoder-/Dekoderkomplexität (graue bzw.
schwarze Kurve) gestiegen ist. Hierbei ist zu bemerken, dass
der Anstieg für den Dekoder deutlich moderater ausfällt, wobei
diese Asymmetrie für alle Anwendungen im Broadcastoder
Streamingbereich durchaus beabsichtigt ist. Getreu
dem Paradigma „einmal Enkodieren und mehrfach Dekodieren“
(engl. encode once, decode many times), verfügen Endgeräte
wie Smartphones oder Fernsehgeräte typischerweise
nur über einen Dekoder. Dahingegen kommen Enkoder
oftmals nur in leistungsstärkeren Rechnern, zum Beispiel in
Sendezentren oder in der Cloud, zum Einsatz.
Nur zwei Monate nach der Fertigstellung des neuen
Standards hat das Fraunhofer Heinrich-Hertz-Institut im
September 2020 seine optimierten Implementierungen eines
VVC-Enkoders (VVenC) und eines VVC-Dekoders (VVdeC)
veröffentlicht. Diese sind seitdem auf der Plattform GitHub
als Quelltext frei verfügbar. Sie bringen neben erheblichen
Beschleunigungen gegenüber der VTM-Referenzsoftware
enkoderseitig zusätzlich noch Optimierungsoptionen im
Hinblick auf die subjektiv wahrgenommene Bildqualität. Die
höhere subjektive Qualität bei gleicher Bitrate von VVenC
gegenüber VTM wurde erst kürzlich in formalen VVC Verification
Tests offiziell bestätigt.
Versatile Video Coding
Bei der Entwicklung des neuen VVC-Standards standen zwei
wesentliche Ziele im Vordergrund. Als erstes sollte VVC eine
deutliche Steigerung der Kodiereffizienz gegenüber HEVC
ermöglichen. Die erst kürzlich veröffentlichten Ergebnisse
der formalen subjektiven Verification Tests bestätigen eine
Bitrateneinsparung zwischen 40 und 50 Prozent bei gleicher
subjektiver Qualität.
Das zweite Ziel steckt bereits im Namen des neuen Standards
und heißt Vielseitigkeit (Englisch: Versatility/versatile).
So sollte bereits die erste Version des Standards ein breites
Spektrum an Anwendungen effizienter als je zuvor unterstützen.
Dazu gehören die Kodierung von Computer-generiertem
Video (zum Beispiel im Bereich Gaming, Bildschirminhalte
für Videokonferenzen oder Remote-Desktop-Anwendungen),
immersive Anwendungen wie 360-Grad-Video sowie
Verbesserungen für adaptives Streaming mit wechselnden
Bildauflösungen.
Beide Ziele werden durch den Einsatz neuer Algorithmen
erreicht, wobei VVC genauso wie seine Vorgänger H.265/
HEVC und H.264/AVC auf einem hybriden, blockbasierten
Kodieransatz beruht. Dabei wird jedes Videobild in kleinere
Blöcke aufgeteilt, die jeweils entweder mittels Intra- (im Bild)
oder Inter-Bild-Prädiktion (mithilfe von Bewegungskompensation)
prädiziert werden. Der daraus resultierende Prädiktions-
oder Restfehler wird mithilfe von Transformation und
Quantisierung statistisch dekorreliert und zusammen mit
allen weiteren Daten zur Partitionierung und Prädiktion mithilfe
von Entropiekodierung in einen standard-konformen
Bitstrom geschrieben. Während im Großen und Ganzen keiner
der Bausteine wie Prädiktion und Transformation neu ist,
wurden diese jedoch methodisch erweitert und verbessert.
Im Folgenden sind lediglich die neuen VVC-Algorithmen kurz
aufgeführt. Diese sind durch ihre Komplexität für die im Weiteren
diskutierten VVC-Implementierungen relevant.
• Bi-Directional Optical Flow (BDOF): Ermöglicht eine dekoderseitige
Verfeinerung der Bewegungskompensation
basierend auf dem Modell des optischen Flusses.
• Decoder-side Motion Vector Refinement (DMVR): Erlaubt
ebenfalls eine dekoderseitige Bewegungsverfeinerung,
allerdings durch zusätzliche Suche mittels Block
Matching.
• Affine motion model: Ermöglicht die Erweiterung der
FKT Dezember 2020
Forschung & Entwicklung _ Beiträge 33
FORSCHUNG
Abbildung 1: Progression der Kodiereffizienz
sowie Enkoder- und Dekoderkomplexität
des VVC-Testmodells
(VTM) während der Standardentwicklung
gegenüber des HEVC-Testmodells
(HM).
translatorischen Bewegungskompensation auf affine Bewegung
wie Rotation, Scherung und Parallelstreckung.
• Luma Mapping with Chroma Scaling (LMCS): Ermöglicht
eine adaptive Anpassung des Dynamikbereichs.
• Adaptive Loop Filter (ALF): Zusätzlicher, adaptiver In-
Loop-Filter zur Verbesserung des Rekonstruktionssignals.
• Deblocking Filter (DBF): Der von HEVC und anderen Standards
bekannte Deblocking Filter wird in VVC mit feinerer
Granularität (4x4 Block-Raster) angewandt.
• Adaptive Motion Vector Resolution (AMVR): Ermöglicht
die Signalisierung der Bewegungsvektoren mit einer
adaptiven Auflösung mit Genauigkeiten von 1/4 eines
Bildpunktes bis 4 Bildpunkte.
• Symmetric Motion Vector Difference (SMVD): Erlaubt es,
bei Bi-Prädiktion aus zwei Richtungen nur einen Bewegungsvektor
explizit zu übertragen. Unter der Annahme
symmetrischer Bewegung wird dieser dann verwendet
um den Vektor der anderen Richtung herzuleiten.
• Merge plus Motion Vector Difference (MMVD) und Geometric
Partitioning Mode (GPM) sind weitere Algorithmen,
die es ermöglichen, den von HEVC bekannten Merge-Modus
zur effizienten Kodierung von Bewegungsinformationen
adaptiv weiter zu verfeinern.
VVdeC Software Dekoder
Das Fraunhofer HHI hat die Arbeiten an einem optimierten
Softwaredekoder schon früh während der Standardentwicklung
aufgenommen (siehe. FKT 8–9 2019, S. 60–63). Die aktuelle
Version ist nun mit dem finalen VVC-Standard konform
und erlaubt eine sehr gut skalierende Parallelisierung. Diese
enthält zudem strukturelle sowie algorithmische Optimierungen,
die im Folgenden anhand diverser empirisch ermittelter
Daten näher erklärt werden sollen.
In Abbildung 2 sind die Dekoder-Laufzeiten für fünf
Sekunden lange Ultra High-Definition (UHD) Videosequenzen
dargestellt, die jeweils in der Referenzimplementierung
VTM-10 sowie in der optimierten Implementierung VVdeC
von jeweiligen Komponenten in Anspruch genommen werden.
Vor allem durch eine entschlackte Softwarestruktur
und eine Optimierung der Sample-Operationen konnten
viele Teile des Dekoders beschleunigt werden. Letztere
konnten vor allem durch den umfangreichen Einsatz von
Vektorisierung mit Single-Instruction Multiple-Data (SIMD)
erreicht werden (z. B. Advanced Vector Extensions – AVX2).
Im Gegensatz zu früheren Referenzimplementierungen wie
HM für HEVC oder JM für AVC, enthält VTM eine ganze Reihe
laufzeitoptimierter Algorithmen. Das betrifft vor allem die
Interpolationsfilter und ALF. Wie in Abbildung 2 zu sehen ist,
konnten diese in VTM bereits optimierten Routinen in VVdeC
noch einmal um das Zweifache beschleunigt werden.
Der VVdeC-Dekoder kann das Dekodieren sehr effizient
über mehrere Rechenkerne eines modernen Prozessors verteilen.
So können je nach Rechenleistung, Anzahl der Kerne
sowie Bitrate des Videos UHD-Videosignale mit bis zu 60 Bildern
pro Sekunde (frames per second – fps) dekodiert werden.
Im Abbildung 3 sind die erreichten Dekodiergeschwindigkeiten
für UHD-Videos auf einer modernen Workstation
Abbildung 2: Durchschnittliche
Verarbeitungsdauer einzelner
Dekoderkomponenten für 5s
lange UHD Sequenzen auf einem
modernen Rechner mit AVX2-Unterstützung
(IF = Interpolationsfilter,
MIDER= Herleitung der
Bewegungsinformationen, SAO =
Sample Adaptive Offset Filter).
34 Forschung & Entwicklung _ Beiträge Dezember 2020 FKT
FORSCHUNG
Abbildung 3: Dekodiergeschwindigkeit in Abhängigkeit von der
Anzahl der genutzten Rechenkerne (Threads) sowie der Videobitrate
auf einer modernen Workstation.
mit Core-i9-9980XE Prozessor für verschiedenen Bitraten
und Anzahl von parallel genutzten Rechenkernen (Threads)
abgebildet.
Die dargestellten Zahlen zeigen zum einen, dass der Dekoder
ziemlich gut über die Anzahl der Kerne skaliert. Zum
anderen wird auch bei höheren Bitraten deutlich, dass die
Optimierung noch nicht abgeschlossen ist. Hier muss VVdeC,
speziell was die Softwarestruktur und die Speicherzugriffe
betrifft, noch weiter verbessert werden, um auch flüssiges
Abspielen von UHD-Videos auf weniger leistungsstarken
Rechnern zu ermöglichen.
VVenC Software Enkoder
Neben den Arbeiten am optimierten Dekoder VVdeC haben
die Forscher des Fraunhofer HHI zusätzlich eine optimierte
Enkoder-Implementierung namens VVenC entwickelt. Im
Gegensatz zum Dekoder, der das Video aus komprimierten
VVC-Bitströmen streng nach Standard parst und dekodiert,
hat eine Enkoderimplementierung viel mehr Freiheiten.
Grundsätzlich bietet jeder Videokompressionsstandard viele
Möglichkeiten, ein Video zu kodieren. Das fängt an mit der
Wahl der Partitionierung und setzt sich fort über die Anzahl
der Prädiktions- und Transformationsmodi bis hin zu den
umfangreichen Parametern der Filter.
Idealerweise würde ein Enkoder alle Möglichkeiten ausprobieren
und jene Kombination wählen, die bei gegebener
Rate die beste Qualität liefert. Dieser Brute-Force-Ansatz ist
aber nicht praktikabel, weshalb üblicherweise verschiedene
Heuristiken verwendet werden, die den Parameterraum
deutlich einschränken, ohne viel an Effizienz einzubüßen. Die
vielen Freiheitsgrade erlauben es auch, einen Enkoder anwendungsspezifisch
zu optimieren. Für Video-on-Demand-
Anwendungen kann ein Enkoder viele Möglichkeiten testen
und somit auf Kosten der Laufzeit die Kodiereffizienz steigern.
Bei Videokonferenzen oder Live-Streaming/-Broadcasting
hingegen muss ein Enkoder den Suchraum aufgrund von
Realzeitanforderungen und Latenz auf Kosten der Effizienz
einschränken.
Im Allgemeinen, aber auch bei VVC im Speziellen, kann
man – vereinfacht gesagt – zwischen zwei Arten von Kodieralgorithmen
unterscheiden. Die einen, beispielsweise die
dekoderseitige Verfeinerung der Bewegungsvektoren mit
BDOF oder DMVR, werden implizit angewandt und können
pro Bild oder pro Videosequenz eingeschaltet werden. Die
anderen haben einen deutlich größeren Parameter- bzw.
Suchraum. Das beinhaltet die Blockaufteilung, die für jedes
Bild ermittelt und signalisiert werden muss, oder die
Intra-Prädiktionsmodi und Parameter zur Bewegungskompensation,
die für jeden einzelnen Block explizit signalisiert
werden. In letzterem Fall muss der Enkoder pro Block entscheiden,
ob der spezifische Algorithmus angewandt werden
soll, was zu Komplexitätssteigerungen führt. Deswegen ist
die enkoderseitige Komplexität von VVC weniger von der
Komplexität der einzelnen Algorithmen bestimmt (wie im
Falle des Dekoders), sondern vielmehr von der Anzahl an
möglichen Enkoderentscheidungen, also dem zugrunde gelegten
Suchraum. Bei VVC ist dieser Suchraum sehr hochdimensional,
was zur Folge hat, dass die potenziell hohe Bitratenreduktion
mit einer ebenfalls deutlich erhöhten Enkoderkomplexität
einhergeht. Dies ist in der anfangs diskutierten
Abbildung 1 gut zu erkennen.
Für die Entwicklung des Enkoders haben die HHI-Forscher
mit einem sehr einfachen Grundgerüst angefangen.
Dieses wurde nach und nach um weitere in VVC verfügbare
Algorithmen ergänzt, wobei zuerst diejenigen integriert
wurden, die eine hohe Kodiereffizienz bei vergleichsweise
geringer Laufzeit aufwiesen. Darüber hinaus wurden die
VTM-Suchalgorithmen in VVenC dahingehend optimiert oder
durch neue oder angepasste Algorithmen ersetzt, die ein
noch besseres Verhältnis zwischen Laufzeit- und Effizienzsteigerung
erreichen.
Abbildung 4: Durchschnittliche
Zeit pro Bild in der
Enkodersuche. VTM-10
wurde in einer Konfiguration
benutzt, die die gleiche
Menge an Kodierwerkzeugen
wie VVenC unterstützt.
Für VvenC-VTM-comp
wurde VVenC mit gleichem
Suchalgorithmus gesteuert
(MVD – Bewegungsvektordifferenzensuche).
FKT Dezember 2020
Forschung & Entwicklung _ Beiträge 35
FORSCHUNG
Abbildung 5: Verhältnis von Laufzeit- und Bitratendifferenz für VVenC bei unterschiedlichen Presets mit und ohne Parallelisierung im Vergleich
zum HM-16.22 HEVC-Referenzenkoder. Zusätzlich sind die Ergebnisse des VTM-10 VVC-Referenzenkoders sowie des libAOM AV1-Enkoders
bei unterschiedlichen Presets abgebildet. Die Bitratendifferenzen basieren auf Messungen von Bitrate vs. PSNR.
Quelle: Fraunhofer HHI
Quelle: Fraunhofer HHI
Quelle: Fraunhofer HHI
Abbildung 4 zeigt die Laufzeiten für verschiedene
VVC-Enkodieraspekte in der VTM-Referenzsoftware (VTM-
10.0) in VVenC mit den gleichen Suchalgorithmen wie in
VTM (VVenC-VTM-comp) sowie in VVenC mit optimierten
Suchalgorithmen (VVenC medium). Hier ist zu bemerken,
dass die ersten beiden Konfigurationen aufgrund der gleichen
Enkoderentscheidungen die gleiche Kodiereffizienz
aufweisen. VVenC in der „medium“-Konfiguration hingegen
ist deutlich schneller, weist aber, wie im nächsten Abschnitt
beschrieben, eine etwas geringere Kodiereffizienz auf. Es ist
sehr deutlich zu erkennen, wo VVenC gegenüber VTM-10
Laufzeit einsparen kann. Der Unterschied zwischen VTM und
VVenC-VTM-comp zeigt lediglich die verbesserte Implementierung
des jeweiligen Algorithmus in VVenC, wobei viele
Optimierungen aus dem Dekoder übernommen wurden. Der
Vergleich von VVenC-VTM-comp zu VVenC medium zeigt,
wieviel Laufzeit eingespart werden kann, wenn bei gleicher
Implementierung zusätzlich noch der Suchalgorithmus angepasst
wird. Die angepassten Suchalgorithmen betreffen
vor allem die Bewegungskompensation und Blockaufteilung
(wobei letzteres in der Abbildung nicht direkt erkennbar ist,
weil sich dieses auf alle Suchbereiche auswirkt).
Gerade durch die Vielzahl neuer Möglichkeiten der Darstellung
von Bewegungsvektordifferenzen (MVD inklusive
SMVD, Affine MVD, AMVR) sowie Merge-Modi (Merge inklusive
MMVD und GPM, Affine Merge) ist der Suchraum in diesem
Bereich sehr groß. Durch neue Algorithmen können Entscheidungen
in VVenC in diesem Bereich schon sehr früh getroffen
werden, was die Laufzeit für VVenC medium effektiv
reduziert. Weitere Bestandteile der Enkodierung, bei denen
durch die optimierte Suche in VVenC medium die Laufzeit signifikant
reduziert wurde, sind die Quantisierung sowie ALF.
Neben der erwähnten medium Konfiguration bietet
VVenC drei weitere vorkonfigurierte Presets: slow, fast und
faster. Jedes dieser Presets stellt einen anderen Operationspunkt
bezüglich Laufzeit und Kodiereffizienz dar. So werden
in den Presets „faster“ und „fast“ nur eine grundlegende,
etwas eingeschränkte Blockaufteilung sowie Algorithmen,
für die keine Entscheidungen getroffen werden müssen,
angeschaltet. Beide Konfigurationen sind vor allem durch
die Softwarestruktur und die Komplexität dieser Basisalgorithmen
beschränkt. Das heißt, weitere Beschleunigungen
sind nur noch durch eine verbesserte Struktur und Implementierungen
der Algorithmen ohne Suche möglich. In der
„medium“ Konfiguration werden eine Vielzahl weiterer Kodierwerkzeuge
von VVC benutzt, für die jedoch die oben
diskutierten, angepassten Suchalgorithmen genutzt werden.
In der langsamsten Konfiguration werden viele der schnellen
Entscheidungsalgorithmen abgeschwächt sowie weitere
Werkzeuge dazu genommen, um in etwa auf die Kodiereffizienz
von VTM zu kommen. In Abbildung 5 sind die Laufzeiten
sowie Kodiereffizienz durch Bitrateneinsparung bei
gleichem Peak-Signal-to-Noise-Ratio (PSNR) der vier Presets
von VVenC gegenüber der HEVC-Referenzsoftware HM dargestellt.
Man sieht, dass die langsamste Konfiguration (slow)
die gleichen hohen Rateneinsparungen wie VTM bei ungefähr
der Laufzeit von HM erzielt.
Die zweitlangsamste Einstellung (medium) bietet dreifache
Beschleunigung gegenüber HM, behält jedoch weiterhin
noch einen Großteil der VTM-Gewinne. Darüber hinaus
ADAM WIECKOWSKI
ist wissenschaftlicher Mitarbeiter und Projektleiter am
Fraunhofer HHI. Er leitet die Entwicklungsarbeiten an den
optimierten VVC-Software-Implementierungen VVenC
und VVdeC.
https://www.hhi.fraunhofer.de/
BENJAMIN BROSS
ist Leiter der Gruppe "Videokodiersysteme" am Fraunhofer
HHI und Editor der HEVC- und VVC-Standards. Seine
Veröffentlichungen zu H.265/HEVC wurden mehrfach
ausgezeichnet.
https://www.hhi.fraunhofer.de/
DR.-ING. DETLEV MARPE
ist Leiter der Abteilung „Videokodierung und Maschinelles
Lernen” am Fraunhofer HHI. 2015 wurde er zum IEEE
Fellow ernannt.
https://www.hhi.fraunhofer.de/
36 Forschung & Entwicklung _ Beiträge Dezember 2020 FKT
FORSCHUNG
beinhaltet VVenC einige rein enkoderseitige Optimierungen,
wie eine bewegungsoptimierte Vorfilterung, die weder in HM
noch in VTM angeschaltet sind. In der Grafik sind zusätzlich
fünf Arbeitspunkte des AV1-Enkoders (Version libaom v-2.0)
unter weitgehend angepassten und somit vergleichbaren
Kodierbedingungen dargestellt. Obwohl VVC erst im Juli
2020 fertiggestellt wurde und der AV1-Enkoder über zwei
Jahre massiv optimiert wurde, ermöglicht die erste Version
von VVenC bereits bei ähnlicher Laufzeit eine deutlich höhere
Bitrateneinsparung.
Während sich der PSNR zur Entwicklung von Kodieralgorithmen
durchaus als ein valides Maß objektiver Videoqualität
etabliert hat, zählt am Ende doch die subjektiv
wahrgenommene Bildqualität. VVenC enthält daher zur Steigerung
der subjektiv wahrgenommenen Qualität die Option
einer psychovisuellen Optimierung. Diese wird durch eine
Adap tion der Quantisierungsschrittweite auf Basis der lokalen
zeitlichen und örtlichen Signalaktivität mithilfe des
am Fraunhofer HHI entwickelten XPSNR-Modells ermöglicht.
Durch die Nutzung dieser Optimierung hat VVenC im
medium Preset bei formalen subjektiven Tests zur Verifizierung
der Kodiereffizienz von VVC sogar besser als das VTM
abgeschnitten und dies bei ungefähr 110-fach schnellerer
Laufzeit.
Eine weitere Beschleunigung von Enkodern kann durch
Parallelisierung erzielt werden. Für VVenC ist diese in der aktuellen
Version sehr einfach gehalten, ermöglicht jedoch für
UHD eine fast vierfache Beschleunigung bei sechs Threads
oder eine dreifache Beschleunigung für UHD und HD bei
vier Threads. Die erreichte Kodiergeschwindigkeit ist abhängig
von der verwendeten CPU-Architektur und soll hier nicht
weiter im Detail diskutiert werden.
Zusammenfassung
Lediglich zwei Monate nach der Fertigstellung des VVC-Standards
hat das Fraunhofer HHI im September 2020 optimierte
Implementierungen von VVC-Enkoder- und -Dekodersoftware
(VVenC und VVdeC) frei verfügbar auf GitHub veröffentlicht.
Diese zeigen, dass VVC nicht nur auf dem Papier
und für das PSNR-Qualitätsmaß ausgezeichnete Ergebnisse
liefert, sondern auch großes Potenzial für praktische Anwendungen
mit hoher subjektiver Qualität bei kleinen Bitraten
aufweist. Während der Softwaredekoder noch etwas Arbeit
braucht, um auch auf älteren Geräten Live-Dekodierung zu
ermöglichen, kann der VVenC-Enkoder jetzt schon eingesetzt
werden, um das große Potenzial von VVC in praktischen
Anwendungen zu erproben.
NEUER MASTERSTUDIENGANG
„DIGITALE TECHNOLOGIEN“ AN FH SÜDWESTFALEN
Quelle: Shutterstock/Phonlamai Photo
Die Fachhochschule Südwestfalen in Soest bietet zum
Sommersemester 2021 den neuen Masterstudiengang
"Digitale Technologien" an, der sich mit den Schwerpunkten
Big Data, künstliche Intelligenz und IT-Sicherheit befasst.
Die digitale Zukunft stelle sowohl Entwickler als auch Anwender
vor neue Herausforderungen, heißt es in Soest. Die
technische Realisierung der Digitalisierung über Hardware
und Software muss entwickelt und permanent optimiert
werden. Wirtschaftliche Prozesse ändern sich durch Digitalisierung
maßgeblich und müssen demzufolge neu definiert
und kompetent gesteuert werden. Nicht zuletzt ist auch die
Rolle des Menschen in einer durch künstliche Intelligenz
gesteuerten Fabrik oder in der automatisierten Landwirtschaft
zu überdenken. Mit seiner interdisziplinären Ausrichtung
ist der Masterstudiengang "Digitale Technologien" für
Studenten aus verschiedenen Fachrichtungen interessant.
So werden Bachelor-Absolventen der Agrarwirtschaft, des
Maschinenbaus, des Wirtschaftsingenieurwesens ebenso
wie Absolventen interdisziplinärer Studiengänge mit technischer,
design- oder managementorientierter Ausrichtung auf
die Herausforderungen einer immer stärker digitalisierten
Zukunft vorbereitet. Das Studium verknüpft fachspezifische
Anwendungen mit Kompetenzen für die digitale Arbeitswelt
und IT-Wissen. Absolventen werden aber nicht zu IT-Spezialisten
ausgebildet, sie sind aufgrund ihres technischen
Hintergrunds vielmehr in der Lage, Digitalisierungs-Technologien
adäquat einzusetzen, die Ergebnisse anwendbar einzuordnen
und die Möglichkeiten und Grenzen zu verstehen.
Das mache den Studiengang "Digitale Technologien" an der
Fachhochschule Südwestfalen einzigartig, teilt die Fachhochschule
mit
Im Masterstudium werden Kenntnisse aus den Bereichen
Big Data, IT-Netzwerke und IT-Sicherheit, maschinelles
Lernen, Arbeitswelt 4.0 und digitale Geschäftsmodelle vermittelt.
Individuell können bereits zu Beginn des Studiums
Schwerpunkte gewählt werden, wie beispielsweise Additive
Fertigung, Automatisierung, Simulation, Interaktionsdesign,
E-Business/Online-Marketing oder Smart Farming. Die Regelstudienzeit
beträgt drei bzw. vier Semester je nach Vorkenntnissen.
Berufstätige können "Digitale Technologien"
auch parallel zum Beruf studieren. In der Regel verlängert
sich dadurch die Gesamtstudiendauer.
www.fh-swf.de/soest
38 Laudatio – Verleihung der
Oskar-Meßter-Medaille an Horst Burbulla
JÜRGEN BURGHARDT
39 Laudatio – Verleihung der Richard-
Theile-Medaille an Dr. Hans Hoffmann
DR. RAINER SCHÄFER
40 Laudatio – Verleihung des Rudolf-
Urtel-Preises an Dr. Anna Kruspe
PROF. DR.-ING. KARLHEINZ BRANDENBURG
41 Laudatio – Verleihung des Innovationspreises
an Prof. Karlheinz Brandenburg
DR.-ING. SIEGFRIED FÖSSEL
38 Dezember 2020 FKT
FKTG
Dr.-Ing. Siegfried Fößel, Erster Vorsitzender der FKTG, moderierte die Preisverleihung in Ilmenau.
Quelle: FKTG
FKTG VERLEIHT PREISE
FÜR INNOVATIONEN IN
FERNSEH- UND MEDIENBRANCHE
Am 29. Oktober 2020 hat die Fernseh- und Kinotechnische Gesellschaft FKTG Preise für Innovationen in der Fernseh- und Medienbranche
verliehen. Zu den Preisträgern in diesem Jahr zählen Prof. Karlheinz Brandenburg, Dr. Anna Kruspe, Horst Burbulla und
Dr. Hans Hoffmann. Alle zwei Jahre vergibt die FKTG ihre Medaillen und Preise an verdiente Personen der Medienbranche. In diesem
Jahr fand die Preisverleihung nicht wie üblich im Rahmen der FKTG-Fachtagung statt, sondern als Hybrid-Veranstaltung im Medienlabor
am Institut für Medientechnik der TU Ilmenau. Ein Mitschnitt der Preisverleihung ist auf Youtube verfügbar. FKT dokumentiert
die Laudationes.
LAUDATIO – VERLEIHUNG DER FKTG
OSKAR-MESSTER-MEDAILLE AN
HORST BURBULLA
Lieber Herr Burbulla,
wenn man über „großes Kino“ und „große
Filme“ spricht, denkt man zuerst an die
Schauspieler oder an die Regisseure, die
im Abspann und auch sonst fast immer an
erster Stelle Erwähnung finden. Welche
technischen Möglichkeiten aber bei der
Produktion eingesetzt wurden, ist häufig
nur eine zweitrangige Erwähnung wert. Dabei
sind es oft atemberaubende Kamerafahrten
oder spektakuläre Blickwinkel, die
den Zuschauer in Bann ziehen und durch
die Kamerafrau oder den Kameramann
kreativ gestaltet werden.
Als Sie vor über 20 Jahren den Teleskop-Kamerakran
erfanden, wurden großartige
Kamerafahrten und Aufnahmen
ermöglicht, die in dieser Form vorher kaum
realisierbar waren. Zu den vielen Filmen,
die mit dem „Technocrane“ gedreht wurden,
gehören große Filme wie Titanic, Pearl
Harbor, Matrix oder Harry Potter. Dieser
Kamerakran ist heute bei vielen Film- und
Fernsehproduktionen, insbesondere bei
aktionsreichen Filmen kaum wegzudenken.
Dabei war Ihnen der Erfindergeist nicht
unbedingt in die Wiege gelegt, denn als
ausgebildeter Krankenpfleger hatten Sie
möglicherweise zunächst andere Pläne,
wie sie dem Wohl von Menschen dienen
könnten.
Erst als Sie Anfang der 1980er Jahre
bei der Produktion Ihres ersten eigenen
Films feststellen mussten, dass flexible und
fahrbare Kamerasysteme nicht erschwinglich
waren, haben Sie einfach selbst ein
Kameraführungssystem erfunden, gebaut
nach Ihren eigenen Vorstellungen. Der
Teleskop-Kamerakran war geboren.
Die Weiterentwicklung und Perfektionierung
des Systems stand für Sie immer
im Fokus, und konnte auch wirtschaftlich
erfolgreich umgesetzt werden. Heute
werden diese Systeme von der Firma
Technocrane gefertigt, immer noch nach
FKT Dezember 2020
39
Ihren Vorstellungen. Technocrane hat ihren
Sitz in Pilsen in Tschechien und zählt mittlerweile
über 60 Angestellte.
Seit der Vorstellung des ersten Teleskop-Kamerasystems
sollten aber noch
über 20 Jahre vergehen, bis Sie im Jahre
2005 die höchste Auszeichnung der Branche
erhielten, „den Oscar in der Kategorie
Technik“. Wenn ich richtig recherchiert
habe, wurde der erste Oscar 1929 vergeben
und der erste Technik-Oscar sogar erst
1931. Die erste Oskar-Meßter-Medaille
wurde aber bereits 1927 vergeben. Wir
dürfen Ihnen daher den vermutlich ältesten
bedeutenden Preis in der Kinotechnik
heute und hier verleihen.
Aber sich auf Ruhm auszuruhen,
kommt für Sie offensichtlich nicht in Frage.
Mitarbeiter von Ihnen berichten, dass es
keine Messe oder Ausstellung gibt, auf der
Sie nicht persönlich Hand anlegen und
Kisten und Kartons selber schleppen. Die
Kransysteme werden weiterhin kontinuierlich
von Ihnen perfektioniert. Viele Ihrer
Horst Burbulla, Preisträger der FKTG
Oskar-Meßter-Medaille für herausragende
Verdienste in der Kinotechnik
Quelle: Jürgen Burghardt
Kunden schätzen Ihren Willen und Ihr
Streben sehr, nach Lösungen zu suchen
und Ihre Bereitschaft alle technischen
Herausforderungen anzunehmen.
Vielleicht ist ein Geheimnis Ihrer Schaffenskraft
auch in Ihren weiteren Interessen
und in Ihrem persönlichen Umfeld zu suchen.
Als Vater von drei Kindern wissen Sie,
was soziale Verantwortung heißt und auch
wenn es Ihnen nicht in die Wiege gelegt
wurde, haben Sie eine große Leidenschaft
zur Musik, zum Film und zur Architektur
entwickelt. Diese Leidenschaft teilen Sie
auch besonders gerne mit anderen Menschen
und das mit viel Engagement.
Die FKTG verleiht Ihnen also heute die
Oskar-Meßter-Medaille und würdigt damit
Ihre großen Verdienste für die Film- und
Fernsehproduktion durch die Erfindung
des Teleskop-Kamerakrans und dessen
kontinuierlicher Perfektionierung.
Meinen herzlichen Glückwunsch dafür.
Jürgen Burghardt – FKTG Geschäftsführer
FKTG
LAUDATIO – VERLEIHUNG DER
FKTG RICHARD-THEILE-MEDAILLE
AN DR. HANS HOFFMANN
Die Richard-Theile-Medaille stellt – auf
gleicher Ebene mit der Oskar-Meßter-
Medaille und dem zum 100-jährigen Bestehen
neu eingeführten Karl-Heinz-Brandenburg-Innovationspreis
– die höchste
Auszeichnung der FKTG dar und ist nach
dem ersten Direktor des Instituts für Rundfunktechnik
benannt. Damit schließt sich
ein besonderer Kreis, wenn sie nun erneut
an einen ehemaligen Mitarbeiter des IRT
vergeben werden kann.
Dr. Hans Hofmann erhält diesen Preis
für seine Verdienste bei der Entwicklung
von HDTV- und UHDTV-Fernsehsystemen
und die maßgebliche Mitwirkung in internationalen
Standardisierungsgremien. Eine
besondere Betonung liegt hier sicherlich
auf der „maßgeblichen Mitwirkung in
internationalen Standardisierungsgremien“,
denn seine Arbeit ist zwar eng mit der
Bildqualität, HDTV und UDHTV verwoben,
aber längst nicht auf diese beschränkt und
geht weit darüber hinaus.
Sein aktives Interesse an Standardisierung
und Interoperabilitätssicherung zeigte
sich schon während seiner ersten Arbeiten
zu Jittermessungen am Seriellen Digitalen
Interface (SDI) im IRT, wo er 1991 als frischgebackener
Absolvent der Hochschule
München seine berufliche Laufbahn in der
Abteilung von Max Rotthaler begann. Diese
Arbeiten führten dann auch sehr schnell
gemeinsam mit Kollegen zu einem Patent
mit dem Titel „Schaltungsanordnung zur
Messung des Jitters in einem System, das
serielle Daten hoher Datenrate, insbesondere
digitale Fernsehsignale über ein Koaxialkabel
überträgt“. Naturgemäß brachte
ihn dieses Arbeitsgebiet sehr eng mit der
Industrie und den einschlägigen Gruppen
der EBU und der SMPTE zusammen, insbesondere
mit einem weiteren Abteilungsleiter
im IRT und sehr aktiven Chairman
der EBU, Horst Schachlbauer. Gemeinsam
trieben sie die Standardisierung und Interoperabilitätssicherung
bei gleichzeitiger
intensiver Vernetzung von Industrie und
Anwendern voran. Eine zentrale Rolle
spielten dabei immer wieder die EBU und
die SMPTE.
So war es nicht verwunderlich, dass
Dipl.-Ing. (FH) Hans Hoffmann eine Chance
bei der EBU in Genf ergriff und im Jahr
2000 dort als Senior Engineer in das
Technical Department eintrat. Als Chair u. a.
der Projektgruppen P/BRRTV und P/PITV
fokussierte er sich u.a. auf die Standardisierung
des Serial Data Transport Interface
und der damals neu aufkommenden
professionellen File Formate.
Dr. Hans Hoffmann, Preisträger der FKTG
Richard-Theile-Medaille für herausragende
Verdienste in der Fernsehtechnik
Parallel zu seiner Tätigkeit in Genf erweiterte
er sein Studium um einen Universitätsabschluss
und promovierte 2007 an der
Brunel University West London zum Thema
„Image quality considerations for HDTV formats
in the Flat Panel Display environment“
– auch dieses Thema beweist wieder seinen
Einsatz für Qualität und höherqualitatives
Fernsehen.
2010 übernahm Dr. Hans Hoffmann
dann in der EBU die Position als „Head of
Media Fundamentals and Production“. In
dieser Funktion organisierte und steuerte er
Quelle: Jürgen Burghardt
40 Dezember 2020 FKT
FKTG
die Schwerpunkte und Innovationsaktivitäten
von EBU Technical & Innovation und
organisierte weltweit Kooperationen und
Wissensaustausch, insbesondere zwischen
den europäischen und japanischen R&D-
Instituten von Rundfunk und Industrie,
aber auch – und in zunehmendem Maße –
mit dem US-amerikanischen Rundfunk und
den dortigen Innovationszentren.
Den Kontakt in die USA hatte er schon
seit seiner Tätigkeit im IRT insbesondere
über sein langjähriges Engagement
und „sein zweites Leben“ in der SMPTE
aufgebaut. Er wurde – noch vor seiner Mitgliedschaft
in der FKTG ab 2020 – bereits
1998 Mitglied der SMPTE und setzte sich
schon ab 1996 im Rahmen der Joint EBU/
SMPTE Task Force für das kontrollierte bzw.
standardisierte Zusammenwachsen von IT
und Broadcast ein.
Er leitete dann seit 1998 das Committee
für File Management und Netzwerke, war von
2008–2011 Governor der EMEA Region von
SMPTE und wurde anschließend 2011–13
Engineering (Standards) Vice President. Nach
einer kleinen Pause wurde 2018 wieder als
Finance Vice President aktiv und ab 2019
Executive Vice President. Ab Anfang 2021
wird er die Funktion des SMPTE President
übernehmen. Bereits im Jahr 2000 wurde er
zum Fellow der SMPTE ernannt.
In allen diesen Positionen im Dienste der
internationalen Standardisierung zeigte Hans
Hoffmann in seiner Laufbahn immer wieder
großes politisches Geschick, die Dinge voranzutreiben,
und dazu auch eine besondere
Ausdauer und Beharrlichkeit, wie ihm von
seinen Partnern immer wieder anerkennend
oder manchmal auch unfreiwillig bestätigt
wurde.
Diese seine Ausdauer ist auch in einer
Vielzahl sportlicher Disziplinen bekannt.
Oft habe ich ihn vor oder nach einem Meeting
im Hotel getroffen, wenn er gerade
vom Laufen zurückkam.
Eine seiner ganz besonderen Eigenschaften
ist aber seine hervorragende
Vernetzung, die neben seinen nachgewiesenen
Erfolgen im Bereich der Qualitätsoptimierung
in besonderem Maße auch den
Zielen und Aufgaben der FKTG entsprechen
und ihn daher zu einem würdigen
Preisträger unserer Gesellschaft machen.
In diesem Sinne gratuliere ich Dir, Hans, im
Namen im Namen der FKTG und natürlich
auch ganz persönlich zur Verleihung der
Richard-Theile-Medaille.
Dr. Rainer Schäfer
LAUDATIO – VERLEIHUNG DES
RUDOLF-URTEL-PREISES FÜR DEN
WISSENSCHAFTLICHEN NACH-
WUCHS AN DR. ANNA KRUSPE
Sehr geehrte Damen und Herren an den
Bildschirmen,
liebe Anna Kruspe,
Dr. Anna Kruspe, Preisträgerin des
Rudolf-Urtel-Preises für den wissenschaftlichen
Nachwuchs
ich freue mich sehr, dass ich diese Laudatio
halten darf. Im Leben eines Professors sind
abgeschlossene Dissertationen Highlights,
aber Forschungspreise für die Kandidatinnen
und Kandidaten, die man über
mehrere Jahre betreut hat, schlagen diese
Erlebnisse noch deutlich.
Anna Kruspe hat in ihren jungen Jahren
schon viel erreicht. Sie war eine unserer
besten Studentinnen im Studiengang
Medientechnologie an der TU Ilmenau und
es gelang uns, sie für das Fraunhofer-Institut
für Digitale Medientechnologie IDMT
zu gewinnen. Schon ihre Diplomarbeit, die
sie am Fraunhofer IDMT anfertigte, wurde
2012 mit dem 3. Platz des Hugo-Geiger-
Preises der Fraunhofer-Gesellschaft
ausgezeichnet. Ihren Lebenslauf und ihre
Leistungen seither will ich mit folgenden
drei Schlaglichtern beleuchten:
• wissenschaftliche Leistungen
• ihre Herangehensweise an die Aufgabenstellungen
und
• ihre Arbeit im Team innerhalb und
außerhalb der Arbeitszeiten.
In Frau Kruspes Dissertation geht es darum,
bei der automatischen Transkription vokaler
Musik auch die Sprache mit einzubeziehen,
um nicht nur den Melodieverlauf,
sondern auch den Liedtext zu erhalten. Im
ersten Moment hört sich diese Aufgabenstellung
trivial an: Bereits seit mehreren
Jahrzehnten wird an Spracherkennungstechnologien
geforscht. Inzwischen
funktionieren diese mit entsprechendem
Aufwand auch gut, wie Alexa und Siri
Quelle: Jürgen Burghardt
beweisen. Der Forschungsbereich Music
Information Retrieval (MIR), also Methoden
zur Erkennung von Melodien, ist ein
etwas neueres Forschungsthema, an dem
in Ilmenau aber auch bereits seit 20 Jahren
geforscht wird. Außerdem gibt es weltweit
etliche renommierte Forschungsgruppen,
das bedeutet, auch in diesem Bereich gibt
es entsprechende Methoden und Technologien.
Warum sollte man also gesungene
Musik einschließlich des gesungenen Textes
nicht mit denselben Methoden erkennen
können? Wie Frau Kruspe sehr schnell
herausfand, ist das doch nicht so einfach.
Die einfache Anwendung der bisherigen
Methode funktioniert nicht bzw. nur sehr
beschränkt. Anna Kruspe ist das Problem
systematisch und sorgfältig angegangen
und konnte am Ende beweisen, dass es
doch funktioniert. Sie erzielte Ergebnisse,
die deutlich über das hinausgingen, was
irgendwo sonst in der Welt zu diesem
Thema erforscht wurde. Sie gliederte
ihre Forschungen in Teilfragen auf, dazu
gehörten zum Beispiel die Identifikation
der Sprache, das Finden von Schlagwörtern
etc. sowie das Finden der richtigen
Features, also Merkmale der Tonsignale für
die Eingangsstufe der machine learning-Algorithmen.
Die hervorragenden Ergebnisse sind
teilweise auch in Frau Kruspes Herangehensweise
begründet: Sie hat nicht einfach
in Ilmenau (im Team) am Rechner an neuen
Ideen gearbeitet, sondern sie war zweimal
zu Forschungsaufenthalten an weltweit
führenden Stellen, zum einen bei Prof.
Hermansky an der Johns Hopkins University
in Baltimore und zum anderen bei Prof.
Masataka Goto am National Institute of
Advanced Industrial Science and Tech-
FKT Dezember 2020
41
nology AIST in Japan. So war sie von den
Top-Ergebnissen aus den für ihre Arbeit
notwendigen Teilbereichen beflügelt
und konnte auch die Herangehensweise
anderer internationaler Gruppen in der
Forschung studieren. All das, verbunden
mit fleißiger Veröffentlichungstätigkeit,
führte dazu, dass sie weltweit zu einer
gesuchten Gesprächspartnerin wurde mit
Einladungen zu Vorträgen bei Google, Amazon
und Spotify sowie vielen Universitäten.
Inzwischen ist Frau Kruspe am DLR-Institut
für Datenwissenschaften in Jena tätig, wo
sie weiter an Fragen des maschinellen
Lernens forscht.
Es war bereits von Preisen für ihre Arbeit
die Rede. Ergänzend sei erwähnt, dass
sie auch eine IDMT-Tradition fortführte und
in dem jährlichen Wettbewerb im Bereich
MIR (MIREX) in ihrer Kategorie den besten
Vorschlag erzielte.
Meine Erinnerung an ihre Zeit am
Fraunhofer IDMT ist aber auch ganz
wesentlich davon geprägt, wie sie sich im
Team und bei Veranstaltungen im Institut
musikalisch eingebracht hat. Das können
wir heute leider nicht hören, aber sie war
sehr engagiert bei den Auftritten unserer
Instituts-Band dabei, überwiegend am
Keyboard.
Es gäbe noch viel mehr zu erzählen.
Zum Abschluss bleibt mir nur hinzuzufügen,
dass ich sehr stolz darauf bin, dass
eine junge Wissenschaftlerin wie Frau Dr.
Kruspe bei uns gearbeitet und geforscht
hat.
Herzlichen Glückwunsch!
Prof. Dr.-Ing. Karlheinz Brandenburg
FKTG
LAUDATIO – VERLEIHUNG DES
INNOVATIONSPREISES AN PROF.
KARLHEINZ BRANDENBURG
Karlheinz Brandenburg ist erster Preisträger
dieses neu gestifteten Preises.
Warum? Das ist leicht erklärt:
Wir haben in den letzten 150 Jahren
verschiedene Medienumbrüche im audiovisuellen
Umfeld erlebt.
Mit dem Kinofilm war es erstmals
möglich, Bewegtbildszenen auf Dauer festzuhalten
und wiederzugeben, daraus ist
die Deutsche Kinotechnische Gesellschaft,
unsere Vorläuferorganisation entstanden.
In den 50er Jahren des vorherigen Jahrhunderts
entwickelte sich die Fernsehtechnik,
die zur Fernsehtechnischen Gesellschaft
wurde, und 1973 den Zusammenschluss
zu FKTG begründete. Seit den 90-er Jahren
des vorherigen Jahrhunderts erleben wir
einen ungeahnten Boom des Internet und
der digitalen audiovisuellen Verarbeitung,
vor allem auch der Ton- und Videoübertragung
über das Internet, so dass man mit
Fug und Recht behaupten kann, dass dies
eine weitere Revolution der audiovisuellen
Medien darstellt. Dies war der Grund,
diesen neuen Preis ins Leben zu rufen. Der
Wunsch nach audiovisueller Kommunikation
kennt keine Grenzen, nur das Trägermedium
ändert sich. Wenn man sich nun
den Beginn dieser audiovisuellen Revolution
anschaut, so hat dies mit der Toncodierung
und -übertragung begonnen. Hier
kommt nun Prof. Brandenburg ins Spiel.
Karlheinz Brandenburg, geboren 1954
in Erlangen, studierte Elektrotechnik und
Mathematik, erhielt zwei Diplome 1980
und 1982 und promovierte anschließend
bei Prof. Seitzer, übrigens auch mein Doktorvater.
Prof. Seitzer hatte die Idee, Musik
über ISDN-Telefonleitungen zu übertragen
und der junge Doktorand Karlheinz Bran
Prof. Dr.-Ing. Karlheinz Brandenburg,
Preisträger des Innovationspreises für Medientechnologie
in der Informationstechnik
denburg hatte die Aufgabe, ein Verfahren
zu entwickeln, wie dies möglich wird.
Prof. Seitzer war natürlich auch sonst sehr
rührig und gründete auch noch 1985 eine
Arbeitsgruppe der Fraunhofer Gesellschaft,
das heutige Fraunhofer Institut für Integrierte
Schaltungen in Erlangen. In einem
gemeinsamen europaweiten Projekt des
Digital Audio Broadcasting entwickelten
dann die beiden Forschergruppen an der
Universität und Fraunhofer gemeinsam
einen neuen Kompressionsstandard, der
1992 als MPEG-Audio Layer 3 abgeschlossen
wurde. Mit seiner Dissertation über
Adaptive Transformationscodierung, die er
1989 abschloss, hat Prof. Brandenburg die
Grundlagen der heutigen Audiocodierung
gelegt.
Es gibt viele Geschichten um den Standard
MP3, die Gründe für seinen holprigen
kommerziellen Start und seinen dann
doch weltweiten Erfolg. Vielleicht erzählt
uns Prof. Brandenburg im Anschluss noch
etwas dazu. Für mich ist es eine Kombination
aus deutscher beharrlicher Ingenieurskunst,
einem Umbruch in der Kommunikationstechnik
und dem Glück des Tüchtigen.
Mit dieser Entwicklung wurde das Tor für
die Übertragung von audiovisuellen
Medien über das Internet aufgestoßen.
Prof. Brandenburg hat nach seiner
Zeit am Fraunhofer IIS in Erlangen als
Institutsleiter und Professor in Ilmenau
weitere tolle Entwicklungen vorangebracht.
Ich persönlich habe mit ihm und seinen
Mitarbeitern in vielen Projekten zusammengearbeitet.
Seine Auszeichnungen
und Ehrungen sind kaum zählbar, unter
Ihnen das Verdienstkreuz am Bande der
Bundesrepublik Deutschland, der Deutsche
Zukunftspreis oder die Aufnahme in
die Hall of Fame der Consumer Electronic
Association.
Audio und deren Rätsel sind seine
Leidenschaft, auch nach seinem Ausscheiden
aus dem aktiven Berufsleben. Wobei
die Gründung einer neuen Firma, die
Forschung an intelligenten Kopfhörern und
die Arbeit als Senior Professor sind nicht
wirklich, was man sich unter Ruhestand
vorstellt.
Aus all diesen Gründen ist es der
FKTG eine besondere Ehre, Prof. Karlheinz
Brandenburg zum ersten Preisträger des
Innovationspreises für Medientechnologie
in der Informationstechnik zu ernennen.
Prof. Brandenburg, Karlheinz, meinen herzlichsten
Glückwunsch und vielen Dank für
die Jahre der bisherigen Zusammenarbeit!
Dr.-Ing. Siegfried Fößel
Quelle: Jürgen Burghardt
42 Dezember 2020 FKT
Vorschau
NEUER AUDIOCODEC LC3 FÜR
SPRACHÜBERTRAGUNG UND MUSIK-STREAMING
Mit dem Audiocodec Low Complexity Communication Codec (LC3) hat Fraunhofer
IIS eine Lösung speziell für drahtlose Kommunikationsplattformen wie Bluetooth
und DECT (Digital Enhanced Cordless Telecommunications) entwickelt. Die Betriebsarten
des Codecs reichen von mittleren Datenraten für eine optimale Sprachübertragung
bis hin zu hohen Datenraten für hochauflösende Musik-Streaming-Dienste.
Gleichzeitig arbeitet der Codec mit geringer Latenzzeit, geringer Komplexität und
geringem Speicherbedarf.
WIE KÜNSTLICHE INTELLIGENZ
DIE MEDIENPRODUKTION VERÄNDERT
Wie Künstliche Intelligenz (KI) heute und in Zukunft die Medienproduktion beeinflussen
wird, steht im Zentrum des 1. Münchener KI-Symposiums. Dabei beschränkt
sich der Einsatz von Künstlicher Intelligenz nicht nur auf eine einzelne Anwendung,
vielmehr erstrecken sich die Möglichkeiten aufgrund der Digitalisierung auf alle
Gewerke. Beginnend vom Drehbuch und der Zuschaueranalyse, über die Metadatengenerierung
bis hin zur Schnittunterstützung und Deep-Fake-Erkennung ist
eine der Kernfragen des KI-Symposiums, welchen Nutzen der Einsatz von künstlicher
Intelligenz bringen kann. FKT liefert eine Nachlese der Veranstaltung.
PILOTPROJEKT FÜR NEUES
CLOUDBASIERTES TOOLSET
Gemeinsam mit NRK, dem öffentlich-rechtlichen Sender in Norwegen, startet Sony
eine Machbarkeitsstudie. Ziel der Studie ist die Entwicklung eines neuen cloudbasierten
und automatisierten Produktionstoolsets. Dieses Set soll den Produktionsprozess
optimieren, die Duplizierung von Metadaten-Einträgen verhindern und
das Content-Management automatisieren.
Offizielles Organ der Fernseh- und Kinotechnischen
Gesellschaft (FKTG) in Verbindung mit dem Fachbereich 3
der ITG, des DIN-Normenausschusses Veranstaltungstechnik,
Bild und Film (NVBF) und des Arbeitsausschusses
NA 149-00-03 AA „Produktion, Wiedergabe und Archivierung
von audiovisuellen Medien“.
Redaktion
Leitender Redakteur
Martin Braun
Telefon: +49 (30) 25375249
E-Mail: braun@schiele-schoen.de
Redakteure
Thomas Schierbaum (für IRT-Seiten)
Telefon: +49 (89) 32399374
Dr. Hans Hoffmann (für EBU)
Telefon: +41 (22) 7172746
Martin Braun (für FKTG-Seiten)
E-Mail: braun@schiele-schoen.de
Technisch-wissenschaftlicher Beirat
Erweiterter Vorstand der Fernseh- und Kinotechnischen
Gesellschaft (Dr.-Ing. S. Fößel, Dr.-Ing. R. Schäfer, M. Bauer,
J. Brückner, N. Einig, L. Görner, R. Kupke, L. Lenzen, S. Rettner)
sowie Prof. Dr. R. Hedtke und Prof. Dr. U. Reimers
Verlagsanschrift
Schiele & Schön GmbH
Schlangenbader Straße. 13, 14197 Berlin
Telefon: +49 (30) 253752-10
E-Mail: service@schiele-schoen.de
Internet: www.schiele-schoen.de
Anzeigen
Gültig ist die Anzeigenpreisliste
vom 1. Januar 2020.
Anzeigenleitung: Stefanie Rosenlöcher
E-Mail: rosenloecher@schiele-schoen.de
Telefon: +49 (30) 253752-78
Anzeigendisposition: Diana Stahn
E-Mail: stahn@schiele-schoen.de
Telefon: +49 (30) 253752-20
Die Fachzeitschrift für Fernsehen,
Film und elektronische Medien
74. Jahrgang
Herstellung
Layout: Karen Weirich · Konzept: Eva Hernández
Vertrieb
Die FKT erscheint zehnmal jährlich.
Abo- und Vertriebsservice:
Helga Leuchter
E-Mail: leuchter@schiele-schoen.de
Telefon: +49 (30) 253752-24
Jahresabonnement
In Deutschland 169,00 € inkl. Versandkosten,
außerhalb Deutschlands 176,00 € inkl. Versandkosten.
Studenten- bzw. Azubi-Abo 80,50 €
inkl. Versandkosten (Nachweis).
Einzelheft 16,00 €
ePaper-Jahresabonnement 156,00 €
ePaper-Studentenabonnement 78,00 €
Abonnementskündigungen sind zum Ende des jeweiligen
Bezugsraums möglich und müssen bis sechs Wochen
vor Ende des Bezugszeitraums beim Verlag eingetroffen
sein. Andernfalls verlängert sich das Abonnement um ein
weiteres Jahr. Mitglieder der FKTG erhalten die Zeitschrift
im Rahmen eines Mitgliedsbeitrags.
Druck Druckhaus Gera GmbH, Gera
ISSN 1430-9947
– Änderungen vorbehalten –
FKT 1-2/2021 erscheint am 8. Februar 2021
Mitglied der Informationsgemeinschaft
zur Feststellung der Verbreitung von
Werbeträgern e. V. (IVW)
Tatsächlich verbreitete Auflage:
1.824 Exemplare, IVW 3/2020
Für die Übernahme von Artikeln in interne elektronische
Pressespiegel erhalten Sie die erforderlichen Rechte über
die PMG Presse-Monitor GmbH, Berlin.
Telefon: 030/ 284930 oder www.presse-monitor.de
Der Ton
macht die
Musik
NEU!
Wie der Ton zum Bild passt:
Wege zu effektivem Sounddesign
Maximilian Kock
152 Seiten, gebunden
Bestell-Nr. 959, € 24,80
Der Tonmeister
Carlos Albrecht
264 Seiten, gebunden
Bestell-Nr. 933, € 49,90
dritte
Auflage
NEU!
Die Welt des Klangs
The World of Sound
Peter K. Burkowitz
Musik auf dem Weg vom
Künstler zum Hörer
400 Seiten, gebunden, mit DVD
Bestell-Nr. 794, € 49,90
Sound-Design · Sound-Montage
· Soundtrack-Komposition
Jörg U. Lensing
Über die Gestaltung von Filmton
3. Auflage
ca. 280 Seiten, gebunden
Bestell-Nr.935, € 39,90
Audio-Logo-Vision im Kinofilm
Michel Chion
Geschichte, Ästhetik, Poesie
ca. 340 Seiten, broschiert
Bestell-Nr. 937, € 68,00
Herausgegeben von Prof. J. U. Lensing
Gleich bestellen
Tel.: 030 25 37 52-10
service@schiele-schoen.de
www.schiele-schoen.de
Alle Bücher auch als
eBook
erhältlich!
Fachübergreifende,
praxisnahe
Berichterstattung aus
unterschiedlichen
Perspektiven
THEMEN:
Fernsehtechnik
Filmtechnik
Videotechnik
Audiotechnik
Produktion und
Medienverwaltung
Jahresabo
169,00 €
* im Ausland
176,00 €
Studentenabo
80, 50 €
Einzelheft
16,00 €
Besuchen Sie uns
auch online
» Tagesaktuelle News
» Stellenbörse
» Umfangreiches Archiv
Fernseh-, Kino- und Systemtechnik
www.fkt-online.de