11.01.2021 Aufrufe

FKT FACHZEITSCHRIFT FÜR FERNSEHEN, FILM UND ELEKTRONISCHE MEDIEN

Das renommierteste technische Fachmagazin für Broadcast, Film und Medientechnik im deutschsprachigen Raum steht seit 70 Jahren für fachübergreifende, praxisnahe und anspruchsvolle Berichterstattung von und für Experten.

Das renommierteste technische Fachmagazin
für Broadcast, Film und Medientechnik im deutschsprachigen Raum steht seit 70 Jahren für fachübergreifende, praxisnahe und anspruchsvolle Berichterstattung von und für Experten.

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

12 | 2020 74. JAHRGANG € 16,–

WWW.FKT-ONLINE.DE

FACHZEITSCHRIFT FÜR

FERNSEHEN,

FILM UND ELEKTRONISCHE

MEDIEN

RUNDFUNKTECHNISCHE

MITTEILUNGEN DES IRT

5G IM FOKUS

NEUE ANSÄTZE FÜR PRODUKTION UND DISTRIBUTION

KÜNSTLICHE INTELLIGENZ

IN DER THEMENPLANUNG

IM INTERVIEW: 30 JAHRE

DEUTSCHE TV-PLATTFORM

OPTIMIERTE SOFTWARE FÜR

VERSATILE VIDEO CODING


Liebe Leser/innen und Partner/innen,

wir bedanken uns für Ihre Treue

in diesem herausfordernden Jahr und

wünschen Ihnen allen ein besinnliches Weihnachtsfest,

ein ruhiges Jahresende, stetige Gesundheit und

vor allem Zuversicht.

Wie schon Alan Kay sagte

„Die Zukunft kann man am besten voraussagen,

wenn man sie selbst gestaltet“.

Lassen Sie uns diesen Weg gemeinsam beschreiten und

Fundamente für eine bessere Zukunft legen!

Ihr Team von

green

BUILDING

GIESSEREI

PRAXIS


C

M

Y

CM

MY

CY

CMY

K

informiert

Aus den

Unternehmen

Standards

und Dienste

MEDIEN

Traditional broadcast_Ad-ibc_210x297 with 3mm bleed.indd 1 12/06/2019 09:50

Produkte

und Lösungen

Termine

concept

S e us at IBC

b oth 10.A31

Mai 2017 FKT

7 | 2019 73. JAHRGANG € 16,–

1 Magazin // News

RUNDFUNKTECHNISCHE

MI TEILUNGEN DES IRT

KI IM SPORTBEREICH

SMPTE2110-30/31

WWW.FKT-ONLINE.DE

FACHZEITSCHRIFT FÜR

FERNSEHEN,

FILM UND ELEKTRONISCHE

MEDIEN

FILM- UND

VIDEOPRODUKTION MIT KI

www.riedel.net

360°-VIDEO

AUF SMART TV

Mai 2017 FKT

RUNDFUNKTECHNISCHE

MITTEILUNGEN DES IRT

MEDIEN

Mai 2017 FKT

RUNDFUNKTECHNISCHE

MI TEILUNGEN DES IRT

FKT Dezember 2020

3

Bild: Silvia von Eigen

Editorial

CALL FOR

PAPERS

Liebe Leserinnen, liebe Leser,

wie die neue Mobilfunkgeneration 5G künftig für Fernsehübertragungen auf

mobile Endgeräte genutzt werden kann, haben Wissenschaftler des Instituts

für Rundfunktechnik (IRT) in dem Forschungsprojekt 5G TODAY untersucht.

Weltweit stieß das Projekt auf großes Interesse, berichten unsere Autoren.

Aneta Baier, Kerstin Pfaffinger und Mahmoud Almarashlid stellen die

Ergebnisse des Pionierprojekts in einem Beitrag ab Seite 26 vor.

Die nächsten Termine

für die Einreichung

von redaktionellen Beiträgen:

Was wir suchen:

Wir suchen technisch anspruchsvolle

wissenschaftliche Beiträge

oder Praxisberichte in sachlicher

Darstellung auf Ingenieur-Niveau.

Neben der Mediendistribution wird 5G künftig auch eine gewichtige Rolle

in der Medienproduktion spielen. In dem EU-Forschungsprojekt VIRTUOSA

haben Andreas Metz und Haci M. Cengiz untersucht, wie 5G mit Virtualisierungskonzepten

kombiniert und für effiziente, standortübergreifende

Live-Produktionen genutzt werden kann (Seite 23).

5G TODAY und VIRTUOSA sind zwei aktuelle Beispiele für die wichtige

Forschungsarbeit, die die Wissenschaftlerinnen und Wissenschaftler am

IRT in den vergangenen Jahrzehnten geleistet haben. Zum Jahresende 2020

schließt das traditionsreiche Haus endgültig seine Pforten in München-

Freimann – und hinterlässt damit eine große Lücke in der deutschsprachigen

Medientechnik-Forschung.

FKT_Online Service.pdf 1 07.06.19 12:43

online

Mit uns sind

Sie bestens

»Newsletter:

Wöchentlich

und kostenlos

TÄGLICH DAS WICHTIGSTE AUS DER BRANCHE:

BAUHAUS-

IMPRESSIONEN MIT AR

Personalveränderungen

Umfangreiches Archiv:

Recherche und Download kostenlos für a le Abonnenten

Nicht-Abonnenten können für einen kleinen Preis einzelne Artikel oder

Gesamtausgaben via PayPal erwerben und downloaden

MAGAZIN

> www.fkt-online.de

The world’s most influential media,

entertainment and technology show

13- 17 September 2019 | RAI, Amsterdam show.ibc.org

FROM TRADITIONAL

BROADCASTING TO

OTT, VR, AND ESPORTS

6 | 2019 73. JAHRGANG € 16,–

1 Magazin / News

Register before 16 August to get your

free visitor pass or the early booking

conference discount

See it differently.

WWW.FKT-ONLINE.DE

FACHZEITSCHRIFT FÜR

FERNSEHEN,

FILM UND ELEKTRONISCHE

IOT, IP, BIG DATA UND MEHR:

EINFLÜSSE DER DIGITALISIERUNG

THAT .

su ports the

SMARTPANEL

ZUKUNFTSVISIONEN

EINER DIGITALEN WELT

MAGAZIN

Future-Proof Technologies / Reliable Solutions / Safe Investment /

THAT...

integrates BOLERO,

the state-of-the-art

wirele s intercom

KI IN DER MEDIENPRODUKTION

LÖSUNGSANSÄTZE UND ERFAHRUNGEN

ERÖFFNUNG DES

FASSBINDER CENTERS

THAT .

loads a fu l

configuration in

le s than 3 seconds

THE ONLY

INTERCOM

THAT...

talks

a l audio

standards

including

AES67

MAGAZIN

OBJEKTSPEICHERUNG IN

MEDIEN-WORKFLOWS

8-9 | 2019 73. JAHRGANG € 16,–

1 Magazin / News

IBC 2019

AKTUELLE MESSETRENDS

WWW.FKT-ONLINE.DE

FACHZEITSCHRIFT FÜR

FERNSEHEN,

FILM UND ELEKTRONISCHE

ESC 2019 IN TEL AVIV MEDIENVERIFIKATION

UND -MANAGEMENT

PRODUCT

SPECIAL

IN ENGLISH

INSIDE

In Kooperation mit der FKTG hat FKT dies zum Anlass genommen, in einer

gemeinsamen Online-Konferenz mit Vertretern aus Wissenschaft, Rundfunk,

Industrie und Politik über Perspektiven und neue Ansätze in der

Forschungsarbeit zu diskutieren. Eine ausführliche Nachlese der Online-

Expertenrunde „Medientechnik-Forschung im Fokus“ finden Sie auf Seite 15.

Eine spannende Lektüre wünscht Ihnen

nscht Ihnen

PS: Im Namen aller Mitarbeiterinnen und Mitarbeiter von Schiele & Schön

wünsche ich Ihnen, liebe Leserinnen und liebe Leser, ein frohes und

besinnliches Weihnachtsfest. Kommen Sie gut ins neue Jahr und bleiben Sie

gesund.

FKT 5/2021

IP-basierte Produktionssysteme

FRIST: 31. Dezember 2020

FKT 6/2021

ISE-Messeausgabe

FRIST: 31. Januar 2021

FKT 7/2021

KI-Verfahren in der

Medienproduktion

FRIST: 28. Februar 2021

Haben Sie Anregungen, Wünsche

oder auch Kritik? Schreiben Sie

uns. Die Redaktion erreichen Sie

per E-Mail über

redaktion@fkt-online.de.

Abonnieren Sie zudem auf

www.fkt-online.de unseren

kostenlosen Newsletter, der Sie

wöchentlich über die wichtigsten

Entwicklungen in der Branche

informiert.


INHALT

MAGAZIN

6 BUSINESS

7 KÖPFE

8 PRODUKTE UND LÖSUNGEN

10 TECH ACROSS AMERICA

Free-form Organic LCD Displays

Coming To A Studio Near you

MICHAEL GROTTICELLI

11 INTERNATIONAL

Konferenzen und Messen

15 Auf dem Weg zu neuen Kooperationen:

Medientechnik-Forschung im Fokus

MARTIN BRAUN

Produktion und Post

19 Der neue Standard im Newsroom:

Künstliche Intelligenz in der redaktionellen

Themenplanung

JOCHEN SCHON

12 TREND

30 Jahre Deutsche TV-Plattform

INTERVIEW MIT CARINE CHARDON

Titelbild: Mohamed Hassan auf Pixabay

Bild links: Convit GmbH

Bild Mitte: Deutsche TV-Plattform

Bild rechts: Fraunhofer HHI

Quelle: Photo by OCV PHOTO on

Unsplash

Quelle: Screenshot aus VIRTUOSA

VideoIPath-System

15 MEDIENTECHNIK-

FORSCHUNG IM FOKUS

NACHLESE ZU ONLINE-

EXPERTENDISKUSSION

VON FKT UND FKTG

22

EFFIZIENT UND STANDORT-

ÜBERGREIFEND

VIRTUOSA: 5G UND

VIRTUALISIERUNG IN DER

RUNDFUNK-PRODUKTION


FORSCHUNG UND ENTWICKLUNG

23

VIRTUOSA – Der Weg zu 5G und

Virtualisierung in der Rundfunkproduktion (POC)

ANDREAS METZ, HACI M. CENGIZ

32 VVENC und VVDEC: Fraunhofer HHI stellt

offene, optimierte Implementierungen des

neuen Videokodierstandards H.266/VVC bereit

26 5G TODAY – Versorgungsprognosen

und Feldtests

ANETA BAIER, KERSTIN PFAFFINGER,

ADAM WIECKOWSKI, BENJAMIN BROSS,

DR. DETLEV MARPE

MAHMOUD ALMARASHLI

INFORMATIONEN DER FKTG

38 Laudatio – Verleihung der Oskar-Meßter-

Medaille an Horst Burbulla

JÜRGEN BURGHARDT

39 Laudatio – Verleihung der Richard-Theile-

Medaille an Dr. Hans Hoffmann

DR. RAINER SCHÄFER

40 Laudatio – Verleihung des Rudolf-Urtel-Preises

an Dr. Anna Kruspe

PROF. DR.-ING. KARLHEINZ BRANDENBURG

41 Laudatio - Verleihung des Innovationspreises

an Prof. Karlheinz Brandenburg

DR.-ING. SIEGFRIED FÖSSEL

Quelle: GeoBasis_DE / BKG 2017

Quelle: FKTG

26 FORSCHUNGSPROJEKT

5G TODAY

VERSORGUNGSPROG-

NOSEN UND ERGEBNISSE

DER FELDTESTS

38

FKTG-PREISVERLEIHUNG IN

ILMENAU

AUSZEICHNUNGEN FÜR

INNOVATIONEN IN FERNSEH-

UND MEDIENBRANCHE


6 Magazin _ Business Dezember 2020 FKT

MAGAZIN

Quelle: Broadcast Solutions

Stefan Breder

(CEO Broadcast

Solutions), Ramunas

Dirmeikis (CEO TVC)

und Wladislaw

Grabowski (COO

Broadcast Solutions)

(v.l.n.r.)

UHD-Fernseher mit

mehr als 70 Prozent Anteil

am TV-Gesamtmarkt

Quelle: GfK Retail & Technology/

Deutsche TV-Plattform

Broadcast Solutions übernimmt

litauischen Systemintegrator TVC

BROADCAST SOLUTIONS hat den litauischen Systemintegrator

TVC Solutions UAB übernommen. Nach dem Erwerb ist TVC mit

Geschäftsführer Ramunas Dirmeikis eine hundertprozentige Tochtergesellschaft

der Broadcast Solutions Group. Die Tätigkeitsschwerpunkte

von TVC überschneiden sich nur geringfügig mit denen von

Broadcast Solutions und ergänzen weitgehend die Aktivitäten des

deutschen Systemintegrators. Insbesondere im Baltikum und in den

GUS-Ländern verstärkt Broadcast Solutions mit der Übernahme

von TVC nun seine Präsenz und kann so ein noch umfangreicheres

Angebot an Produkten und Lösungen sowie einen noch stärkeren

Service und Support anbieten. Obwohl vollständig in die Broadcast

Solutions Group integriert, wird die TVC Solutions UAB als unabhängige

Einheit und unter ihrem Namen auftreten.

TVC ist ein unabhängiger Systemintegrator, dessen Kunden

hauptsächlich aus Europa und gelegentlich aus Afrika, dem Nahen

Osten und Asien kommen. Zu seinen regelmäßigen Arbeiten gehören

Systemdesign, Lieferung von Equipment und Integration von TVund

Rundfunkstudios, MCRs, Playout-Systemen, Newsrooms und

Archivierungslösungen. Ein besonderer Schwerpunktbereich sind

Übertragungswagen und spezielle Messfahrzeuge. Zum Team

gehören mehr als 50 Mitarbeiter, bestehend aus Ingenieuren,

Projektmanagern und einem spezialisierten Fertigungsteam.

www.tvc.tv, www.broadcast-solutions.de

DER ANTEIL VON UHD-FERNSEHERN am TV-

Gesamtmarkt hat in den ersten neun Monaten 2020

die Marke von 70 Prozent überschritten. Laut GfK

Retail & Technology wurden in diesem Zeitraum insgesamt

rund 4,7 Millionen Fernsehgeräte in Deutschland

verkauft, darunter 3,3 Millionen UHD-TVs. Im Vorjahreszeitraum

lag der UHD-Anteil noch bei 62 Prozent

(Q1-Q3 2019: 4,5 Millionen TV-Geräte, davon 2,8

Millionen UHD-Displays), teilt die Deutsche TV-Plattform

mit. HDR ist mittlerweile Standard, 97 Prozent der

Q1-Q3 2020 abgesetzten UHD-Displays unterstützen

mindestens ein Verfahren für High Dynamic Range

(HDR) und können Inhalte mit deutlich größerem

Kontrastumfang und natürlicheren Farben in feineren

Abstufungen darstellen. Bei 55 Prozent (1,8 Millionen)

dieser HDR-Displays sind neben den statischen

HDR-Standards HDR10 und HLG (Hybrid Log Gamma)

auch dynamische HDR-Verfahren wie Dolby Vision

oder HDR10+ integriert. 460.000 der UHD-HDR-TVs

können mit allen vier genannten und derzeit relevanten

HDR-Verfahren umgehen.

Seit 2014 wurden in Deutschland insgesamt 17,4

Millionen UHD-Fernseher verkauft. Aufgrund der

„anhaltenden positiven Marktentwicklung“ im

Segment TV-Geräte geht die Deutsche TP-Plattform

davon aus, dass bis zum Jahresende 2020 die Schwelle

von 20 Millionen verkauften UHD-TVs erreicht wird.

https://uhdr.de, https://tv-plattform.de

Digitalradio-Sendernetz mit weiteren Standorten

Das Sendernetz des ersten nationalen DAB+ Multiplex soll bis

Ende 2020 um neun weitere Standorte ausgebaut werden. Durch

die neuen Senderstandorte wird der Empfang in den jeweiligen

Regionen sowohl innerhalb von Gebäuden als auch mobil nochmals

deutlich verbessert. Insgesamt wird das bundesweite DAB+ Netz im

Kanal 5C zum Jahresende dann 149 Standorte umfassen. Die aktuelle

Planung sieht vor, dass bis zum Jahresende die Standorte Dillberg und

Quelle: Media Broadcast

Nennslingen (beide Bayern), Eisenhüttenstadt (Brandenburg),

Wismar (Mecklenburg-Vorpommern), Hürtgenwald

und Schöppingen (beide Nordrhein-Westfalen), Ahrweiler

(Rheinland-Pfalz), Schneidlingen (Sachsen-Anhalt) und

Erfurt (Thüringen) hinzukommen. Bereits im April 2020

gingen die Standorte Bad Belzig in Brandenburg sowie Neustadt/Unger

und Chemnitz/Reichenhain in Sachsen in Betrieb.

Mit den neuen Standorten erhöht Media Broadcast die

Reichweite des ersten nationalen DAB+ Multiplex auf 87 Prozent

der Bevölkerung beim Empfang innerhalb von Gebäuden.

Der mobile Empfang ist auf 96 der Fläche Deutschlands

möglich, die Bundesautobahnen sind zu 99 Prozent versorgt.

Im ersten nationalen DAB+ Multiplex sind 13 Programme zu

empfangen, darunter vier Programme von Deutschlandradio

und neun Programme privater Radiosender.

www.media-broadcast.com


FKT Dezember 2020

Magazin _ Köpfe 7

Quelle: Bild: BR/Markus Konvalin

Dr. Katja

Wildermuth

wird neue

BR-Intendantin

Quelle: Privat

MAGAZIN

DR. KATJA WILDERMUTH (55) wird Amtsinhaber Ulrich

Wilhelm als neue Intendantin des Bayerischen Rundfunks

nachfolgen. Der Rundfunkrat wählte Wildermuth mit 38 von

48 Stimmen. Dr. Katja Wildermuth tritt das Amt zum 1. Februar

2021 an, die Amtszeit beträgt fünf Jahre. Katja Wildermuth, derzeit

Programmdirektorin des Mitteldeutschen Rundfunks in

Halle, promovierte an der Ludwig-Maximilians-Universität

(LMU) München im Hauptfach Alte Geschichte. Während ihrer

Promotionszeit war sie als Dozentin am Institut für Alte

Geschichte an der LMU tätig und volontierte im Lektorat des

R. Oldenbourg Verlags München. Ab 1994 arbeitete Katja

Wildermuth als Autorin und Redakteurin, unter anderem für das

ARD-Politmagazin „FAKT“. 2004 übernahm sie die Leitung der

Redaktion Geschichte und Gesellschaft. 2016 wechselte Katja

Wildermuth zum Norddeutschen Rundfunk, wo sie bis 2019

den Programmbereich Kultur und Dokumentationen leitete. Seit

April 2019 verantwortet sie die crossmediale Programmdirektion

Kultur des Mitteldeutschen Rundfunks.

Anlässlich des „International Symposiums on Broadband

Multimedia Systems and Broadcast (BMSB)“ der

Broadcast Technology Society des Institute of Electrical and

Electronics Engineers (IEEE) hat Professor Ulrich Reimers

den “2020 Special Service Award” erhalten. Verliehen wurde

ihm diese Auszeichnung in Anerkennung seiner „many

years of leadership and outstanding research of broadcast

technology development and standardization“.

www.ieee.org

Auszeichnung

für Professor

Ulrich Reimers

www.br.de

Quelle: Riedel Communications

RIEDEL: VINCENT LAMBERT

VERANTWORTET GESCHÄFT IN

JAPAN UND SÜDKOREA

Riedel Communications hat Vincent

Lambert zum General Manager für

Riedel Japan und Südkorea befördert.

Lambert berichtet an Riedel APAC-

Chef Simon Roehrs. Als Global Head

of Systems Consulting hatte Lambert

ein Team von zehn Kundenservice-

Ingenieuren zu einer 33-köpfigen technischen Pre-Sales-Abteilung

ausgebaut. Zuvor war er als Systemberatungsmanager für

Riedel APAC von Japan aus tätig. Zu seinen weiteren früheren

Positionen zählen die Leitung von Betrieb und Technik bei Walt

Disney Television Japan, Vertriebs- und Produktmanagementfunktionen

bei FOR-A in Japan sowie mehrere Positionen als

Rundfunktechniker in London.

www.riedel.net

Quelle: Tata Communications

TATA COMMUNICATIONS hat Kabir Ahmed Shakir zum

neuen Chief Financial Officer ernannt. Kabir übernimmt die

Position ab 21. Oktober 2020 und ist künftig für das strategische

Finanzmanagement des Unternehmens verantwortlich, einschließlich

Investor Relations. Kabir Ahmed Shakir bringt fast

drei Jahrzehnte Führungserfahrung im strategischen Finanzmanagement

mit sowie einen starken Fokus auf Wachstum,

Geschäftsprozesse und operativer Umsetzung in unterschiedlichen

Branchen und regionalen Märkten. Zuletzt war er als Chief

Financial Officer bei Microsoft Indien für das Finanzmanagement

aller Microsoft-Standorte in Indien verantwortlich.

www.tatacommunications.com

Kabir Ahmed

Shakir

neuer Finanzchef

bei Tata

Communications


8 Magazin _ Produkte Dezember 2020 FKT

MAGAZIN

Riedel vernetzt Ü-Wagen von

Game Creek Video

GAME CREEK VIDEO, ein Anbieter von mobilen TV-

Produktionseinrichtungen, hat fünf neue Ü-Wagen auf den

Markt gebracht, die mittels IP-Gateway-Lösungen von Riedel

untereinander vernetzt sind. Riedels MediorNet FusioN Standalone-IP-Konverter

steuern die komplette SMPTE ST 2110-

basierte Signalverarbeitung in den fünf mobilen Einheiten – die

alle den neuesten Stand der Technik in der 4K/HDR-Produktion

darstellen. Die neuen Ü-Wagen von Game Creek sind allesamt 16

Meter lange, erweiterbare Systeme. Sie bringen eine komplette

ferngesteuerte IP-Einrichtung in einem einzigen Ü-Wagen unter

und machen dadurch eine sekundäre B-Einheit für die Unterstützung

vor Ort überflüssig. Bravo und Columbia, die ersten beiden

Game Creek Video-Ü-Wagen mit den Riedel IP-Infrastrukturlösungen,

wurden Ende 2019 auf den Markt gebracht, Gridiron A,

Gridiron B und Celtic folgten Anfang des Jahres. Jede Einheit ist

mit 16 kompakten MediorNet FusioN 6-Gateways und zwei 2-RU

MediorNet MBR 18-Chassis ausgestattet. In Kombination bilden

sie ein Truck-to-Truck-Interface (T2T), das jeweils bis zu 32 x

32 optische Videopfade unterstützt. So lassen sich bis zu 128

Glasfaserleitungen auf nur acht reduzieren – das vereinfacht jede

Produktion erheblich und reduziert Fehlerquellen. Das Medior-

Net-basierte T2T-Interface schafft zudem eine nahtlose, herstellerunabhängige

Konnektivität zwischen Game Creek Videos fünf

neuen Trucks und der Flotte von SDI-Baseband Trucks. Dadurch

entfällt die Notwendigkeit, SDI-Signale von elektrischen Kupferauf

Glasfaserleitungen und zurück zu konvertieren. Über eine

25-Gigabit-Ethernet-Schnittstelle können die FusioN-Gateways

Signale über das SMPTE ST 2110-Netzwerk transportieren und

dann als CWDM-SDI direkt an die vorhandene Infrastruktur in

den Baseband-LKWs ausgeben.

www.riedel.net

Quelle: Riedel Communications

Videobearbeitung: Blackmagic

Design legt DaVinci Resolve 17 vor

Blackmagic Design hat mit DaVinci Resolve 17 eine neue

Version seiner Videobearbeitungssoftware vorgestellt

– mit über 300 Neuerungen. Neben HDR-Gradingtools und

neu gestalteten Bedienelementen für die primäre Farbkorrektur

gibt es mit der Fairlight Audio Core eine Fairlight

Audioengine der nächsten Generation und Echtzeit-

Unterstützung für 2.000 Audiospuren. Zudem umfasst die

neue Version Dutzende andere zeitsparende Werkzeuge

für Editoren wie einen umgestalteten Inspector und neue

Ansichten für die Bin-Sortierung und Clip‐Metadaten.

Damit Anwender schneller arbeiten können, wurden die

Fairlight-Werkzeuge für die Schnittauswahl mit Maus und

Tastatur aktualisiert. Neu sind auch die Fairlight Audio Core

und der FlexBus, eine Audioengine der nächsten Generation

und Bus-Architektur, die 2000 Spuren unterstützt. Für

Editoren gibt es eine Slate-Ansicht mit Bin-Unterteilungen

für Metadaten, heranzoombare Wellenformen für den

Tonschnitt, intelligente Neukadrierung, einen vereinheitlichten

Inspector und Dutzende andere zeitsparende Tools.

Außerdem können in Fusion erstellte Kompositionen nun

in den Edit- und Cut-Arbeitsräumen als Effekte, Titel oder

Übergänge verwendet werden. Für Coloristen wartet DaVinci

Resolve 17 mit neuen Kreativwerkzeugen auf. Das Zeichnen

von Power Windows wurde verbessert, es gibt neue

Wipe-Optionen im Split-Screen-Modus, eine zusätzliche

„Sat vs. Lum“-Kurve, verbesserte Scopes, Unterstützung für

17-Punkt-3D-LUTs und mehr. Eine Public Beta von DaVinci

Resolve 17 steht auf der Website zum Download bereit.

www.blackmagicdesign.com

Quelle: Blackmagic Design

MOG MIT 350 INSTALLATIONEN AUF DEUTSCHEM MARKT

MOG Technologies, Anbieter von End-to-End-Lösungen für professionelle

Medien, hat mit 350 Installationen in Deutschland einen „weiteren Meilenstein“

auf dem deutschen Markt erreicht. Mit Unterstützung des langjährigen Partners

Broadcast Solutions hat MOG im November den 354. Auftrag erfolgreich nach

Deutschland ausgeliefert. Der Kunde SWR erhielt zehn Einheiten des Produkts

mDECK Densu X-2. Als Lösung zur Erhöhung der Flexibilität bei den täglichen

betrieblichen Aufgaben wurde mDECK entwickelt, um Produktionsteams bei

der Aufnahme, Ingest, Kodierung und Wiedergabe mehrerer Kanäle beliebiger

Medienformate zu unterstützen und gleichzeitig dateibasierte und Baseband-Inhalte

zu unterstützen. mDECK kann weiterhin hybride Operationen

durchführen, die je nach den verschiedenen Modellen variieren können.

Quelle: MOG Technologies / Broadcast Solutions

www.mog-technologies.com, www.broadcast-solutions.de


FKT Dezember 2020

Magazin _ Produkte 9

Quelle: Sony

Neue Professional Displays

von Sony mit Full Array LED

Sony hat vier neue BRA­

VIA BZ40H Professional

Displays vorgestellt,

die speziell für Geschäfts-,

Unternehmens- und Lehrumgebungen

entwickelt

wurden. Diese großformatigen

Bildschirme von 55

bis 85 Zoll bieten 4K-Auflösung und ein Full Array LED.

Die Full Array LED-Technologie soll dem Unternehmen

zufolge scharfe Kontraste ermöglichen: Helle Bereiche

in einem Bild werden durch die Hintergrundbeleuchtung

hervorgehoben, sodass diese erstrahlen (850 cd/m²). Das

Design mit schlankem Aluminiumrahmen bietet dank

seitlich platziertem Logo, neu angeordneten Anschlüssen

und verstärkter Struktur die Möglichkeit, das Display nicht

nur im Quer-, sondern auch im Hochformat anzubringen

– was ein oft geäußerter Kundenwunsch sei. Zu den

Ausstattungsmerkmalen zählen 16:9-4K-Auflösung, der

4K-X1-Prozessor von Sony sowie Kompatibilität mit High

Dynamic Range (HDR)-Videoformaten. Zusammen mit

X-Balanced-Lautsprechern liefere die BZ40-Serie Kunden

„hervorragende Bild- und Soundqualität für einzigartiges

Signage“, heißt es bei Sony.

Immersiver Sound im Heimkino

MPEG-H 3D AUDIO ist ab sofort in zahlreichen Heimkino-Produkten

des Unternehmens Sound United verfügbar.

Sound United ist das Mutterunternehmen von Denon,

Polk Audio, Marantz, Definitive Technology, HEOS, Classé

sowie Boston Acoustics. MPEG-H-kompatibel werden

die ausgewählten AV-Verstärker und -Preprocessor von

Denon und Marantz durch ein Firmware-Update.

MPEG-H Audio ist ein offener ISO-Standard und wurde

maßgeblich vom Fraunhofer IIS entwickelt. Das Audiosystem

für UHD-TV und Streaming unterstützt sowohl

immersiven Sound als auch die

Möglichkeit für Benutzer, Audioelemente

an ihre Wünsche anzupassen.

MPEG-H wird seit 2017

im ATSC-3.0-Standard von allen

südkoreanischen TV-Sendern

eingesetzt und ist zudem für die neuen Rundfunkstandards

in Europa, China und Brasilien vorgesehen. Mit der

Verfügbarkeit von MPEG-H für AV-Receiver von Denon

und Marantz können Nutzer nun einen „umhüllenden und

personalisierbaren Klang in höchster Qualität genießen,

der den künstlerischen Intentionen des Urhebers gerecht

wird“, teilt Fraunhofer IIS mit. Dies optimiere vor allem

das Nutzererlebnis bei Sport-, Musik-, TV- und Filmübertragungen.

www.iis.fraunhofer.de, www.soundunited.com

MAGAZIN

https://pro.sony/en_GB/products/pro-displays

ANZEIGE

Remote-Work über

Proxy-Editing – neue Perspektiven

in medialoopster

MIT MEDIALOOPSTER 6 kommt im vierten Quartal 2020 die

neue Version des Media Asset Management Systems von nachtblau

auf den Markt. Für Produzenten und Anwender gleichermaßen

interessant sind die neuen Features für ortsunabhängiges

Arbeiten. Durch die Integration von Proxy-Editing mit Adobe

Premiere können Video-Projekte nun im Home-Office erstellt

und bearbeitet werden. Das Rendering der fertigen Schnitt-

Projekte findet automatisch unter Nutzung der Hires-Dateien

statt, ohne dass diese heruntergeladen werden müssen.

medialoopsters zentrale Eigenschaft ist die Erhaltung aller

Metadaten über sämtliche Workflow-Prozesse hinweg. Dies

gilt auch für die Arbeit mit der neu entwickelten Cloud-Videoplattform.

Sie ermöglicht erstmals - direkt aus der Anwendung

heraus - die selektive Veröffentlichung von Video-Assets zum

kollaborativen Arbeiten. Dabei können durch integrierte

Review-&-Approval- sowie Kommentar-Funktionen zeit- und

kostenintensive Arbeitsprozesse minimiert werden.

Metadaten sind auch sonst ein großes Thema bei medialoopster.

KI-Technologien verschiedener Anbieter, wie neuerdings

auch die KI Video Mining Plattform DeepVA, erlauben die

Erkennung von Gesichtern, Objekten, Logos und Schrift.

media loopster übernimmt die KI-Daten framegenau und macht

die erkannten Objekte durchsuchbar. Als Suchergebnis werden

dann die exakten Zeitabschnitte innerhalb der Videos angezeigt.

Auch die Erstellung von Untertiteln durch KI-Engines sowie

deren Übersetzung lassen sich in medialoopster einbinden.

Eine weitere Neuerung ist die vereinfachte Integration von

Drittsystemen. So können nun durch einfache Konfiguration

eigene Menüpunkte im medialoopster Interface angelegt werden.

Diesen Menüpunkten können wiederum beliebige externe Workflows

in Form von Webhooks zugeordnet werden.

Mehr Informationen erhalten Sie:

e. info@nachtblau.tv

t. 040 521 03 270

www.medialoopster.com, www.nachtblau.tv


10 Magazin _ Tech Across America Dezember 2020 FKT

MAGAZIN

Free-form

Organic LCD Displays

Coming To A Studio Near you

Image: Michael Grotticelli

MICHAEL GROTTICELLI

is an experienced editor

and regular contributor

to FKT’s Tech Across

America column.

We’ve all seen or heard about flexible, or freeform,

video display technology. It’s found in

mobile phone and tablets today but could be outfitting

your next TV studio. A technology known

to mobile phone developers called organic liquid

crystal displays (OLCD) is now being tested for dynamic

set elements where video can be wrapped

around and on top of a set piece. The technology

enables low cost, large area and shapeable

displays that can be used virtually anywhere. And,

unlike other flexible display approaches, OLCD is

naturally scalable to large sizes (e.g., studio walls).

Liquid crystal display, or LCD, is the most

widely used technology that accounts for more

than 90% of the displays sold today. However,

they are made with glass that limits the ability to

flex and the displays and conform to surfaces. If

you replace the glass with ultra-thin plastic, an

LCD can be made to bend, by carefully selecting

the liquid crystal materials and optimizing the

assembly process.

The technology is not new: it’s been in development

since 2014. Yet OLCD can now achieve

the same performance (and size) as your TV at

home, but on plastic. The manufacturing process

has been developed to be highly compatible with

existing capital equipment used for amorphous

silicon LCDs and, leveraging the existing materials

supply chain, making OLCD a cost-effective

option for flexible, color video-rate

displays. OLCD screens are ultra-thin

(0.3mm) plastic displays that can

be laminated directly onto curved

surfaces to a radius of curvature of

ten millimeters.

As with glass-based LCD, the

lifetime of OLCD is independent of

the display brightness, because it

is achieved through transmission of

a separate light source (the backlight),

rather than emission of its own light. For

example OLCD can be made ultra-bright for

viewing in daylight conditions without affecting

the display lifetime – an important requirement

for studio displays.

The ability to wrap displays around studio set

objects and configure them into more organic

shapes is what free-form really means. TV studios

can now have displays that can have video displayed

on any surface, including pillars, curved

walls and ceilings.

Today, glass displays are limited to straight or

gently curved edges because of the challenges of

handling glass with more complex shapes, whereas

plastic OLCDs can be easily cut to exotic shapes

Product

designers

want

to design displays

around the product,

and not the other

way round.

using laser profiling. Once the display has been

built, the plastic substrate can be gently released

from the rigid carrier ensuring a simple, reliable

high yield “release” process. The ability to cut

plastic displays to shape offers an infinite degree

of design freedom. For example, it is now possible

to insert a physical hole in the middle of a display

to create a “donut shape” display. Holes can be also

added to fit around the functional design of the

studio, for example, around knobs and switches.

Product designers want to design displays

around the product, and not the other way round.

“Free-form” means more than non-rectangular;

it is the ability to integrate displays seamlessly

into any 3D shaped surface. Only plastic displays

can become truly free-form displays and wrapped

around objects that have multiple axes and direction

of curvature.

Several companies that have supported the

mobile device industry for years are now experimenting

with large-sized displays that are thin,

lightweight and shatterproof. They say that unlike

flexible OLED displays—which have been already

been adopted in smartphones and smartwatches,—OLCD

opens up the use of flexible displays to

a wider range of applications that could include

broadcast studios. In fact, it has several attributes

that make it better suited to digital signage than

flexible OLED.

And, they say, OLCD is the lowest cost

flexible display technology—at three

to four times lower cost that flexible

OLED. This is because OLCD display

manufacturing uses organic

rather than silicon-based thin film

transistors (TFTs). Organic TFTs

do not require as high a processing

temperature as silicon-based

TFTs, so the manufacturing process

for OLCD displays has a significantly

lower cost.

What about resolution, you say? The

required pixel density of a display changes with

both application and screen size. A six-inch phone

display needs a pixel density of 490ppi to deliver

2K (2560×1440) and 368ppi for HD. This changes

to 188ppi and 141ppi for a 15.6-inch notebook, or

53ppi and 40ppi for a 55-inch TV. Flexible OLCD

displays can achieve the same resolutions and

pixel densities as amorphous silicon glass LCD

displays (350ppi), allowing 2K (and higher) resolutions.

2K resolution meets the needs of in-vehicle

displays, for example, while 4K matches those

of 15.6-inch notebooks, monitors, TVs, and digital

signage.


FKT Dezember 2020

Magazin _ International 11

The lifetime of an OLED display is closely

linked to its brightness, with each doubling of

brightness leading to a quartering of a lifetime

and daily use problems such as image burn-in.

OLCD technology uses a separate backlight, which

allows high luminescence levels to be delivered

without compromising the display lifetime; and

unlike OLEDs, OLCDs aren’t prone to burn-in.

Lastly, OLCD has also been used in the fabrication

of ultra-high contrast dual cell displays with

true pixel level dimming, offering OLED-like performance.

Due to these and other unique properties,

OLCD has the potential to transform how and

where displays are used in studio productions. It’s

not a matter of if, it’s when costs come down and

large display become more mature.

MAGAZIN

DENSITRON, a provider of Human Machine

Interaction (HMI) and display technology, has announced

that NEP The Netherlands is now using

the Intelligent Display System (IDS) solution for

a wide variety of production tasks at its broadcast

centre in Hilversum. The media technology

company’s road to implementing IDS began in

2015. NEP The Netherlands’ reliance on IDS has

increased over time, and as of 2020 it is being

used to control lights, PTZ cameras and studio

door information. IDS has also been integrated

with several other core systems, including the

Ross OverDrive automated production control system

and – thanks to a bespoke plug-in developed

by the Densitron team – with the Avid FastServe

playout server. Most recently of all, NEP The

Netherlands has also installed IDS in its outside

broadcast unit, iOB, that was introduced in 2019.

A pod-like facility delivered on a flatbed truck,

iOB serves as a remote production gallery that

can utilise shared system resources in Hilversum

and other NEP locations as part of the Centralised

Production concept.

Dutch NEP uses Densitron‘s Intelligent

Display System (IDS)

www.densitron.com

Source: Densitron / NEP

CUSTOM CONSOLES announces the completion

of a 5 metres wide by 3 metres high MediaWall for

BBC Studioworks in Elstree, Hertfordshire. The

new structure is installed in the production control

gallery used for the supervision of programmes

from the George Lucas Stage. BBC Studioworks

operates a complete gallery suite assigned to the

George Lucas Stages at Elstree Studios, supporting

large-scale TV productions. The galleries have

direct access to Stages 1 and 2 and have hosted

shows such as Strictly Come Dancing, The Voice,

and A League of Their Own. George Lucas used

Stages 1 and 2 during the filming of the ‘Star

Wars’ trilogy and welcomed the opportunity of

naming Stage 1 the George Lucas Stage. Fully

soundproofed, the stage is 1,465 square metres

in area and 15 metres high. Located in front of

the production control desk, the MediaWall spans

almost the full width of the gallery’s front wall and

supports 44 video monitors plus their associated

under-monitor displays. A studio clock display

and speakers are also attached. Four storage cabinets

are positioned at floor level, accommodating

power and signal distribution equipment.

New „MediaWall“ goes live at

BBC Studioworks

www.bbcstudioworks.com

www.customconsoles.co.uk

Source: Custom Consoles


12 Magazin _ Trend Dezember 2020 FKT

MAGAZIN

30 Jahre

Deutsche TV-Plattform

Carine Chardon,

Geschäftsführerin

Deutsche TV-Plattform

Interview mit

Geschäftsführerin Carine Chardon

Drei Jahrzehnte rasanter medientechnologischer Entwicklungen hat die Deutsche TV-Plattform

mitgestaltet – der Verein versteht sich als Koordinator unterschiedlicher Interessen, als Drehscheibe

für Informationen und als neutraler Aufklärer für die Öffentlichkeit. Bei der Gründung im

Jahr 1990 (noch unter dem Namen „Nationale HDTV-Plattform Deutschland“) zeichnete sich die

„digitale Revolution in der Bewegtbild-Technik“ bereits ab, wie Geschäftsführerin Carine Chardon

im Interview in Erinnerung ruft. FKT hatte Gelegenheit, mit ihr über die Anfänge sowie über

aktuelle und künftige Aufgaben zu sprechen.

Frau Chardon, die Deutsche TV-Plattform

feiert in diesem Jahr ihr 30-jähriges Bestehen.

Warum kam es 1990 zur Gründung des Vereins?

Carine Chardon: Der Verein wurde ursprünglich

als „Nationale HDTV-Plattform Deutschland“ gegründet,

um die Markteinführung von HDTV nach dem im

Rahmen des europäischen Forschungsprojektes Eureka

95 entwickelten 1250/50-Standards auf breiter Ebene

zu koordinieren und zu unterstützen. Die europäische

Industrie, Bundesministerien, Europäische Kommission,

Forschungseinrichtungen sowie TV-Sender und Netzbetreiber

reagierten damit auf japanische Versuche, einen

weltweit einheitlichen 1125/60-Standard zu etablieren.

Das war ein ambitioniertes Unterfangen. Damals standen

in den TV-Haushalten nur analoge Röhrenfernseher,

aber die digitale Revolution in der Bewegtbild-Technik

zeichnete sich bereits ab. Deswegen wurde das aus dem

Eureka-Projekt stammende analoge Projekt „HD Mac“

rasch beerdigt und der Verein konzentrierte sich fortan

auf die Digitalisierung des Fernsehens. Und da gab

es viel zu tun! Es wurden Arbeitsgruppen gegründet,

Strategien ausgeheckt, Kompendien verfasst und Events

und Symposien durchgeführt. Und Szenarien, wie sich

der Übergang von analog zu digital möglichst elegant

vollziehen könnte. Im Prinzip ist das heute noch so, nur

haben sich die Themen und Bühnen gewandelt.


FKT Dezember 2020

Magazin _ Trend 13

Die Plattform versteht sich als „einzigartigen

Zusammenschluss“ verschiedener Akteure im

Medienbereich. Was ist das Besondere Ihrer

Interessensvertretung?

Carine Chardon: Unsere Mitgliederstruktur

bildet die gesamte

Wertschöpfungskette der Branche

ab, vom Sender über Infrastrukturbetreiber

und Hersteller bis zu

Forschung, Bundes- und Landesbehörden.

Wir können daher wie keine

andere Institution in Deutschland

Experten und Entscheider aus

allen Bereichen zu den relevanten

Branchenthemen zusammenbringen

und so signifikanten Mehrwert

für unsere Mitglieder und den Markt schaffen.

An welchen Entwicklungen war die Deutsche

TV-Plattform in den vergangenen drei Jahrzehnten

entscheidend beteiligt?

Carine Chardon: Nach außen hin am sichtbarsten

waren sicher die Meilensteine entlang der Digitalisierung

der Verbreitungswege und Einführung neuer TV-Technologien

und Standards. Ob Digitalisierung der Verbreitungswege

Kabel und Satellit, HDTV, HbbTV, DVB-T und

DVB-T2 HD und Ultra HD: wann immer in den letzten

30 Jahren eine neue Medientechnologie entwickelt

und eingeführt wurde, hat die Deutsche TV-Plattform

unterstützt, indem sie verschiedene Interessenslagen

koordiniert, als Drehscheibe für Informationen fungiert

und die Öffentlichkeit neutral und umfassend aufgeklärt

hat. Es gab aber auch wichtige Projekte, die unter dem

Radar der breiten Öffentlichkeit gelaufen sind – oder

aktuell noch laufen, wie unsere UHD-Plugfest-Reihe. Die

Geburtsstunde dazu war übrigens die IFA 2014. Ultra HD

war damals das zentrale Thema unseres Messestands.

Die Kollegen hatten ihre liebe Not und Mühe, die verschiedenen

Geräte miteinander so zu verbinden, dass ein

UHD-Bild zu sehen war… Aus dieser „Grenzerfahrung“

wurde die Idee geboren, Events für herstellerübergreifende

Geräte-Tests zu kreieren, um bereits in der Entwicklungsphase

UHD-Geräte auf Interoperabilität und

korrekte Implementierung neuer Features abzuklopfen.

Daraus ist schnell eine europäische Initiative entstanden,

die bis heute Bestand hat, und Herstellern, Infrastrukturanbietern

und Diensteanbietern bei der Entwicklung hilft

– was am Ende auch den Zuschauern zugutekommt.

Die digitalen elektronischen Medien haben

sich in den vergangenen 30 Jahren rasant entwickelt.

Woran machen Sie das fest?

Carine Chardon: Ich denke, das kann man in drei

Phasen einteilen. Die erste war die Ablösung der analogen

TV-Verbreitung durch das digitale Fernsehen,

wodurch das Programmangebot enorm zugenommen

hat. Den Auftakt dazu machte die Einführung von DVB-T

in den Jahren 2003 bis 2008. Im Großen und Ganzen war

mit Ende der analogen Satellitenverbreitung im April

2012 digitales TV in Deutschland etabliert, auch wenn es

im Kabel noch ein wenig gedauert hat, bis der Umstieg

komplett vollzogen wurde – die Netze waren aber natürlich

schon längst vorher digitalisiert. Die zweite Phase

„Wann immer in den

letzten 30 Jahren eine

neue Medientechnologie

entwickelt und eingeführt

wurde, hat die

Deutsche TV-Plattform

unterstützt.“

war die Einführung von HDTV, wo Ende 2009 / Anfang

2010 mit dem Start der großen privaten und öffentlich-rechtlichen

Sendergruppen endlich den Durchbruch

eingeläutet wurde – die DTVP unterhielt ja bereits seit

2004 eine Arbeitsgruppe HDTV.

Mit HDTV wurden die Fernsehbilder

zu besseren Bildern, und durch

Ultra HD und HDR gilt das heute

umso mehr. Die dritte Phase, die

vor wenigen Jahren begonnen hat,

beschäftigt uns derzeit wohl mit

am meisten: die Verbreitung von

Inhalten und Diensten über das

Internet. Von der Einführung des

IPTV-Fernsehens bis zur Massenverbreitung

von Smart-TV, die

„Over The Top“ Bewegtbild-Apps

empfangen: die DTVP begleitet diese Entwicklung seit

über einer Dekade. Entlang dieser Zeitlinien gab es

natürlich auch noch andere wichtige Themen, denen sich

die Deutsche TV-Plattform intensiv gewidmet hat – etwa

HbbTV. Was zunächst als „moderner Teletext“ gestartet

war, ist inzwischen eine der Kerntechnologien für die

Interaktivität von Broadcast Diensten – von Barrierefreiheit

bis Targeted Advertising bietet HbbTV den Sendern

zahlreiche Möglichkeiten. Der klassische Teletext existiert

indes noch (!) weiter…

Ziel des Vereins ist die Einführung digitaler

Technologien auf Grundlage offener Standards.

Warum ist das entscheidend?

Carine Chardon:

Standards bieten die notwendige

Grundlage, um

Märkte schnell wachsen zu

lassen und Interoperabilität

zu gewährleisten – der

DVB-Standardfamilie etwa

ist wortwörtlich das digitale

Fernsehen zu verdanken.

„Bei unserem

Dauerbrenner Ultra HD

beschäftigen wir uns

derzeit intensiv mit dem

Thema HDR.“

Über die Jahre haben

sich die Arbeitsgruppen der Deutschen TV-Plattform

dynamisch an die Veränderungen in der

Medienwelt angepasst. Woran arbeiten aktuell

die Arbeitsgruppen Media over IP, Smart Media

und Ultra HD?

Carine Chardon: In erster Linie an Projekten, die wie

die UHD-Plugfest-Reihe zunächst im Maschinenraum

der Branche stattfinden, um den Zuschauern an Deck ein

besseres und komfortableres TV-Erlebnis zu ermöglichen.

Bei unserem Dauerbrenner Ultra HD beschäftigen

wir uns derzeit intensiv mit dem Thema HDR. Das Ziel

ist hier, ein optimales HDR-Erlebnis beim Kunden zu

erzielen. Dazu erarbeiten wir Empfehlungen für die

Produktion und den Transport von HDR-Signalen über

die gesamte Produktions-/Verteilungskette bis hin zum

Endgerät. Außerdem beleuchten wir in diesem Kontext

die Vor- und Nachteile der verschiedenen HDR-Spezifikationen.

Ferner haben wir CI Plus 2.0 auf dem Radar und

diskutieren die Chancen und Herausforderungen einer

Markteinführung der neuen Version der CI-Plus-Schnittstelle.

Damit würde sich der Formfaktor der Schnittstelle

MAGAZIN


14 Magazin _ Trend Dezember 2020 FKT

MAGAZIN

ändern, die dann nicht mehr auf dem PCMCIA-Slot,

sondern auf USB basiert. Daraus ergäben sich für die

Marktbeteiligten und Konsumenten eine Reihe von Vorteilen,

allerdings würde ein Umstieg auf CI Plus 2.0 auch

größere logistische und kommunikative

Anstrengungen erfordern

und muss wohlüberlegt sein.

Deswegen wollen wir Anfang 2021

einen erweiterten Kreis aus den

relevanten Unternehmen und Stakeholdern

aus der DACH-Re gion

zusammenbringen, die sich mit

einer möglichen Einführung von CI Plus 2.0 befassen.

Ein gutes Stück weiter sind wir bereits beim Thema

Metadaten für die Content-Distribution. Dazu zählen

etwa Trailer, Bilder oder Texte, die uns Zuschauern den

Weg zum Wunschprogramm weisen. Kreation, Pflege

und korrekte Darstellung dieser Metadaten sind aber für

Inhalteanbieter, Dienstleister und EPG-Betreiber durch

die Vielzahl der Video-Plattformen eine große Herausforderung.

Das führt dann beispielsweise zu abgeschnittenen

Textbeschreibungen bei Serien oder Filmen,

über die wir uns alle schon einmal gewundert haben.

Um solche Reibungsverluste bei der Ausspielung von

Metadaten zu minimieren, benötigt

man ein übergreifendes Verständnis

in der Branche. Genau dafür

hat die Deutsche TV-Plattform ein

„Basis-Set Metadaten“ erarbeitet.

Es enthält von Beschreibungen

über Publikationswege bis hin zu

technischen Angaben umfassende

und anschauliche Hinweise für die

Pflege und das Vorhalten von Metadaten

für die Distribution, und zwar

sowohl für lineare als auch für non-lineare Verbreitung.

Mit dem Basis-Set ist die Arbeit aber noch nicht abgeschlossen.

Als nächstes widmen wir uns den Themen

Tagging und Steuerungsdaten.

„Die Schließung des IRT

ist ein großer Verlust für

unsere Branche.“

„Es ist grundsätzlich

denkbar, dass wir in

Zukunft die ein oder

andere kleinere Aufgabe

des IRT übernehmen.“

der FKTG – zusätzliche Aufgaben übernehmen,

etwa um als Interessensvertreter zu agieren oder

bei Standardisierungsfragen noch intensiver

mitzuwirken?

Carine Chardon: Die Schließung

des IRT ist ein großer Verlust

für unsere Branche. Der außerordentliche

Sachverstand und das

große Engagement der IRT-Mitarbeiter

hat auch eine Stückweit

die Deutsche TV-Plattform mit

getragen. Angesichts der interessensübergreifenden

Struktur der Plattform ist es grundsätzlich denkbar, dass

wir in Zukunft die ein oder andere kleinere Aufgabe des

IRT übernehmen.

Ein Ausblick: Welche Herausforderungen sind

darüber hinaus in den kommenden Jahren zu

meistern?

Carine Chardon: Aktuell sicherlich trotz Corona-Pandemie

und Umzug aller Aktivitäten in die digitale

Domäne unsere Sichtbarkeit zu bewahren, die Themen

und Projekte voranzutreiben, um

unsere Mitgliedsunternehmen

bestmöglich zu unterstützen. Perspektivisch

gibt es einige Themen

und Trends, um die wir uns kümmern

werden. Dazu gehören neben

der Bildqualität die Frage der Leistungsfähigkeit

der Internet-Infrastruktur

für die schnell wachsende

Anzahl an Streaming-Nutzern, die

Nutzung von KI in den Medien,

das große Feld von Addressable TV und personalisierten

TV-Diensten. Auch das Thema Cloud ist für viele unsere

Mitglieder in ihren Herstellungs- und Vertriebsprozessen

von steigender Relevanz.

Mit der Schließung des Instituts für Rundfunktechnik

(IRT) zum Jahresende 2020 entsteht eine

große Lücke in der deutschsprachigen Medientechnik-Branche.

Inwiefern kann die Deutsche

TV-Plattform vor diesem Hintergrund – möglicherweise

auch in Kooperation mit Vereinen wie

Frau Chardon, vielen Dank für das Gespräch.

https://tv-plattform.de/

Interview: Martin Braun

DEUTSCHE TV-PLATTFORM MIT NEUEM VORSTAND

Vertreter von über 50 Mitgliedsfirmen, Organisationen und Institutionen der Deutschen TV-Plattform

haben auf einer digitalen Mitgliederversammlung des Vereins einen neuen, sechsköpfigen

Vorstand gewählt. Andre Prahl (Bereichsleiter Programmverbreitung, Mediengruppe RTL

Deutschland) wurde als Vorstandsvorsitzender bestätigt. Als Stellvertreter agieren Markus Zumkeller

(Director of Technology and Engineering, Sony Europe) und Sascha Molina (Produktionsdirektor

NDR, für die ARD), der neu in den Vorstand berufen wurde. Er folgt auf Dr. Michael Rombach

(Produktionsdirektor ZDF), der nicht mehr für die Wahl kandidiert hatte. Ebenfalls in den

Vorstand gewählt wurden Joachim Abel (Vice President Product Management Services, Deutsche

Telekom), Christoph Mühleib (Geschäftsführer, Astra Deutschland) und Rolf Wierig (Global Head

of Entertainment & Video Content, Vodafone Group). Dem Vorstand gehören zudem weiterhin

die Leiter der Arbeitsgruppen an: Dr. Niklas Brambring (CEO Zattoo, Leiter der AG Media over IP),

Stefan Kunz (Vice President Broadcast Services Sky Deutschland, Leiter der AG Ultra HD) und

Jürgen Sewczyk (JS Consult, Leiter der AG Smart Media). Die Mandatsperiode des neuen Vorstands

beträgt zwei Jahre. https://tv-plattform.de/

Andre Prahl, Markus Zumkeller, Sascha

Molina (obere Reihe von links nach

rechts), Joachim Abel, Christoph Mühleib,

Rolf Wierig (untere Reihe von links

nach rechts)

Quelle: Deutsche TV-Plattform


FKT Dezember 2020

Magazin _ Konferenzen und Messen 15

Quelle: Photo by OCV PHOTO on Unsplash

MAGAZIN

Auf dem Weg zu

neuen Kooperationen

Medientechnik-Forschung im Fokus

Die Schließung des Instituts für Rundfunktechnik (IRT) zum Jahresende 2020 hinterlässt eine

große Lücke in der deutschsprachigen Medientechnik-Forschung. Anlass für FKT und FKTG, in

einer gemeinsamen Online-Konferenz mit Vertretern aus Wissenschaft, Rundfunk, Industrie und

Politik über Perspektiven und neue Ansätze in der Forschungsarbeit zu diskutieren.

Wie sehr das Thema die Branche umtreibt, zeigte

die ausgesprochen große Resonanz der ersten

gemeinsamen Expertendiskussion von FKT und FKTG

am 5. November 2020. Zehn hochkarätige Experten beteiligten

sich an der Diskussion, das Online-Seminar war

komplett ausgebucht. An welchen neuen Projekten die

Forschung arbeitet, welche Probleme in den kommenden

Jahren zu lösen sind und welche Rolle dabei die gemeinsame

Entwicklung offener Standards spielt, hat die

Runde in einem zweistündigen Live-Format diskutiert.

HDR-SDR-Konvertierung

Zu Bereichen des UHDTV-Fernsehens, speziell zu High

Dynamic Range (HDR) und Wide Color Gamut, forscht

das Team um Professor Mike Christmann und Lucien

Lenzen an der Hochschule Rhein-Main in Wiesbaden.

„Wir haben einen Algorithmus für eine dynamische,

automatische Konvertierung von HDR nach SDR entwickelt“,

erläuterte Christmann. [1] Außerdem befassen

sich die Wiesbadener mit Künstlicher Intelligenz (KI),

konkret mit Deep Learning-Ansätzen, um beispielsweise

verloren gegangene Bildinhalte in Archivmaterialien

wieder sichtbar werden zu lassen.

Software statt Hardware

Machine Learning ist ein Thema, das am Fraunhofer

IIS in Erlangen eine große Rolle spielt – etwa, wenn es

um besseres Verstehen von Sprache (Natural Language

User Interface) oder um weitere Optimierung von Codecs

geht, wie Dr. Siegfried Fößel skizzierte. Er wies zudem

darauf hin, dass sich die Forschungsaktivitäten in den

vergangenen Jahren stark gewandelt haben: Stand früher

Hardware-Design im Mittelpunkt, so gehe es heute größtenteils

um Softwareentwicklung.


16 Magazin _ Konferenzen und Messen Dezember 2020 FKT

MAGAZIN

Seit jeher ist der Anwendungsbezug von Forschung im

Fokus des Instituts für Rundfunktechnik (IRT), das zum

Jahresende 2020 seine Pforten schließen muss. [3]

Einige der aktuellen Projekte beziehen sich ebenfalls

auf die neue Mobilfunk-Generation 5G (siehe hierzu die

Beiträge zu VIRTUOSA und 5G TODAY ab Seite 23 in dieser

Ausgabe), darüber hinaus befinden sich Themen wie

Video over IP, Machine Learning oder auch Hybrid-Radio

im Zentrum der Aktivitäten. Fest steht: Die Forscher in

München-Freimann haben in den vergangenen Jahrzehnten

wegweisende Arbeiten geleistet für die Etablierung

offener Standards. Ein Beispiel hierfür ist Hybrid

Broadcast Broadband TV (HbbTV), wie IRT-Forscher Dr.

Rainer Schäfer in Erinnerung rief. Sein Plädoyer: „Zu den

Plattformen, die von internationalen Kräften getrieben

werden, muss man Forschung und Standardisierung als

nationale und europäische Gegengewichte kreieren - um

nicht vollkommen von Entwicklungen aus anderen Ländern

überrannt zu werden.“

Expertenrunde im Gespräch: Dr.-Ing. Siegfried Fößel, Lucien Lenzen, Dr. Ernst Dieter

Rossmann, Jürgen Marchlewitz (erste Reihe v.l.n.r.), Martin Braun, Thomas Harscheidt,

Jürgen Burghardt, Professor Ulrich Reimers (zweite Reihe v.l.n.r.), Professor Alexander

Raake, Professor Peter C. Slansky, Wolfgang Wagner, Professor Mike Christmann (dritte

Reihe v.l.n.r.), Dr. Rainer Schäfer, Claus Pfeifer (vierte Reihe v.l.n.r.)

An der Technischen Universität Ilmenau beschäftigen

sich die Forscher mit immersiven Medien und insbesondere

mit XR, also Augmented, Virtual und Mixed

Reality, wie Professor Alexander Raake erläuterte. An

dem Thüringer Forschungsstandort entsteht aktuell

ein Virtual Reality-Zentrum, auch sollen demnächst in

einem virtuellen Studio volumetrische Aufnahmen [2]

umgesetzt werden. In Ilmenau

geht es zudem um die Bewertung

der technischen Qualität von

Video-Streaming – hinsichtlich

Kriterien wie Rauschverhalten

oder Farbwiedergabe.

Machine Learning

Mit Themen wie Physical Layer Security setzen sich

derweil Wissenschaftler der Technischen Universität

Braunschweig in der Grundlagenforschung auseinander.

„Wie kann ich dafür sorgen, dass bereits auf dem physikalischen

Übertragungsweg Datensicherheit gewährleistet

wird?“, ist hier eine der Kernfragen. Professor Ulrich

Reimers skizzierte, dass auch in Niedersachsen Machine

Learning von großer Bedeutung ist – und zwar durchaus

mit Anwendungsbezug. Hier geht es beispielsweise

darum, im Umfeld des autonomen Fahrens die visuelle

Erkennung von „höchst ungewöhnlichen Ereignissen“

zu gewährleisten. Darüber hinaus beschäftigen sich die

Braunschweiger mit Distributionsthemen, also etwa mit

der Kommunikation über Terahertz-Frequenzen oder mit

der Medienverbreitung via 5G Broadcast und DVB-I.

Forschung zu 5G

„Europäisches

Gegengewicht

in der Forschung“

Bewegtbild-Qualität

An der Hochschule für Fernsehen und Film (HFF) in

München steht die künstlerische Anwendung sehr stark

im Vordergrund, erklärte Technik-Professor Peter C.

Slansky. Die HFF gilt als einer der größten Filmproduzenten

Münchens (in Vor-Corona-Zeiten mit einer

Produktion von mehr als 120 Filmen pro Jahr), die Hochschule

betreibt Kinos, verfügt über vier Studios und eine

Etage für Postproduktion.

Die Anwendungs forschung an der HFF München

umfasst Fragen wie die Sicherheit von Lichtquellen in

Filmscheinwerfern; in der Grund lagenforschung arbeitet

Professor Slansky bereits seit geraumer Zeit an einem

Klassifizierungssytem für Bewegtbild-Qualität. Und auch

an der HFF spielt Künstliche Intelligenz eine wichtige

Rolle, jüngst erhielten die Münchner den Zuschlag für

eine KI-Professur.

Technologie-Scouting

Der WDR setzt KI-Verfahren bereits in Form einer

Mining-Plattform ein, die in Zusammenarbeit mit dem

Fraunhofer IAIS entstanden ist. [4]

„Das Thema ist wichtig, insbesondere

mit Blick auf die Optimierung

unserer Arbeitsprozesse“, betonte

Wolfgang Wagner, Direktor Produktion

und Technik beim WDR.

Für ihn ist entscheidend, dass der

öffentlich-rechtliche Rundfunk

weiterhin Zugang zu innovativen Forschungs- und

Entwicklungs-Ergebnissen hat. Die größte Herausforderung

sieht Wagner in der dynamischen Entwicklung

neuer Technologien einerseits und andererseits in dem

„weitreichenden Transformationsprozess“, der durch

den Wandel in der Mediennutzung vor allem bei dem

jüngeren Publikum forciert wird. „Wir haben uns stärker

damit auseinanderzusetzen, wie Technologie-Scouting

und Technik-Evaluation stattfinden kann.“ Dabei sei ein

intensiver Anwendungsbezug entscheidend, Grundlagenforschung

könne man nicht betreiben.

IT-Durchdringung

Sein Haus will künftig auf noch breitere Kooperatio nen

mit Partnern wie Hochschulen, Forschungsinstituten,

Industrie und andere Medienunternehmen setzen. „In

solchen Netzwerken können wir in Zukunft wirkungsvoller

agieren als in der Vergangenheit in dem spezifischen

Bereich der Broadcast-Technologie“, erklärte Wagner

mit Verweis auf einen viel „höheren Grad an IT-Durchdringung“

in der Broadcast-Branche. Beispielhaft stehen

dafür die Themen All IP, Video over IP, Audio over IP –

also die Integration von klassischen IT-Technologien in

Studios und Übertragungswagen.

Diese Entwicklung wirft weitreichende Fragen auf,

etwa mit Blick auf Sicherheitsaspekte. „Mit IP-Security

müssen wir uns auch weiterhin sehr intensiv beschäfti-


FKT Dezember 2020

Magazin _ Konferenzen und Messen 17

gen“, betonte Thomas Harscheidt, Geschäftsführer von

CBC, dem Broadcast- und Produktionsunternehmen der

Mediengruppe RTL Deutschland.

„Green IT“ und „Green TV“

Harscheidt brachte die Aspekte „Green IT“ und „Green

TV“ ins Gespräch, die ihm aus mehreren Gründen relevant

erscheinen. „Wir müssen nach der ökonomischen

und ökologischen Sinnhaftigkeit von Distributionsmethoden

fragen“, bekräftigte der CBC-Mann. Heute verteilen

CDN-Provider die Signale im Unicast-Verfahren.

„Da müssen wir überlegen, ob das bei stärkerer Nutzung

der richtige Weg ist – oder nicht eher eine intelligente

Kombination von Multicast und Unicast.“

Ökologisch, aber auch ökonomisch sinnvoll erscheinen

neue Ansätze in der Produktion – beispielsweise bei

der Übertragung der Formel 1 mittels Remote Production

und zentraler Regie. Aus den ursprünglich 18 Tonnen

Material – mit denen die Crew früher von Rennen zu

Rennen geflogen ist – sind zwei Tonnen geworden,

weniger „Ballast“ also. „So etwas stellen wir uns auch bei

weiteren Sportarten und bei anderen Events vor.“

Hybride Produktionen

Abseits dieser Vorhaben setzen die Kölner verstärkt auch

auf hybride Produktion. Gemeint ist damit der nahtlose

Übergang zwischen realen und virtuellen Studio-Sets.

Und auch hier hat die IT-Welt ihren Einfluss: „Wir haben

unsere virtuellen Sets bei RTL fast komplett auf Game

Engines umgestellt. Das sind die sogenannten Unreal

Engines von Epic, die aus dem Spielebereich kommen.

Die setzen mittlerweile den Maßstab.“

Die neue Mobilfunkgeneration 5G gewinnt derweil

für CBC auch in der Produktion an Bedeutung, etwa mit

Blick auf mobilen Journalismus bei der aktuellen Live-

Berichterstattung. Gleichzeitig verstärkt sich der Trend

bei der Mediengruppe RTL zu „softwarelastiger“ Arbeit,

wie es Harscheidt formulierte. Er betonte, wie wichtig vor

diesen Herausforderungen eine enge Zusammenarbeit

mit der Wissenschaft ist.

Fehlende Praxistauglichkeit

Dass die Forschung für den Audiobereich einen großen

Stellenwert hat, stellte Jürgen Marchlewitz, Präsident des

Verbands Deutscher Tonmeister (VDT), klar. Der Verband

hat mehr als 2.000 Mitglieder, die in vielen Bereichen

tätig sind – von der Produktion über Theater und Film

bis hin zu Akustik, Beschallung und Events. „Forschung

und Entwicklung sind für uns ein sehr wichtiges Thema“,

betonte Marchlewitz. Unter dem Oberbegriff „Immersive

Audio“ sind eine ganze Reihe unterschiedlicher Formate

entstanden, sei es Dolby Atmos,

Auro 3D oder 360 Reality Audio.

Wie diese neuen Formate aus

künstlerischer Hinsicht sinnvoll

zu nutzen sind, ist dabei eine der

essenziellen Fragen. „Nach unserer

Beobachtung ist es mitunter

so, dass die technischen Entwicklungen

an Praxistauglichkeit vermissen lassen“, kritisierte

Marchlewitz. Er appellierte, bei der Entwicklung und

Standardisierung anwendungsbezogene Fragestellungen

mit einzubringen und sich für einen noch stärkeren

Austausch zwischen Forschung, Industrie und Anwendern

stark zu machen. Dass die Medientechnik-Expertise

der Forschungsinstitute für die Industrie „extrem

wichtig“ ist, daran ließ Claus Pfeifer, Head of Connected

Content Acquisition bei Sony, keine Zweifel. „Es geht

um Austausch, um auch gewissen Wettbewerb und um

Kommunikation“, betonte er. Um Produktionen in einer

vernetzten Welt remote und flexibel realisieren zu

können, nützten indes keine Insellösungen mehr.

Deshalb seien gemeinsame Industriestandards wie

SMPTE, AMWA oder DPP notwendig – an denen auch

Sony mitwirkt.

Offene Standards vs. proprietäre Lösungen

Offene, gemeinsame Standards können funktionieren,

das zeigt auf der Distributionsseite die erwähnte,

maßgeblich vom IRT geschaffene Lösung HbbTV seit

nunmehr zehn Jahren – und zwar senderübergreifend in

der öffentlich-rechtlichen

und in der privaten Fernsehlandschaft.

„HbbTV ist in der

Tat ein sehr gutes Beispiel

für Zusammenarbeit“, bestätigte

CBC-Chef Harscheidt.

Insofern sei es schade, dass

das IRT diese Entwicklung nicht mehr vorantreiben

kann. „Aber vielleicht könnten wir das im Rahmen der

Deutschen TV-Plattform weitermachen?“ Dass es in den

vergangenen Jahren zwischen öffentlich-rechtlichem

und kommerziellem Rundfunk Hürden bei der technischen

Standardisierung gegeben haben könnte, hat auch

WDR-Technikchef Wolfgang Wagner nie so empfunden.

„Für mich war eher die Problematik bei der Standardisierung,

dass viele Standardisierungsprozesse zu lange gedauert

haben und von der Anwendung überholt worden

sind“, kritisierte er.

Gefangen im Ecosystem

„Standardisierung sorgt

für Innovation und

Wettbewerb“

„HbbTV ist ein

gutes Beispiel

für Zusammenarbeit“

Ein weiteres Problem machte Dr. Siegfried Fößel vom

Fraunhofer IIS aus: Wo es für Hightech-Firmen opportun

sei, beteiligten sie sich aktiv an der Standardisierung.

„Sobald die Unternehmen aber das Gefühl haben, sie

könnten dies in ihrem eigenen Ecosystem abbilden,

haben sie kein Interesse mehr an der Standardisierung.“

Es entstünden proprietäre Lösungen, proprietäre Interfaces,

proprietäre Konnektoren. „Das führt dann dazu,

in einem Ecosystem gefangen zu sein. Und deswegen

rufe ich dazu auf, sich mehr an der Standardisierung zu

beteiligen.“ Standardisierung bedeute indes nicht nur

Interoperabilität, sondern sorge auch für Innovation und

Wettbewerb, ergänzte er. Es können Lösungen entstehen,

die vorher überhaupt nicht angedacht waren. „Standardisierung

ist für mich deswegen auch eine große Kommunikationsplattform

zwischen Forschern und Anwendern“.

Politische Wahrnehmung

In rege Kommunikation kamen die

beteiligten Forscher, Anwender und

Industrievertreter auf dem Expertenpanel

indes mit der Politik – als Dr.

Ernst Dieter Rossmann, Vorsitzender

des Ausschusses für Bildung, Forschung

und Technikfolgenabschätzung, seine Wahrnehmung

der Branche beschrieb. „Im Wirtschaftsministerium

habe ich vernehmen dürfen, dass das Ministerium

sich lange engagiert hat – die großen technologischen

Umbrüche in der Medientechnik aber im weitesten

Sinne als abgeschossen ansieht.“ Man habe die Branche

stark gefördert in den vergangenen Jahren, wolle

MAGAZIN


18 Magazin _ Konferenzen und Messen Dezember 2020 FKT

MAGAZIN

aber keine besondere zusätzliche Aktivität entwickeln.

Rossmann regte eine systematische Bestandsaufnahme

der Forschungskapazitäten, der Forschungsleistung

und der Forschungsfragen an – und darauf aufbauend

eine Roadmap, einen Forderungskatalog zu entwickeln.

Eine solche Denkschrift wäre für den politischen Diskurs

wichtig, wenn sich die Medientechnik-Branche mit ihren

Anliegen stärker wiederfinden

wolle, sagte er – verbunden mit

dem Angebot, diese Themen in

den Ausschuss für Technikfolgenabschätzung

einzubringen.

Zugriff auf Big Data

Und drängende Fragen gibt es in

der Medientechnik-Forschung

zweifelsohne: Professor Alexander Raake von der TU

Ilmenau erläuterte, dass die Forschung etwa bei der

Qualitätsbeurteilung von Streamingdiensten derzeit aus

rechtlichen Gründen gar keinen Zugriff auf die relevanten

großen Datenmengen hat. „Hier wäre ein Programm

sehr interessant, gemeinsam mit entsprechenden Konsortien

Forschungsdatenbanken zu erstellen, um dies zu

ermöglichen.“

Kreativ-Workshops

Klar ist: Die Medien haben in den vergangenen 20 Jahren

an Bedeutung gewonnen, sagte Fraunhofer-Forscher

Dr. Siegfried Fößel. Es müsse viel mehr in die Forschung

investiert werden, aber auch in die Anwendungsbereiche

etwa in Form von Kreativ-Workshops. So schaffe man

neue Möglichkeiten, die technischen Errungenschaften

auch zu nutzen. „Ich hielte es für fatal, wenn wir all diese

Entwicklungen nur den großen Hightech-Unternehmen

überlassen.“ Was in der Politik bisher vergessen worden

sei: „Medientechnik ist nicht mehr klassisches produzierendes

Gewerbe, Medientechnik ist heute Informationstechnik.“

Cluster-Bildung

Professor Mike Christmann sieht dies ähnlich. „Wir sind

nicht mehr diejenigen, die mit 15-Kilo-Kameras ins Feld

ziehen – wir sind die Informationsübertrager von der

Bildquelle bis zur Bildsenke“, betonte er. Christmann

regte an, ein gemeinsames Cluster zu bilden, in dem die

Medientechnik-Forschung ihre Themen bündelt und ihre

Forschungsaktivitäten gemeinsam mit der Industrie in

verschiedene Projekte definiert.

„Informationsübertrager

von

Bildquelle bis Bildsenke“

Bündelung bestehender Kräfte

Professor Ulrich Reimers stellte Themen aus dem Umfeld

der Medientechnik vor, deren Stellenwert von acatech,

der Akademie für Technikwissenschaften, in ihrem Technikradar

2020 im Vergleich zu anderen Technik-Feldern

ermittelt worden war. Auf Platz zwei liegt

„5G – Potentiale für die deutsche Industrie“. Auf Platz

sieben folgt „Automatisierte

Cyber-Abwehr-Systeme“ und auf

Platz 16 „Virtual Reality (VR)/Augmented

Reality (AR)“. Er rät, die

Erkenntnisse des Technikradars bei

Überlegungen zu Gesprächen mit

politischen Gremien zu beachten.

Wenn die Branche Einfluss nehmen

wolle, dann sollte sie selbst

es organisatorisch zusammenbringen. „Und wenn wir

in der Medientechnik Einfluss gewinnen wollen, auch

in Richtung auf Förderprogramme, geht das nicht ohne

Beteiligung der Deutschen TV-Plattform. Insofern sollten

wir sehen, dass – wenn wir etwas Derartiges wollen – wir

nichts Separates tun, sondern die Kräfte bündeln, die es

in Deutschland gibt“, bekräftigte Reimers.

Neues Forum

Und die Kräfte werden zum Jahresende 2020 weniger.

„Die Lücke, die die IRT-Schließung verursacht, bereitet

uns relativ große Sorgen“, sagte VDT-Präsident Jürgen

Marchlewitz. Der Verband habe sich mit dem Institut gut

verbunden gefühlt – auch mit Blick auf die internationalen

Organisationen wie zum Beispiel die EBU. „Das fehlt

uns und ich würde mir sehr wünschen, wenn wir eine

Lösung finden würden, wie wir diese Lücke schließen

– zum Beispiel dadurch, dass sich die Experten dieser

Runde vernetzen und wir ein neues Forum für zukünftige,

praxisgerechte Technologien schaffen.“

Zusammenarbeit, Austausch, Diskurs

Für Kooperationen auf allen Ebenen und in allen Themen

– von IP, 5G bis hin zu Virtual Production – sprach sich

auch Sony-Vertreter Claus Pfeifer zum Abschluss der

Expertenrunde von FKT und FKTG aus. „Mein Appell:

Zusammenarbeit, Austausch, Diskurs. Ich weiß, dass

meine japanischen Kollegen die Schließung des IRT sehr

bedauerlich finden und ich hoffe, dass andere Gruppierungen

wie die FKTG oder die Deutsche TV-Plattform

Teile der Aufgaben übernehmen können, um dieses

Sprachrohr in die internationalen Tech-Konzerne

bringen zu können.“

Martin Braun

Hinweis: Ein Mitschnitt der zweistündigen Veranstaltung

ist auf YouTube zum kostenfreien Abruf verfügbar

(https://youtu.be/C0AhrVvWTaY).

Auf Wiedersehen: Weitere Online-Expertenrunden sind in Planung.

Literatur

[1] Lenzen, Christmann: Dynamische Konvertierung bei der HDR/

SDR-Parallelproduktion. In: FKT 4/2020, S. 33ff.

[2] Feldmann, Ebner, Schreer, Bliedung: Volumetrisches Video –

Professionelle Aufnahme und Produktion. In: FKT 8-9/2018, S. 43ff.

[3] Braun: Bitteres Ende. Institut für Rundfunktechnik (IRT) wird

aufgelöst. In: FKT 8-9/2020, S. 6ff.

[4] Maroni, Köhler, Fisseler, Becker: Die ARD Mining-Plattform.

In: FKT 5/2020, S. 22ff.


FKT Dezember 2020

Magazin _ Produktion und Post 19

Quelle: Convit GmbH

MAGAZIN

Der neue

Standard im Newsroom

Künstliche Intelligenz

in der redaktionellen Themenplanung

Newsrooms

müssen die

Nachrichten- und

Informationslage

permanent

monitoren,

das Relevante

herausfiltern und

es in ihre eigene

Themenplanung

aufnehmen.

350.000 Tweets, 65.000 Foto-Uploads und 350.000 Scrolls auf Instagram, mehr als 400 Stunden

neues Videomaterial auf YouTube, 3,8 Millionen Suchanfragen bei Google – und das in nur

einer Minute. 1) Diese Fakten verdeutlichen, wie herausfordernd es für eine Redaktion ist, aus der

Unmenge an Informationen jene herauszupicken, die für das jeweilige Medium und dessen Zielgruppe

relevant sind. Manuell lässt sich solch eine Aufgabe keinesfalls bewältigen. Auch gängige

Technologien und Systeme stoßen zunehmend an ihre Grenzen. Grenzen, die eine redaktionelle

Themenplanung auf Basis von künstlicher Intelligenz (KI) durchbricht.

Redaktionen – ganz gleich, ob in großen Medienkonzernen,

überregionalen Tageszeitungen, lokalen

Wochenblättern oder Agenturen – stehen allesamt vor

derselben Herausforderung: Nicht nur die Menge an

Informationen wächst rasant, sondern auch die Anzahl

der Informationsquellen. Zu den etablierten Quellen,

wie etwa Nachrichtenagenturen, Recherchenetzwerke,

Pressesprecher, Veranstaltungsportale, Behörden,

Quelle: Convit GmbH

JOCHEN SCHON,

Geschäftsführer der Convit GmbH

www.convit.de

1) https://www.coupofy.com/social-media-in-realtime/


20 Magazin _ Produktion und Post Dezember 2020 FKT

MAGAZIN

Eine KI überwacht

unzählige

Streams und

sortiert die

eingehenden

Meldungen.

Quelle: Convit GmbH

persönliche Kontakte und die Recherchen der eigenen

Redakteure, gesellen sich immer mehr Posts aus

den sozialen Medien. Vor diesem Hintergrund sind

Newsrooms gefordert, die Nachrichten- und Informationslage

permanent zu monitoren, das Relevante

herauszufiltern und es in ihre eigene Themenplanung

aufzunehmen. Immer dann, wenn Informationen digital

vorliegen, entfaltet eine KI ihre besondere Stärke: Sie

ist in der Lage, unzählige Streams zu überwachen und

die eingehenden Meldungen vorzusortieren – von

Nachrichtentickern über die Websites von Medienhäusern

bis hin zu Twitter-Feeds. Zudem strukturiert sie

eingehende Meldungen sowie Posts und fasst diese in

Themen-Clustern zusammen.

Themenspezifische Meldungen

und Beiträge KI-basiert analysieren

Im Mittelpunkt stehen dabei Methoden des Natural

Language Processings (NLP). Die künstliche Intelligenz

untersucht vorhandene Texte, Meldungen und Posts im

Hinblick auf Merkmale (Features) wie Personen, Orte,

Institutionen und Sachverhalte. Auf Basis einer Named

Entity Recognition extrahiert sie dabei relevante Informationen

und erkennt inhaltliche Zusammenhänge. Die

KI leitet aus den Texten weitere sinntragende Informationen

über die bereits offengelegten Merkmale ab.

Indem sie die gefundenen Merkmale (Entitäten) dann

über ein Wissensnetz begrifflich eindeutig bestimmt

(Disambiguierung), kann sie eine Entität wie „Angela

Merkel“ definieren und ihr eine Bedeutung zuschreiben,

etwa „Bundeskanzlerin“. Zugleich generiert sie mittels

Disambiguierung hilfreiche Zusatzinformationen und

fügt sie der Entität hinzu, zum Beispiel „Frau“, „Physikerin“,

„Bundestag“, „Berlin“, „CDU“. Nachdem die KI die

Merkmale in Vektoren umgerechnet hat, vergleicht sie

die Features verschiedener Texte aus unterschiedlichen

Quellen miteinander und berechnet, wie ähnlich die inhaltlichen

Ausprägungen sind (Embedding). Abschließend

erstellt sie eine Liste mit passenden Meldungen

und Informationen.

Beiträge crossmedial planen

Indem die künstliche Intelligenz die Nähe zwischen

Themen berechnet und ähnliche Meldungen – übersichtlich

sortiert – in einem Dashboard darstellt, gewinnen

Redakteure sehr schnell einen guten Überblick über die

aktuelle Themen- und Nachrichtenlage. Zugleich können

sie verschiedene Themenkomplexe gezielt durchsuchen

und relevante Nachrichten taggen: Während ein Artikel

eines konkurrierenden Mediums zum Beispiel einen

Überblick über ein Thema liefert, geht ein Nachrichtensender

in einem Beitrag auf seiner Website näher auf

einen bestimmten Aspekt desselben Themas ein. Parallel

kündigt sich in den sozialen Medien ein Shitstorm an,

weil das Thema gesellschaftliche Brisanz hat. Redakteure

können nun entscheiden, welche Aspekte sie für einen

späteren Artikel oder TV-Beitrag als relevant erachten.

Per Drag-and-Drop ist es ihnen möglich, ihrer eigenen

Themensammlung thematisch passende Tweets und

multimediales Archivmaterial hinzuzufügen. Indem sie

diese Themensammlung um Agentur- und Pressemeldungen

sowie Social Media Posts erweitern, ergibt sich

ein immer vollständigeres Bild des Themas. Wichtig ist,

dass alle Objekte innerhalb der Themensammlung miteinander

verknüpft sind. So ist sichergestellt, dass das

immer komplexere Weltgeschehen in der redaktionellen

Themenplanung adäquat abgebildet ist. Schlussendlich

sind Redakteure in der Lage, Beiträge für alle an das

Tool angebundenen Kanäle und Plattformen crossmedial

zu planen und auf Basis der vorab erstellten Themensammlung

passende Artikel zu erstellen sowie medienspezifisch

umzusetzen. Dabei stellen Konnektoren

zu Social-Media-Plattformen und internen Produktionssystemen

sicher, dass Beiträge weiterverarbeitet und im

gewünschten Publikationsmedium veröffentlicht werden

können.

Collaboration erhöht Effizienz

von Redaktionen

Um zu verhindern, dass mehrere Redakteure denselben

Themenkomplex bearbeiten, zeigt das KI-basierte

Planungs-Tool an, ob sich weitere Kollegen mit dem


FKT Dezember 2020

Magazin _ Produktion und Post 21

identischen Sachverhalt beschäftigen. Davon profitieren

insbesondere die Newsrooms großer Medienhäuser. Sie

können die Ressourcen ihrer Mitarbeiter besser nutzen:

Redakteure arbeiten entweder gemeinsam an einem vielschichtigen

Thema oder beleuchten jeweils verschiedene

Aspekte eines Themenkomplexes. Die Fähigkeit, kollaborativ

zusammenzuarbeiten und personelle Ressourcen

optimal zu nutzen, steigert die Effizienz und den Output

von Redaktionen deutlich.

MAGAZIN

Dem Wettbewerb einen Schritt voraus sein

Einen weiteren Vorteil entfaltet eine Lösung für die

KI-gestützte Themenplanung beim Monitoring der Konkurrenz.

Die künstliche Intelligenz analysiert ähnliche

News des Wettbewerbs und generiert aus ausgewählten

Twitter-Feeds individuell zusammenstellbare Streams,

die sich in Echtzeit aktualisieren. So erhalten Redakteure

bei der Ausarbeitung eines Themas einen aktuellen

Überblick über die neuesten Veröffentlichungen

innerhalb ihrer Peer Group. Sie wissen nicht nur, welches

Medium sich auf welche Aspekte fokussiert, sondern

auch, welche Themen in welchem Kanal und in welchem

regionalen oder lokalen Umfeld gerade im Trend liegen.

Auf dieser Grundlage können sie sich mit ihrem eigenen

Beitrag vom Wettbewerb abgrenzen, sich einem Thema

aus einer anderen Perspektive nähern oder es inhaltlich

weiterführen. Auch für eine wirkungsvolle Suchmaschinenoptimierung

(SEO) ist es essenziell, die Konkurrenz

im Auge zu behalten. Mit dem Wissen um den Wettbewerb

können Redaktionen ihr Ranking in organischen

Trefferlisten deutlich verbessern.

Archivmaterial automatisch durchsuchen

Neben der Planung leistet ein KI-basiertes Planungs-

Tool auch bei der Themenausarbeitung eine wertvolle

Hilfestellung. Mittels Verschlagwortung können Redakteure

festlegen, welche Aspekte sie in einem späteren

Artikel oder TV-Beitrag beleuchten möchten. Sie

wählen aus einer Input-Liste, welche die KI automatisch

generiert, relevante aktuelle Inhalte aus verschiedenen

Quellen sowie passende Keywords aus und fügen sie

ihrer Themensammlung hinzu. Die gewählten Keywords

machen das Thema für andere Redakteure leichter

auffindbar. Zudem können Anwender das Archivmaterial

KI-gestützt durchsuchen, etwa nach früheren Veröffentlichungen

der eigenen Redaktion sowie nach passendem

Bild-, Video- und Audio-Material. Sie geben ein Stichwort

in die Suchmaske ein, und die KI spielt passende

Vorschläge innerhalb weniger Millisekunden aus, indem

sie die ebenfalls durch Verfahren der künstlichen Intelligenz

automatisch extrahierten Metadaten im Hinblick

auf ihre Ähnlichkeit mit dem Suchbegriff analysiert. So

gewinnen Redakteure einen Überblick über ein Thema

und können in einem neuen Artikel auf ältere Beiträge

verweisen oder sie verlinken.

Wissen, welche Themen morgen relevant

sein werden

Über die momentanen Möglichkeiten hinaus wird ein

KI-gestütztes Tool für die crossmediale Themenplanung

zukünftig große Potenziale eröffnen, was die Erstellung

von Prognosen betrifft. Indem eine künstliche Intelligenz

auf Unmengen an historischen sowie Reichweitendaten

zugreift und sie gezielt auswertet (Big Data), kann sie

Vorhersagen für zukünftige Entwicklungen ableiten

und ein recht zuverlässiges Prognosemodell entwickeln:

Redakteure können ihrer Themensammlung multimediales Archivmaterial,

Social Media Posts sowie Agentur- und Pressemeldungen

hinzuzufügen.

Wie gut sind die Chancen, dass sich ein Thema zu einem

Trend entwickeln wird? Hat es das Potenzial, eine große

Reichweite zu erzielen? Die Kenntnis um erwartbare

Trends versetzt Newsrooms in die Lage, aus der Vielzahl

an Themen die vielversprechendsten herauszufiltern und

ihre Mitarbeiter optimal einzusetzen, um die richtigen

Themen auszuarbeiten.

Gekommen, um zu bleiben

KI-gestützt automatisiert sind viele Prozesse der crossmedialen

Themenplanung keine ineffiziente Aufgabe

mehr, sondern Erfolgsfaktoren, die den entscheidenden

Unterschied zum Wettbewerb machen. Redaktionen können

beliebige Informationsquellen in einem zentralen Tool

bündeln, inhaltlich verwandte Informationen zu einem

Thema zusammenfassen und Beiträge aller Art einfach

und schnell planen – von Texten über Videos und Audios

bis hin zu Social Media Posts. Schon bald wird es möglich

sein, ein redaktionelles Planungs-Tool zu einer vollständigen

Redaktions-Plattform zu erweitern – crossmediale

Produktion inklusive. Dabei wird eine KI zum Beispiel

nicht nur automatisch ermitteln, in welchem Format ein

Video-Beitrag in welchem Kanal auszuspielen ist und ihn

in das benötigte Videoformat umwandeln. Sie wird auch

prognostizieren, wann der ideale Zeitpunkt sein wird, um

das Video auszuspielen. KI-gestützte Redaktions-Tools

werden kommen – und bleiben.

JOCHEN SCHON

ist Gründer und Geschäftsführer der Convit GmbH. Das 2015 gegründete IT-

Start-up mit Sitz in Köln hat sich der Mission verschrieben, Unternehmensprozesse

durch die optimale Nutzung von Daten und maschinellen Lernverfahren

zu automatisieren und so Zeit sowie kreative Potenziale für die innovative

Weiterentwicklung im digitalen Zeitalter zu aktivieren. Vor der Gründung

seines Unternehmens war der Diplom-Informatiker mehr als zehn Jahre am

Fraunhofer Institut für intelligente Analyse- und Informationssysteme (IAIS) beschäftigt,

zuletzt als Abteilungsleiter im Bereich Organized Knowledge. Jochen

Schon hat es sich nicht nur zur Aufgabe gemacht, Cutting-Edge-Technologien

aus den Bereichen Big Data und Künstliche Intelligenz für die Wirtschaft nutzbar

zu machen, sondern auch, deren Möglichkeiten und Grenzen aufzuzeigen.

Vor diesem Hintergrund hält er auch praxisorientierte Vorträge über „Künstliche

Intelligenz in der Medienproduktion“.

Quelle: Convit GmbH


SCIENCE

WWW.FKT-ONLINE.DE

12|2020

FACHZEITSCHRIFT FÜR

FERNSEHEN, FILM UND

ELEKTRONISCHE MEDIEN

RUNDFUNKTECHNISCHE

MITTEILUNGEN DES IRT

23 VIRTUOSA – Der Weg zu 5G und

Virtualisierung in der

Rundfunkproduktion (POC)

ANDREAS METZ, HACI M. CENGIZ

26 5G TODAY – Versorgungsprognosen

und Feldtests

ANETA BAIER, KERSTIN PFAFFINGER,

32 VVENC und VVDEC:

Fraunhofer HHI stellt offene,

optimierte Implementierungen des

neuen Videokodierstandards

H.266/VVC bereit

ADAM WIECKOWSKI, BENJAMIN BROSS,

DR. DETLEV MARPE

MAHMOUD ALMARASHLI


FKT Dezember 2020

Forschung & Entwicklung _ Beiträge 23

VIRTUOSA – DER WEG ZU 5G

UND VIRTUALISIERUNG IN DER

RUNDFUNKPRODUKTION (POC)

FORSCHUNG

ANDREAS METZ, HACI M. CENGIZ

Das EU-Forschungsprojekt VIRTUOSA demonstriert

die Kombination von 5G mit Virtualisierungskonzepten

für eine effizientere und kostengünstiger

standortübergreifende Produktion von

Live-Inhalten – wie beispielsweise Sport- oder

Musikberichterstattungen. Die neue Generation

von Mediennetzwerken basiert auf drahtloser

5G-Kommunikation und auf Technologien, die in

der IT bereits weit verbreitet sind, bislang aber

nicht für die Medienproduktion geeignet erschienen:

Internet Protocol (IP)-Technologie, Software-Defined

Networking (SDN)-Technologie,

Network Function Virtualization (NFV), High Performance

Computing (HPC) und Cloud Computing.

Einführung – All-IP

Alle modernen Netze basieren auf dem sogenannten Internet

Protokoll (IP). Dies ermöglicht prinzipiell eine universelle

Kommunikation aller Dienste innerhalb nahezu aller global

vernetzten Orte – auch innerhalb der Medienproduktion.

Neben der weltweiten Signalzuführung in die Funkhäuser

durch Reporter löst die IP-Produktion auch innerhalb eines

Studios und auf dem Mediencampus den Einsatz klassischer

Video- und Audiosingale ab.

Die Migration der altbewährten Signale wie SDI, ASI und

AES3 auf eine standardisierte Netzwerkstruktur wurde anfangs

in Zweifel gezogen, später kontrovers diskutiert. Mit

dem Projekt VIRTUOSA sollte der Beweis gelingen, dass eine

komplette Medienproduktion über IP-Infrastrukturen sowohl

im Studio zwischen den Medienstandorten als auch mobil

über moderne 5G-Netze technisch möglich ist und darüber

hinaus den Anforderungen der Medienschaffenden gerecht

wird.

Use-Case in drei Phasen

Das Projekt wurde zeitlich in drei aufeinander aufbauende

Phasen gegliedert, von denen jede einen typischen Anwendungsfall

in der Medienproduktion definierte. In Phase 1

wurde die Produktionsinfrastruktur eines Hauptstudios auf

Basis des SMPTE-Standards ST2110 im IRT nachgebaut. Sie

bildete die typische Studioproduktion von Magazinen und

Nachrichtensendungen ab: der Moderator befindet sich im

Studio, eventuell mit einem oder mehreren Studiogästen.

Alle Beiträge wurden vorproduziert und liegen auf einem

Server zur Einspielung bereit. Das Studio umfasst mindestens

eine Kamera (besser zwei bis drei Kameras), für jede

Person ein Mikrofon, einen Kontrollmonitor für den Moderator

und je nach Studio-Design einen Monitor/Videoleinwand

im Hintergrund des Moderators. In Phase zwei wird das Produktionsstudio

um ein Remote-Studio erweitert: ein zweites

Studio zur Livezuschaltung eines Interviewgastes. Dabei

handelt es sich um eine professionelle Studioumgebung,

wie sie typischerweise in einem Regional- oder Auslandsstudio

anzutreffen ist. Die Anbindung erfolgt in der Regel

über permanente Verbindungen und je nach Situation und

Anforderungen werden codierte oder sogar unkomprimierte

Video- und Audiosignale übertragen. In Phase drei wird der

Versuchsaufbau um eine mobile Reportereinheit ergänzt, um

die kurzfristige Berichterstattung von auswärts abzubilden.

Die Anbindung an das Hauptstudio erfolgt dabei über eine

mobile 5G-Infrastruktur.

Technische Realisierung

Die technische Realisierung der lokalen IP-Produktionsinfrastruktur

setzt im Kernnetz auf moderne Spine-Leave-Architektur

mit Mellanox-Switches vom Typ SN3700. Sowohl die

Produktionsmittel als auch die Test- und Messgeräte wurden

direkt an die Leaf-Switches angebunden. Das Netz wurde so

strukturiert, dass die Leaf 1-Switches alle Geräte des Produktionsstudios

und die Leaf 2-Switches das Equipment der Regie

enthielten. Im IP-Studio wurden alle Video- und Audiosignale

der beiden Sony HDC-3100 Kameras und der StageTec

Nexus-Audiokreuzschiene nativ über IP bereitgestellt. Um

auch klassische Basisbandsignale in eine IP-Produktion zu

integrieren, wurden die Nevion Virtuoso MI als Video-Gateways

verwendet und der Videoserver Sony PWS-4500 sowie

alle Monitore über SDI-Verkabelung daran angeschlossen.

Die Regie im Projekt VIRTUOSA war die eines Produktionsstudios.

Alle Videosignale vom und zum Bildmischer

(Sony XVS-6000) sowie vom und zum Multiviewer (TAG MCM

9000) wurden ausschließlich als IP-Streams übertragen. Dasselbe

galt für die Audiosignale: Die Zuführung zur Audioverarbeitung

im StageTec Nexus erfolgte ausschließlich über

das Netzwerk. Selbst die Wiedergabe in der Regie erfolgte

über IP-Lautsprecher. Die Regie-Monitore wurden wiederum

über die VIRTUOSA MI Video-Gateways angeschlossen.

Für die Synchronisation in der VIRTUOSA-Infrastruktur

wurde das PTP-Profil nach Standard SMPTE ST2059 verwendet.

Vergleichbar mit einer klassischen Taktverteilung,

war auch hier die Taktquelle (Meinberg M3000) GPS-verkoppelt.

Die Mellanox-Switches verteilten PTP im Boundary

Clock Modus zu allen Endgeräten, was einem hierarchischen

Master-Slave-Betrieb entsprach. Der nötige Zeitcode wurde

ebenfalls vom PTP abgeleitet. Lediglich der Videoserver, der

im Basisband arbeitete, benötigte die klassische Taktung


24 Forschung & Entwicklung _ Beiträge Dezember 2020 FKT

FORSCHUNG

Abbildung 1: Software Defined Networking Orchestrator

Quelle: Screenshot aus VIRTUOSA VideoIPath-System

über Black Burst. Eine zusätzliche Verkabelung für Takt- und

Zeitinformationen entfiel damit.

Verwendung offener Standards

Der Aufbau einer kompletten Produktionsumgebung setzt

die Integration von Geräten unterschiedlichster Hersteller

voraus. Damit alle Audio-, Video-, Metadaten- und Taktsignale

problemlos zwischen den verschiedenen Geräten ausgetauscht

werden können, sind standardisierte Schnittstellen

unumgänglich. Dies ändert sich auch mit der Transformation

zu einer IP-Infrastruktur nicht. Im Projekt VIRTUOSA wurde

daher durchgehend die Standardfamilie SMPTE ST2110

angewendet, da diese für alle Essenzen einen eigenen, separaten

IP-Stream beschreibt – analog zur klassischen Infrastruktur

im Basisband – und somit bestens für Studioumgebungen

geeignet war. Auf eine Kompression der Video- oder

Audiosignale wurde verzichtet, was die minimalen Delays

und die bestmögliche Qualität ermöglichte. Für die Synchronisation

und Zeitverteilung in IP-Netzen wurde das Precision

Time Protokoll (PTP) nach Standard IEEE 1588 definiert. Für

die professionelle Medienproduktion fand die Definition

nach SMPTE ST2059 Anwendung.

Video IPath – Software Defined Networking

Orchestrator

Das Projekt VIRTUOSA wurde im Kernelement mit der

SDN-Orchestrator-Software von NEVION/SONY realisiert,

welche die volle Integration der Media- und IP-Nodes umfasst

und eine zentrale Verwaltung von Netzwerkgeräten ermöglicht.

Das System diente für die Media Nodes als NMOS

IS-04 Registry Server und steuerte diese per NMOS IS-05.

Media Nodes, die noch kein NMOS integriert hatten, wurden

per Treiber oder per NAT’ing (Network Address Translation)

eingebunden.

Die Anbindung der verwendeten Mellanox-Switches

SN3700 an den SDN-Orchestrator erfolgte mit OpenFlow,

einem Netzwerkprotokoll, das die direkte und sichere Kommunikation

zwischen Netzwerksystemen über Ethernet ermöglichte.

In diesem Modell wurde ein IP-Paket dann gemäß

der OpenFlow-Konfiguration weitergeleitet, wenn eine solche

Konfiguration mit den Paketparametern übereinstimmte.

Andernfalls wurde das Paket durch die normale Pipeline

(normale Weiterleitung/Routing) behandelt. Die Switch-Implementierung

basierte auf dem Hybridmodell, dass die

Koexistenz einer OpenFlow-Pipeline und einer normalen

Pipeline ermöglichte. Somit konnten die Switches und In-

Band betriebenen Geräte an das vorhandene Management

Netzwerk des IRT angeschlossen werden.

Die Verwaltung der verwendeten Multicast IP-Adressen

wurde bei NMOS- und SDP-gesteuerten Geräten dem Orchestrator

überlassen, der diese dynamisch aus seinem Pool

zuwies. Video IPath berechnete serviceorientiert den optimalen

Ende-zu-Ende-Pfad für jede beliebige Verbindung.

Das System berücksichtigte die derzeitig und zukünftig verfügbare

Bandbreite und verhinderte so die Überbuchung

einer Leitung. Dabei wurden die Redundanzanforderungen

voll einbezogen und SMPTE 2022-7 Ströme disjunktiv per

„Shortest Path First“-Algorithmus geschaltet.

Schalten im Netz

Ein „sauberes“ bzw. synchronisiertes Umschalten zwischen

zwei Signalen stellt die IP-Produktion vor eine Herausforderung.

Bisher verhält es sich so, dass ein Endpunkt beide Ströme

abonniert, diese puffert, zwischen diesen Strömen umschaltet

und das ursprüngliche Signal abmeldet. Make-before-Break

ist ein Ansatz, der sich dieser Problematik annimmt.

Er verzichtet auf eine Verdopplung der Bandbreite, indem

der redundante Pfad für die neue Verbindung verwendet

wird, sofern eine Redundanz besteht.

Neben der verdoppelten Bandbreite ergibt sich das

Problem der zeitlichen Divergenz, bedingt durch separate

API-Aufrufe für eine Umschaltung. Diese zeitliche Divergenz

kann sich je nach Menge der gleichzeitig geschalteten Signale

auch akkumulieren. NVIDIA (ehemals Mellanox Technologies)

hat eigens für das Projekt VIRTUOSA eine Lösung entwickelt.

Das „saubere“ Umschalten soll demnach im Switch

selbst passieren, sodass ein Endgerät bei der Umschaltung

nicht beide Signale gleichzeitig empfangen muss. Diese

Umschaltung muss so erfolgen, dass der Empfänger davon

nicht gestört wird bzw. es zu einem Aussetzer kommt. Der

Ansatz basiert auf RTP-Zeitstempel und die Verwendung

des oxm_field im OpenFlow (OpenFlow Extensible Match

Quelle: Screenshot aus VIRTUOSA VideoIPath-System

Abbildung 2:

SDN-Ansicht der Topologie


FKT Dezember 2020

Forschung & Entwicklung _ Beiträge 25

Abbildung 3:

Nachverfolgung der

einzelnen Dienste

Quelle: Screenshot aus VIRTUOSA VideoIPath-System

FORSCHUNG

Quelle: IRT

Quelle: LOGIC

Format – OXM). Die RTP-Pakete desselben Frames beinhalten

alle den gleichen Zeitstempel. Die Entwicklung von NVI-

DIA für VIRTUOSA kann Ingress-Signale auf RTP-Zeitstempel

abgleichen, am Ende eines Frames umschalten und auf die

Egress-Ports weiterleiten.

Diese Entwicklung wird im Switch implementiert und in

Phase 2 des Projektes eingesetzt, in der die Produktionsbedingungen

über zwei Standorte untersuchen werden. Der

Fokus der Phase 2 liegt auf der Echtzeit-Anwendung über

WAN für eine Produktion. Die Kosten für solche WAN-Verbindungen

steigen mit der Bandbreite und erlauben keine Verzögerung

für Live Produktionen. Diesen Bedarf zu decken,

wird für Kontribution zwischen den Lokationen JPEG XS

angewendet. Die Eigenschaften vom JPEG XS zeichnen sich

durch eine effektive Kompression bei geringer Laufzeit aus

und bietet sich deshalb für Remote-Produktion sehr gut an.

Das VIRTUOSA-Projekt ist getrieben von Innovationen.

Die Einbindung von Cloud Applikationen, Remote-Einheiten

und zentrale Geräte sind Ressourcen, die dynamisch eingebunden

werden müssen. Die Anforderung dafür wird sein,

eben diese autonomen Systeme für Produktionen unterschiedlicher

Art zusammenzuschalten, um Signale auszutauschen.

Das müssen die SDN-Controller untereinander, sicher

und kontrolliert, kommunizieren können.

Zusammenfassung

ANDREAS METZ (FKTG)

ist Projektleiter und Senior Engineer –

Department Future Networks im Institut

für Rundfunktechnik.

www.irt.de

HACI M. CENGIZ

ist SDN-Pionier und Solution Strategist

bei LOGIC.

www.logic.tv

Die Projektpartner haben im Projekt VIRTUOSA beleuchtet,

wie die Optionen von IP, Cloud und Orchestrierung zur Gestaltung

künftiger technischer Entwicklungen genutzt werden

können. Eine komplett funktionstüchtiges IP-Produktionsstudio

wurde aufgebaut. Die Steuerung aller Video-,

Audio- und Metadaten erfolgte herstellerübergreifend und

nach der aktuellen NMOS-Logik. Für die Umsetzung wurden

ausschließlich am Markt verfügbare Produkte verwendet. Anfängliche

(Schnittstellen-)Probleme, bedingt durch Neuimplementierung

der NMOS-Treiber oder Integration neuer

Produktserien, konnten gemeinsam mit den Projektpartnern

und -unterstützern behoben werden. Das Gesamtsystem

wurde nach der Inbetriebnahme durch das IRT erfolgreich auf

Standardkonformität und die prinzipielle Eignung für eine

Produktionsumgebung untersucht. Bei Tests und Messungen

wurde das JT-NM Tested Programm Version 1.3 verwendet

und auf die langjährige Erfahrung des IRT zurückgegriffen.

Die COVID-19-Pandemie hat das Projekt überschattet

und den Projektablauf beeinflusst, war aber gleichzeitig der

ultimative Beweis, dass der in 5G-VIRTUOSA gewählte Ansatz

einer IP-basierten Produktion richtig und nötig ist, um auch

in Zukunft flexibel, kostengünstig und effizienter zu produzieren.

Projektpartner

Weitere Informationen zum Projekt 5G-VIRTUOSA und den

Partnern finden sie unter www.5g-virtuosa.eu.

NEWSLETTER

wöchentlich & kostenlos

die neusten Infos über

› Personalentwicklungen

› Unternehmen

› Produkte und Lösungen

› Standards und Dienste

› Termine

www.fkt-online.de/newsletter


26 Forschung & Entwicklung _ Beiträge Dezember 2020 FKT

FORSCHUNG

5G TODAY – VERSORGUNGS-

PROGNOSEN UND FELDTESTS

ANETA BAIER, KERSTIN PFAFFINGER, MAHMOUD ALMARASHLI

Im Forschungsprojekt 5G TODAY wurde weltweit

das erste großflächige 5G-Testfeld für Fernsehübertragungen

auf mobile Endgeräte betrieben.

Gefördert von der Bayerischen Forschungsstiftung

(BFS), erprobten die Projektpartner Institut

für Rundfunktechnik (IRT), Kathrein Broadcast und

Rohde & Schwarz sowie die assoziierten Projektpartner

Bayerischer Rundfunk (BR) und Telefònica

Deutschland die TV-Verbreitung für eine künftige

5G-Technologie. Das Projekt stieß auf weltweit

großes Interesse – in der Rundfunkbranche und

darüber hinaus.

Die unter dem Begriff 5G Broadcast bekannte Technologie

ermöglicht die Rundfunkverbreitung auf Basis des

4G/5G-Mobilfunkstandards. Sie basiert auf der FeMBMS

(Further Evolved Multimedia Broadcast Service)-Spezifikation,

die im Sommer 2017 im 3GPP Release 14 mit dem Ziel

verabschiedet wurde, die Belange der Rundfunkanbieter

besser zu berücksichtigen. Zu den wichtigsten Eckpunkten

der FeMBMS-Spezifikation zählen: der Empfang der Medieninhalte

ohne SIM-Karte und ohne Authentifizierung, die Verfügbarkeit

von bis zu 100 Prozent der Übertragungskapazität

für Rundfunkanwendungen, sowie die Realisierung deutlich

größerer Senderabstände als in der Mobilfunkwelt üblich.

Tabelle 1: Symbollängen für CAS and MBSFN-Teil des FeMBMS-Signals

Subframe-Typ Funktion Symbollänge

CAS (Cell Acquisition

Subframe)

MBSFN (Multimedia

Broadcast

Single Frequency

Network)

Synchronisation

& Signalisierung

Abbildung 1: FeMBMS Radioframe

Cyclic Prefix

(CP)

Trägerabstand

66,67 µs 16,67 µs 15 kHz

Daten 800 µs 200 µs 1,25 kHz

Die Erprobung der TV-Verbreitung über 5G Broadcast fand

vom 1. Juli 2017 bis 29. Februar 2020 statt. Zuerst wurden

Komponenten für Sende- und Empfangstechnik entwickelt

und anschließend ein Testfeld im Bayerischen Oberland in

Betrieb genommen. Zwei Hochleistungssender mit je 100 Kilowatt

Antennenleistung an den Standorten Ismaning und am

Wendelstein versorgten das gesamte Bayerische Oberland.

Auf Basis dieses High-Power-High-Tower-Konzepts (HPHT)

wurde die großflächige Ausstrahlung von Fernsehprogrammen

über 5G Broadcast getestet. Im Rahmen des Projektes

fanden umfangreiche Voruntersuchungen, Simulationen und

Feldmessungen statt, mit dem Ziel, 5G Broadcast als Rundfunktechnologie

zu evaluieren. Die Versorgungsprognosen

und einige wesentliche Ergebnisse der Feldmessungen werden

hier vorgestellt.

1. Grundlagen

Die FeMBMS-Spezifikation im 3GPP Rel. 14 des LTE/5G-Standards

soll die Rundfunkübertragung im SFN (Single Frequency

Network) über HPHT-Netze ermöglichen. Hierzu wurden

LTE Numerologies definiert, welche durch die Verwendung

geringer Trägerabstände große Cyclic Prefix (CP)-Längen erlauben.

Tabelle 1 zeigt die Symbollängen und CP-Längen für

verschiedene Subframe-Typen.

Für den Trägerabstand von 1,25 kHz ergibt sich eine

CP-Länge von 200 µs. Diese Konfiguration ist für die Datenübertragung

spezifiziert. Für die Synchronisation und Signalisierung

im Rahmen einer 100-prozentigen MBSFN-Übertragung

werden jedoch noch zusätzliche Kontrollinformationen

benötigt, welche im CAS-Signal mit einem CP von 16,67 µs

enthalten sind. Abbildung 1 zeigt den schematischen Aufbau

eines FeMBMS-Radioframes und die Lage des darin befindlichen

CAS-Signals (rot markiert). Das CAS-Signal befindet sich

auf dem Subframe #0 und wird mit einer Periode von 40 ms

übertragen. Es ist somit in jedem vierten LTE-Radioframe enthalten.

In den restlichen 39 MBSFN-Frames werden die Daten

übertragen. Eine Versorgung für das Datensignal ist nur dann

gewährleistet, wenn sowohl das MBSFN- als auch das CAS-Signal

empfangen werden können. Das CAS-Signal verfügt nur

über ein sehr kurzes CP, was es für den Gleichwellennetzbetrieb

in HTHP-Netzen unattraktiv macht. Es ist dafür jedoch

deutlich robuster und benötigt ein wesentlich geringeres

C/N (Carrier to Noise) als das entsprechende Datensignal.

Zwei Varianten hinsichtlich der inhaltlichen Belegung

des CAS-Signals der einzelnen Sender sind möglich: Üblicherweise

sind die im CAS-Signal festgelegten PCIs (Physical

Cell Identity) unterschiedlich. Alternativ lassen sich die Sender

jedoch auch mit identischen PCIs als SFN betreiben und

können somit von einem sogenannten „SFN-Gewinn“ profitieren.

Das FeMBMS-Signal kann verschiedene MCS (Modulation

and Coding Scheme) annehmen. Im Rahmen von 5G

TODAY wurde hauptsächlich MCS9 mit QPSK-Modulation

untersucht.


FKT Dezember 2020

Forschung & Entwicklung _ Beiträge 27

(Quelle: GeoBasis_DE / BKG 2017)

(Quelle: GeoBasis_DE / BKG 2017)

FORSCHUNG

Abbildung 2: 5G TODAY Sendernetz

Abbildung 3: Mobiler Empfang für das Datensignal (MBSFN) für MCS9

2. Sendernetz und Versorgungsprognose

Abbildung 4: Versorgungsprognose mit 3D-Ausbreitungsmodell (Sender Ismaning)

Zur Umsetzung der Versorgungsanforderungen wurde ein

Sendernetz mit zwei Sendern an Standorten des Bayerischen

Rundfunks konzipiert. Die Sendernetzkonstellation ist Abbildung

2 zu entnehmen. Die Ausstrahlung erfolgte im Kanal 56

auf Basis eines FeMBMS-Signals mit 5 MHz Bandbreite und

einer Sendeleistung von jeweils 100 kW ERP für den Sender

Wendelstein und 100 kW für den Sender Ismaning. Der

Abstand zwischen den beiden Sendern beträgt ca. 63 Kilometer.

Der Sender Wendelstein hatte eine Schwerpunkthöhe

der Antenne von 54 Metern, der Standort selbst liegt jedoch

sehr exponiert auf einer Höhe von ca. 1.800 Meter über dem

Meeresspiegel. Das Sendesignal wurde auf die bereits vorhandene,

vertikal polarisierte DVB-T2-Antenne aufgeschaltet.

Am Sender Ismaning betrug die Schwerpunkthöhe der

Antenne 215 Meter. Für diesen Standort wurde von der Firma

Kathrein eine neue Antenne entwickelt, mit der das Signal

wahlweise horizontal, vertikal oder rechtsdrehend zirkular

polarisiert abgestrahlt werden konnte. Für die im Folgenden

beschriebenen Messungen wurde die Sendeantenne in Ismaning

mit vertikaler Polarisation eingesetzt.

Als Basis für die Planungsparameter wurden die Empfehlungen

aus EBU TR034 [1] zu Grunde gelegt und entsprechend

der geforderten Mobilempfangsprognosen für den

Autoempfang mit externer Antenne modifiziert. Die Parameter

sind in Tabelle 2 zusammengefasst. Die Prognose der

Versorgungswahrscheinlichkeit für die FeMBMS-Ausstrahlung

erfolgte auf Basis klassischer Rundfunkplanungstools

und wurde mittels der Planungssoftware FRANSY erstellt. Für

die Netzplanung und -konzeption im Rahmen von 5G TODAY

wurde sowohl das IRT 2D-Modell als auch das IRT 3D-Modell

eingesetzt. In Abbildung 3 ist die Versorgungsprognose für

das Datensignal mit MCS9 zu sehen. Die dargestellte Mobilempfangsprognose

wurde mittels IRT 2D-Modell berechnet.

Es lässt sich erkennen, dass für die Datensignale eine sehr

gute mobile Versorgung im Großraum München zu erwarten

ist.

Ein zusätzlicher Gewinn hinsichtlich der Prognosequalität

ist durch den Einsatz eines 3D-Ausbreitungsmodells

zu erreichen, welches Mehrwegeausbreitung auch über die

Vertikalebene hinaus berücksichtigt. Exemplarisch ist in

Abbildung 4 die Prognose auf Basis hochaufgelöster Topound

Morphodaten für die Feldstärke des Senders Ismaning

dargestellt. Die Berechnung wurde mit dem IRT 3D-Modell

durchgeführt. Die Prognose vermittelt einen Eindruck über

die Abhängigkeit der Feldstärke von der Morphographie. So

zeigen sich sehr differenzierte Feldstärkeverläufe, welche

die zugrundeliegenden morphographischen Gegebenheiten

plastisch widerspiegeln. Der Gewinn, der sich durch die

Reflexionsberücksichtigung ergibt, ist in Abbildung 5 dargestellt.

Es profitieren insbesondere solche Orte von den

Reflexionen, welche ansonsten topo- bzw. morphografisch

bedingt (beispielsweise durch Abschattung) nur schlecht

mit Feldstärke vorsorgt wären. Die Berücksichtigung der Reflexionen

erhöht die Prognosegenauigkeit und erlaubt somit

bereits im Vorfeld eine deutlich detailliertere Planung des

Sendernetzes.

Tabelle 2: Planungsparameter für mobilen Empfang

Mobilempfang

MBSFN

Mobilempfang

CAS

C/N [dB] (hier für MCS 9) 10,7 -6

Bandbreite [MHz] 5 5

Empfängerrauschzahl [dB] 6 6

Man made noise [dB] 1 1

Kabeldämpfung [dB] 0 0

Empfangsantennengewinn [dBd] 0 0

Ortsstreuung [dB] (kombiniert} 5,5 5,5

Resultierende Mindestfeldstärke [dBµV/m]

(10 m Empfangshöhe, 50 % Ortswahrscheinlichkeit)

Resultierende Mindestfeldstärke [dBµV/m]

(10 m Empfangshöhe, 99 % Ortswahrscheinlichkeit)

(Quelle: GeoBasis_DE / BKG 2017)

43,0 26,6

55,8 39,4


28 Forschung & Entwicklung _ Beiträge Dezember 2020 FKT

FORSCHUNG

Abbildung 5:

Feldstärkegewinn

durch

Reflexionsberücksichtigung

(Quelle: GeoBasis_DE / BKG 2017)

3. Verifizierung der Versorgungsprognose

und Ergebnisse der Feldtests

Im Rahmen des Projektes fanden sowohl stationäre als auch

mobile Messungen statt, mittels derer insbesondere der Einfluss

des CAS-Signals auf die Empfangsqualität untersucht

werden sollte. Zur Beurteilung der Netzkonzeption wurden

sowohl das RSRP (Reference Signal Received Power) als auch

das CINR (Carrier to Interference plus Noise Ratio) analysiert.

Da es im Rundfunk üblich ist, die Empfangssituation auf

Basis von Feldstärken anstelle von Leistungen zu bewerten,

wurden die RSRP-Leistungswerte in eine korrespondierende

Feldstärke für ein 5MHz-Signal umgerechnet.

Für die Messungen wurde die Messsoftware KSA der Firma

Kathrein Broadcast/Enkom eingesetzt. Es wurde sowohl

das MBSFN-Datensignal mit einem Cyclic Prefix (CP) von

200 µs betrachtet, als auch das CAS-Signal mit einem CP

von 16,7 µs.

Abbildung 6:

Messroute für

die mobilen

Messungen

(Quelle: GeoBasis_DE / BKG 2017)

Abbildung 7: Vergleich CAS-Messwerte und Prognosen auf der Messroute

3.1 Mobile Messungen

Die Messroute ist in Abbildung 6 dargestellt. Sie verläuft

vom Sender Ismaning in Richtung Sender Wendelstein und

durchquert dabei verschiedene Versorgungssituationen. Die

Prognose des Versorgungspotenzials für das CAS-Signal ist

ebenfalls der Abbildung 6 zu entnehmen. Es werden versorgte

Bereiche (grün), durch Eigeninterferenz gestörte Bereiche

(blau) und aufgrund von Feldstärkemangel nicht versorgbare

Bereiche (rot) ausgewiesen.

Zunächst wurde hinsichtlich der Messwerte eine Plausibilitätsprüfung

durchgeführt, wozu die in Feldstärkewerte

umgerechneten gemessenen RSRP-Werte mit den in

FRANSY prognostizierten Feldstärkewerten verglichen wurden.

Zu diesem Zweck wurden für die Messwerte jeweils

Medianwerte über 100-Meter-Teilstrecken gebildet, um

eine Vergleichbarkeit mit den auf 100x100m-Pixeln durchgeführten

Prognosen herzustellen. Abbildung 7 zeigt einen

Vergleich der Messwerte für das CAS-Signal mit der Prognose.

Für den Fehler zwischen Messung und Prognose ergibt

sich in diesem Fall eine rechtssteile Verteilung mit einem

Mittelwert von -0,2 dB (Medianwert 0,8 dB) und eine Standardabweichung

von 6,9 dB. Auch der nichtlineare Korrelationskoeffizient

gemäß [2] als Maß für den Zusammenhang

zwischen gemessener und berechneter Feldstärke weist in

diesem Fall einen sehr guten Wert auf und zeigt damit für

diese Messroute eine sehr hohe Übereinstimmung der Werte

an. Unter diesem Aspekt erscheinen die Messwerte plausibel

und wurden daher nachfolgend weiteren Analysen unterzogen.

Nach der Verifizierung erfolgten die ersten Messungen,

für die beide Sender mit gleichem PCI betrieben wurden.

Für die Analyse wurden aus den Messwerten Medianwerte

über eine Messstrecke von jeweils acht Metern erstellt. Dieses

Vorgehen diente der Eliminierung von Fast-Fading-Effekten,

die gemäß [3] durch eine Medianwertbildung über

einen Sektor von 20 Wellenlängen erreicht werden. Eine

Darstellung der gemessenen CINR-Werte über der Messroute

findet sich in Abbildung 8. Das CINR steht für das Träger-Interferenz-Verhältnis

und ist ein wichtiger Parameter

für die Beurteilung der Qualität des Empfangssignals. Wenn

das CINR einen erforderlichen Mindestwert übersteigt, kann

vom Empfang eines störungsfreien Videosignals ausgegangen

werden.

3.1.1 Einfluss des PCI

Anschließend erfolgte ein Vergleich der Messwerte für unterschiedliche

und gleiche PCIs. Zu diesem Zweck wurde

zunächst für die gesamte Messroute jeweils für die Feldstär-


FKT Dezember 2020

Forschung & Entwicklung _ Beiträge 29

Abbildung 8: Gemessenes CINR auf der Messroute bei gleichem PCI (MCS 9)

ke sowie für das CINR die kumulative Verteilungsfunktion

berechnet. Dies erfolgte sowohl für das MBSFN-Signal, als

auch für die beiden CAS-Signale der Sender Ismaning und

Wendelstein. Darüber hinaus wurde im Sinne eines Best-Sever-Ansatzes

aus den beiden CAS-Werten jeweils der bessere

für die Auswertung herangezogen und den Einzelsenderwerten

gegenübergestellt. Dies entspräche einem Empfänger,

der in der Lage wäre, sich in jeder Situation auf den

Sender zu synchronisieren, der hinsichtlich der Feldstärke

bzw. dem CINR das beste Ergebnis liefert.

Die Kurven in Abbildung 9 stellen die inverse kumulative

Verteilungsfunktion dar, aus der sich die Überschreitungswahrscheinlichkeit

ablesen lässt. So kann beispielsweise für

das MBSFN-Signal abgelesen werden, dass ein Feldstärkewert

von 70 dBµV/m mit einer Wahrscheinlichkeit von 70 Prozent

auf der Messroute überschritten wird. Wie Abbildung 9 zeigt,

liegen die Werte für das gemessene CAS-Signal bei Gleichwellennetzbetrieb

(gleiche PCIs) und für das CAS-Signal

unter Annahme eines Best Server-Ansatzes sehr dicht beieinander.

Hier ist also über die gesamte Messstrecke betrachtet

kein großer Effekt hinsichtlich des Gleichwellennetzbetriebs

(Netzgewinn oder Eigeninterferenz) erkennbar. Auch

MBSFN- und CAS-Signal zeigen für die Feldstärke ähnliche

Werte. Beim CINR weist das MBSFN-Signal hingegen deutlich

höhere Werte als das CAS-Signal auf. Dies ist sowohl bei

gleichen als auch bei unterschiedlichen PCIs (Best Server)

der Fall und kann als Indiz dafür gewertet werden, dass das

MBSFN-Signal auch bei unterschiedlichen PCIs von einem

gewissen „SFN-Gewinn“ profitiert. Für die Versorgung mit

5G Broadcast könnte in diesem Zusammenhang auch von

Bedeutung sein, wie die Synchronisationsstrategie des Empfängers

realisiert ist – beispielsweise, ob sich der Empfänger

auf das erste oder auf das stärkste Signal synchronisiert.

Da es in Ermangelung kommerzieller Empfänger bisher

keine klare Zuordnung der Messparameter zur objektiven

und/oder subjektiven Empfangsqualität gibt, konnte eine

Abschätzung der möglichen Versorgung lediglich auf Basis

der in Tabelle 2 aufgeführten Mindestfeldstärken und

C/N-Werte erfolgen. Es lässt sich auf der hier betrachteten

Messroute feststellen, dass sowohl für das CAS- als auch

für das MBSFN-Signal ausreichend Feldstärke für eine Mobilversorgung

gegeben wäre (unter Berücksichtigung eines

Höhenabschlags von 10 Metern auf 1,5 Meter Empfangshöhe).

Das gemessene CINR hingegen überschreitet den erforderlichen

C/N-Wert auf der betrachteten Messroute zwar für

das CAS-Signal mit sehr hoher Wahrscheinlichkeit, für das

MBSFN-Signal jedoch nur mit einer Wahrscheinlichkeit von

ungefähr 50 Prozent. Allerdings ist die abfallende Flanke in

diesem Fall sehr steil, so dass ein geringfügig kleinerer erforderlicher

C/N-Wert bereits mit hoher Wahrscheinlichkeit zu

einer Versorgung führen würde.

3.1.2 Vergleich Einzelsender und SFN

Es erfolgte darüber hinaus ein Vergleich zwischen den Einzelsendern

und dem Gleichwellennetz (SFN) hinsichtlich des

CINRs und BLERs (Block Error Rate) für das Datensignal. Die

Vergleichsmessungen wurden auf einer kürzeren Route in

der Münchner Innenstadt durchgeführt. Im SFN-Fall hatten

die beiden Sender Ismaning und Wendelstein das gleiche

PCI, im Einzelsenderfall entsprechend unterschiedliche PCI.

In Abbildung 10 sind die Überschreitungswahrscheinlichkeiten

des CINRs auf der Stadtroute dargestellt. Abbildung 11

FORSCHUNG

Abbildung 9: Überschreitungswahrscheinlichkeit für Feldstärke und CINR auf gesamter Messroute


30 Forschung & Entwicklung _ Beiträge Dezember 2020 FKT

FORSCHUNG

Quelle: IRT

ANETA BAIER

ist am IRT im Bereich Future Networks

als Senior Engineer tätig. Sie war die

Projektleiterin des Bayerischen Forschungsprojektes

5G TODAY.

www.irt.de

Abbildung 10: CINR-Vergleich Einzelsender und SFN für das Datensignal auf der Route

in der Münchner Innenstadt

Abbildung 11: BLER-Vergleich Einzelsender und SFN für das Datensignal auf der Route

in der Münchner Innenstadt

Abbildung 12:

Messpunkte für

stationäre Messungen

(Quelle:

GeoBasis_DE /

BKG 2017)

zeigt die dazugehörige Auswertung der BLER. Beide Abbildungen

beziehen sich auf den Sendebetrieb mit MCS9.

Ein Netzgewinn für das SFN im Vergleich zum Einzelsender

ist in beiden Abbildungen zu erkennen. Das CINR des

Gleichwellennetzes ist merklich höher als das der beiden

Einzelsender. Auch in der BLER erreicht man durch den

SFN-Betrieb erkennbar verbesserte Werte. Im Bereich der

für MCS9 angenommenen 10,4 dB CINR liegt der Wert für

die BLER des SFNs bei ungefähr 10 -2 , der bessere Einzelsender

erreicht hingegen nur einen Wert von 10 -1 .

3.2 Stationäre Messungen

Im Rahmen der Feldtests wurden mit Unterstützung des

Bayerischen Rundfunks stationäre Messungen durchgeführt.

Die Messpunkte sind in Abbildung 12 dargestellt. Die Auswahl

erfolgte auch hier auf Basis einer zugrunde gelegten

Versorgungsprognose. Es wurden Gebiete für die stationären

Messpunkte ausgewählt, die gemäß Simulation aufgrund

der CAS-Problematik gestört sein müssten. Für eine zweite

Messreihe wurde der Sender Ismaning dann mit entsprechenden

Delays beaufschlagt, um auf den Messpunkten

eine Lage der CAS-Signale innerhalb des CP zu generieren.

Hierdurch sollte für das CAS eine Optimierung der Gleichwellennetzsituation

erreicht werden. Für die violette Strecke,

die hier betrachtet wird, betrug das Senderdelay 150 µs.

Abbildung 13 zeigt die CINR-Werte auf den violetten

Messpunkten bei gleichen PCIs. Erwartungsgemäß verbessert

sich das CINR für das CAS-Signal (grüne Kurven) nach

der Delayoptimierung, jedoch tritt diese Verbesserung nicht

an allen Messpunkten auf.

Zusammenfassung

Im Rahmen der Auswertungen im 5G TODAY-Projekt konnte

eine gute Übereinstimmung zwischen Versorgungsprognose

und gemessenen Feldstärken gezeigt werden. Über alle

Messungen hinweg betrachtet, zeigte sich kein großer Effekt

hinsichtlich der PCI-Konfiguration für das CAS-Signal. Das

MBSFN-Signal wies in der Regel deutlich höhere CINR-Werte

als das CAS-Signal auf. Dies war sowohl bei gleichen als

auch bei unterschiedlichen PCIs der Fall und kann als Indiz

dafür gewertet werden, dass das MBSFN-Signal auch bei

unterschiedlichen PCIs von einem gewissen „SFN-Gewinn“

profitiert. Die Feldmessungen auf der betrachteten Route

zeigten auch, dass sowohl für das Datensignal als auch für

das CAS ausreichend Feldstärke für eine Mobilversorgung

gegeben wäre. Das gemessene CINR war hingegen auf einigen

Teilen der Messroute nicht ausreichend, um eine mobile

Versorgung zu gewährleisten. Als Ursache hierfür kommt

das CAS-Signal in Frage, das für die Synchronisierung und

Signalisierung verantwortlich ist, jedoch können weitere

Einflussfaktoren, wie beispielsweise die Synchronisationsstrategie

des Empfängers, nicht ausgeschlossen werden.

Weiterhin konnte für das hier untersuchte Gleichwellennetz

(SFN) ein Netzgewinn gegenüber dem Einzelsender nachgewiesen

werden.


FKT Dezember 2020

Forschung & Entwicklung _ Beiträge 31

Quelle: IRT

KERSTIN PFAFFINGER

leitet das Sachgebiet Rundfunkversorgung

bei der ARGE RBT. Zuvor war sie

am IRT im Sachgebiet Funksysteme

tätig.

www.irt.de

Quelle: IRT

MAHMOUD ALMARASHLI

Mahmoud Almarashli war Ingenieur im

Bereich Future Networks am IRT. Derzeit

arbeitet er bei Qualcomm an der Entwicklung

von HF-Produkten.

www.irt.de

FORSCHUNG

Die FeMBMS-Nachfolgespezifikation wird als LTE-based

5G Terrestrial Broadcast bezeichnet und soll noch in diesem

Jahr im 3GPP Rel. 16 verabschiedet werden. Die neue

Spezifikation sieht eine erhöhte Robustheit des CAS-Signals

vor, was zu einer verbesserten Gleichwellennetzfähigkeit

des Systems führen sollte. Zudem werden neue Numerologies

für das Datensignal eingeführt. Ein verlängertes CP von

300 µs mit 0,37 kHz Trägerabstand soll die Realisation von

großflächigen SFNs ermöglichen, ein CP von 100 µs, gekoppelt

mit einem vergrößerten Trägerabstand von 2,5 kHz sorgt

für bessere Mobileigenschaften.

5G TODAY war ein Pionierprojekt, in dem Sende- und

Empfangskomponenten entwickelt und erste Feldtests

durchgeführt wurden. Inzwischen gibt es mehrere Testversuche

weltweit, die sich mit Feldtests sowie dem Einsatz von

hybriden Diensten beschäftigen. Zu vielen Aspekten des

Systems sind noch weitere Erkenntnisse erforderlich, um aktiv

die Standardisierungsarbeiten im Sinne des Rundfunks

beeinflussen zu können. Die Zukunft des 5G Broadcast bleibt

also spannend.

Abbildung 13: CINR auf den violetten Messpunkten bei gleichen PCIs, MCS9

Referenzen:

[1] TR 034: Simulation parameters for theoretical LTE eMBMS

network studies, EBU, December 2015

[2] Rainer Großkopf, Vergleich der Genauigkeit von Verfahren

zur Feldstärkevorhersage im UHF-Bereich, Technischer Bericht

Nr. B 87/87, IRT, 1987

[3] William C.Y. Lee, Estimate of local average power of a mobile

radio signal, IEEE Transactions on Vehicular Technology, Vol.

VT-34, No. 1, 1985

ARD/ZDF FÖRDERPREIS

»FRAUEN + MEDIENTECHNOLOGIE« 2021 AUSGESCHRIEBEN

Der ARD/ZDF Förderpreis »Frauen + Medientechnologie« geht in die nächste Runde.

Bewerbungen sind bis zum 28. Februar 2021 online möglich. Bewerben können

sich Absolventinnen von Hochschulen und Universitäten in Deutschland, Österreich

und der Schweiz. Die Abschlussarbeiten zu aktuellen technischen Fragestellungen

aus dem Themenbereich der audiovisuellen Medien in Fernsehen, Hörfunk

oder Online müssen nach dem 1. Januar 2019 angenommen worden sein.

Nach Abschluss einer ersten Beurteilungsphase werden im Mai 2021 zehn Nominierte

der Öffentlichkeit vorgestellt. Nach einer weiteren Juryrunde werden im Juli

2021 die drei Preisträgerinnen bekannt gegeben. Sie werden dann auf einer Preisverleihung

im Spätsommer/Frühherbst 2021 mit Geldpreisen im Gesamtwert von

10.000 Euro ausgezeichnet. Ausgerichtet wird der ARD/ZDF Förderpreis »Frauen +

Medientechnologie« 2021 von der ARD.ZDF medienakademie, der Fort- und Weiterbildungseinrichtung

des öffentlich-rechtlichen Rundfunks in Deutschland.

ø http://www.ard-zdf-foerderpreis.de/

Quelle: Grafik: ARD/ZDF Förderpreis


32 Forschung & Entwicklung _ Beiträge Dezember 2020 FKT

FORSCHUNG

VVENC UND VVDEC:

FRAUNHOFER HHI STELLT OFFENE,

OPTIMIERTE IMPLEMENTIERUNGEN

DES NEUEN VIDEOKODIER­

STANDARDS H.266/VVC BEREIT

ADAM WIECKOWSKI, BENJAMIN BROSS, DR. DETLEV MARPE

Einleitung

Komprimierte Videodaten machen heute den mit

Abstand größten Anteil an Bits im Internet sowie

im mobilen Datenverkehr aus. Dabei ist die

Tendenz weiter steigend. Im Juli 2020 wurde der

neue Videokodierstandard Versatile Video Coding

(H.266/VVC) verabschiedet. H.266/VVC wurde

gemeinsam von ITU-T und ISO/IEC entwickelt und

soll helfen, alle zukünftigen Herausforderungen im

Bereich der Videoübertragung zu meistern.

Parallel zur Entwicklung der VVC-Standardspezifikation in

Textform wurde eine Referenzimplementierung in Software

gepflegt, das sogenannte VVC Test Model (VTM). Das

VTM wurde während der Standardisierungsphase genutzt,

um neu vorgeschlagene Technologien im Hinblick auf Kodiereffizienz

und Komplexität zu erproben. Die Entwicklung

der Kodiereffizienz (Bitratenreduktion) sowie der Enkoder-/

Dekoderkomplexität (Laufzeit) für die verschiedenen Versionen

von VTM gegenüber der HEVC-Referenzsoftware (HM) ist

in Abbildung 1 dargestellt.

Es ist zu sehen, dass neben der Kodiereffizienz (grüne

Kurve) auch die Enkoder-/Dekoderkomplexität (graue bzw.

schwarze Kurve) gestiegen ist. Hierbei ist zu bemerken, dass

der Anstieg für den Dekoder deutlich moderater ausfällt, wobei

diese Asymmetrie für alle Anwendungen im Broadcastoder

Streamingbereich durchaus beabsichtigt ist. Getreu

dem Paradigma „einmal Enkodieren und mehrfach Dekodieren“

(engl. encode once, decode many times), verfügen Endgeräte

wie Smartphones oder Fernsehgeräte typischerweise

nur über einen Dekoder. Dahingegen kommen Enkoder

oftmals nur in leistungsstärkeren Rechnern, zum Beispiel in

Sendezentren oder in der Cloud, zum Einsatz.

Nur zwei Monate nach der Fertigstellung des neuen

Standards hat das Fraunhofer Heinrich-Hertz-Institut im

September 2020 seine optimierten Implementierungen eines

VVC-Enkoders (VVenC) und eines VVC-Dekoders (VVdeC)

veröffentlicht. Diese sind seitdem auf der Plattform GitHub

als Quelltext frei verfügbar. Sie bringen neben erheblichen

Beschleunigungen gegenüber der VTM-Referenzsoftware

enkoderseitig zusätzlich noch Optimierungsoptionen im

Hinblick auf die subjektiv wahrgenommene Bildqualität. Die

höhere subjektive Qualität bei gleicher Bitrate von VVenC

gegenüber VTM wurde erst kürzlich in formalen VVC Verification

Tests offiziell bestätigt.

Versatile Video Coding

Bei der Entwicklung des neuen VVC-Standards standen zwei

wesentliche Ziele im Vordergrund. Als erstes sollte VVC eine

deutliche Steigerung der Kodiereffizienz gegenüber HEVC

ermöglichen. Die erst kürzlich veröffentlichten Ergebnisse

der formalen subjektiven Verification Tests bestätigen eine

Bitrateneinsparung zwischen 40 und 50 Prozent bei gleicher

subjektiver Qualität.

Das zweite Ziel steckt bereits im Namen des neuen Standards

und heißt Vielseitigkeit (Englisch: Versatility/versatile).

So sollte bereits die erste Version des Standards ein breites

Spektrum an Anwendungen effizienter als je zuvor unterstützen.

Dazu gehören die Kodierung von Computer-generiertem

Video (zum Beispiel im Bereich Gaming, Bildschirminhalte

für Videokonferenzen oder Remote-Desktop-Anwendungen),

immersive Anwendungen wie 360-Grad-Video sowie

Verbesserungen für adaptives Streaming mit wechselnden

Bildauflösungen.

Beide Ziele werden durch den Einsatz neuer Algorithmen

erreicht, wobei VVC genauso wie seine Vorgänger H.265/

HEVC und H.264/AVC auf einem hybriden, blockbasierten

Kodieransatz beruht. Dabei wird jedes Videobild in kleinere

Blöcke aufgeteilt, die jeweils entweder mittels Intra- (im Bild)

oder Inter-Bild-Prädiktion (mithilfe von Bewegungskompensation)

prädiziert werden. Der daraus resultierende Prädiktions-

oder Restfehler wird mithilfe von Transformation und

Quantisierung statistisch dekorreliert und zusammen mit

allen weiteren Daten zur Partitionierung und Prädiktion mithilfe

von Entropiekodierung in einen standard-konformen

Bitstrom geschrieben. Während im Großen und Ganzen keiner

der Bausteine wie Prädiktion und Transformation neu ist,

wurden diese jedoch methodisch erweitert und verbessert.

Im Folgenden sind lediglich die neuen VVC-Algorithmen kurz

aufgeführt. Diese sind durch ihre Komplexität für die im Weiteren

diskutierten VVC-Implementierungen relevant.

• Bi-Directional Optical Flow (BDOF): Ermöglicht eine dekoderseitige

Verfeinerung der Bewegungskompensation

basierend auf dem Modell des optischen Flusses.

• Decoder-side Motion Vector Refinement (DMVR): Erlaubt

ebenfalls eine dekoderseitige Bewegungsverfeinerung,

allerdings durch zusätzliche Suche mittels Block

Matching.

• Affine motion model: Ermöglicht die Erweiterung der


FKT Dezember 2020

Forschung & Entwicklung _ Beiträge 33

FORSCHUNG

Abbildung 1: Progression der Kodiereffizienz

sowie Enkoder- und Dekoderkomplexität

des VVC-Testmodells

(VTM) während der Standardentwicklung

gegenüber des HEVC-Testmodells

(HM).

translatorischen Bewegungskompensation auf affine Bewegung

wie Rotation, Scherung und Parallelstreckung.

• Luma Mapping with Chroma Scaling (LMCS): Ermöglicht

eine adaptive Anpassung des Dynamikbereichs.

• Adaptive Loop Filter (ALF): Zusätzlicher, adaptiver In-

Loop-Filter zur Verbesserung des Rekonstruktionssignals.

• Deblocking Filter (DBF): Der von HEVC und anderen Standards

bekannte Deblocking Filter wird in VVC mit feinerer

Granularität (4x4 Block-Raster) angewandt.

• Adaptive Motion Vector Resolution (AMVR): Ermöglicht

die Signalisierung der Bewegungsvektoren mit einer

adaptiven Auflösung mit Genauigkeiten von 1/4 eines

Bildpunktes bis 4 Bildpunkte.

• Symmetric Motion Vector Difference (SMVD): Erlaubt es,

bei Bi-Prädiktion aus zwei Richtungen nur einen Bewegungsvektor

explizit zu übertragen. Unter der Annahme

symmetrischer Bewegung wird dieser dann verwendet

um den Vektor der anderen Richtung herzuleiten.

• Merge plus Motion Vector Difference (MMVD) und Geometric

Partitioning Mode (GPM) sind weitere Algorithmen,

die es ermöglichen, den von HEVC bekannten Merge-Modus

zur effizienten Kodierung von Bewegungsinformationen

adaptiv weiter zu verfeinern.

VVdeC Software Dekoder

Das Fraunhofer HHI hat die Arbeiten an einem optimierten

Softwaredekoder schon früh während der Standardentwicklung

aufgenommen (siehe. FKT 8–9 2019, S. 60–63). Die aktuelle

Version ist nun mit dem finalen VVC-Standard konform

und erlaubt eine sehr gut skalierende Parallelisierung. Diese

enthält zudem strukturelle sowie algorithmische Optimierungen,

die im Folgenden anhand diverser empirisch ermittelter

Daten näher erklärt werden sollen.

In Abbildung 2 sind die Dekoder-Laufzeiten für fünf

Sekunden lange Ultra High-Definition (UHD) Videosequenzen

dargestellt, die jeweils in der Referenzimplementierung

VTM-10 sowie in der optimierten Implementierung VVdeC

von jeweiligen Komponenten in Anspruch genommen werden.

Vor allem durch eine entschlackte Softwarestruktur

und eine Optimierung der Sample-Operationen konnten

viele Teile des Dekoders beschleunigt werden. Letztere

konnten vor allem durch den umfangreichen Einsatz von

Vektorisierung mit Single-Instruction Multiple-Data (SIMD)

erreicht werden (z. B. Advanced Vector Extensions – AVX2).

Im Gegensatz zu früheren Referenzimplementierungen wie

HM für HEVC oder JM für AVC, enthält VTM eine ganze Reihe

laufzeitoptimierter Algorithmen. Das betrifft vor allem die

Interpolationsfilter und ALF. Wie in Abbildung 2 zu sehen ist,

konnten diese in VTM bereits optimierten Routinen in VVdeC

noch einmal um das Zweifache beschleunigt werden.

Der VVdeC-Dekoder kann das Dekodieren sehr effizient

über mehrere Rechenkerne eines modernen Prozessors verteilen.

So können je nach Rechenleistung, Anzahl der Kerne

sowie Bitrate des Videos UHD-Videosignale mit bis zu 60 Bildern

pro Sekunde (frames per second – fps) dekodiert werden.

Im Abbildung 3 sind die erreichten Dekodiergeschwindigkeiten

für UHD-Videos auf einer modernen Workstation

Abbildung 2: Durchschnittliche

Verarbeitungsdauer einzelner

Dekoderkomponenten für 5s

lange UHD Sequenzen auf einem

modernen Rechner mit AVX2-Unterstützung

(IF = Interpolationsfilter,

MIDER= Herleitung der

Bewegungsinformationen, SAO =

Sample Adaptive Offset Filter).


34 Forschung & Entwicklung _ Beiträge Dezember 2020 FKT

FORSCHUNG

Abbildung 3: Dekodiergeschwindigkeit in Abhängigkeit von der

Anzahl der genutzten Rechenkerne (Threads) sowie der Videobitrate

auf einer modernen Workstation.

mit Core-i9-9980XE Prozessor für verschiedenen Bitraten

und Anzahl von parallel genutzten Rechenkernen (Threads)

abgebildet.

Die dargestellten Zahlen zeigen zum einen, dass der Dekoder

ziemlich gut über die Anzahl der Kerne skaliert. Zum

anderen wird auch bei höheren Bitraten deutlich, dass die

Optimierung noch nicht abgeschlossen ist. Hier muss VVdeC,

speziell was die Softwarestruktur und die Speicherzugriffe

betrifft, noch weiter verbessert werden, um auch flüssiges

Abspielen von UHD-Videos auf weniger leistungsstarken

Rechnern zu ermöglichen.

VVenC Software Enkoder

Neben den Arbeiten am optimierten Dekoder VVdeC haben

die Forscher des Fraunhofer HHI zusätzlich eine optimierte

Enkoder-Implementierung namens VVenC entwickelt. Im

Gegensatz zum Dekoder, der das Video aus komprimierten

VVC-Bitströmen streng nach Standard parst und dekodiert,

hat eine Enkoderimplementierung viel mehr Freiheiten.

Grundsätzlich bietet jeder Videokompressionsstandard viele

Möglichkeiten, ein Video zu kodieren. Das fängt an mit der

Wahl der Partitionierung und setzt sich fort über die Anzahl

der Prädiktions- und Transformationsmodi bis hin zu den

umfangreichen Parametern der Filter.

Idealerweise würde ein Enkoder alle Möglichkeiten ausprobieren

und jene Kombination wählen, die bei gegebener

Rate die beste Qualität liefert. Dieser Brute-Force-Ansatz ist

aber nicht praktikabel, weshalb üblicherweise verschiedene

Heuristiken verwendet werden, die den Parameterraum

deutlich einschränken, ohne viel an Effizienz einzubüßen. Die

vielen Freiheitsgrade erlauben es auch, einen Enkoder anwendungsspezifisch

zu optimieren. Für Video-on-Demand-

Anwendungen kann ein Enkoder viele Möglichkeiten testen

und somit auf Kosten der Laufzeit die Kodiereffizienz steigern.

Bei Videokonferenzen oder Live-Streaming/-Broadcasting

hingegen muss ein Enkoder den Suchraum aufgrund von

Realzeitanforderungen und Latenz auf Kosten der Effizienz

einschränken.

Im Allgemeinen, aber auch bei VVC im Speziellen, kann

man – vereinfacht gesagt – zwischen zwei Arten von Kodieralgorithmen

unterscheiden. Die einen, beispielsweise die

dekoderseitige Verfeinerung der Bewegungsvektoren mit

BDOF oder DMVR, werden implizit angewandt und können

pro Bild oder pro Videosequenz eingeschaltet werden. Die

anderen haben einen deutlich größeren Parameter- bzw.

Suchraum. Das beinhaltet die Blockaufteilung, die für jedes

Bild ermittelt und signalisiert werden muss, oder die

Intra-Prädiktionsmodi und Parameter zur Bewegungskompensation,

die für jeden einzelnen Block explizit signalisiert

werden. In letzterem Fall muss der Enkoder pro Block entscheiden,

ob der spezifische Algorithmus angewandt werden

soll, was zu Komplexitätssteigerungen führt. Deswegen ist

die enkoderseitige Komplexität von VVC weniger von der

Komplexität der einzelnen Algorithmen bestimmt (wie im

Falle des Dekoders), sondern vielmehr von der Anzahl an

möglichen Enkoderentscheidungen, also dem zugrunde gelegten

Suchraum. Bei VVC ist dieser Suchraum sehr hochdimensional,

was zur Folge hat, dass die potenziell hohe Bitratenreduktion

mit einer ebenfalls deutlich erhöhten Enkoderkomplexität

einhergeht. Dies ist in der anfangs diskutierten

Abbildung 1 gut zu erkennen.

Für die Entwicklung des Enkoders haben die HHI-Forscher

mit einem sehr einfachen Grundgerüst angefangen.

Dieses wurde nach und nach um weitere in VVC verfügbare

Algorithmen ergänzt, wobei zuerst diejenigen integriert

wurden, die eine hohe Kodiereffizienz bei vergleichsweise

geringer Laufzeit aufwiesen. Darüber hinaus wurden die

VTM-Suchalgorithmen in VVenC dahingehend optimiert oder

durch neue oder angepasste Algorithmen ersetzt, die ein

noch besseres Verhältnis zwischen Laufzeit- und Effizienzsteigerung

erreichen.

Abbildung 4: Durchschnittliche

Zeit pro Bild in der

Enkodersuche. VTM-10

wurde in einer Konfiguration

benutzt, die die gleiche

Menge an Kodierwerkzeugen

wie VVenC unterstützt.

Für VvenC-VTM-comp

wurde VVenC mit gleichem

Suchalgorithmus gesteuert

(MVD – Bewegungsvektordifferenzensuche).


FKT Dezember 2020

Forschung & Entwicklung _ Beiträge 35

FORSCHUNG

Abbildung 5: Verhältnis von Laufzeit- und Bitratendifferenz für VVenC bei unterschiedlichen Presets mit und ohne Parallelisierung im Vergleich

zum HM-16.22 HEVC-Referenzenkoder. Zusätzlich sind die Ergebnisse des VTM-10 VVC-Referenzenkoders sowie des libAOM AV1-Enkoders

bei unterschiedlichen Presets abgebildet. Die Bitratendifferenzen basieren auf Messungen von Bitrate vs. PSNR.

Quelle: Fraunhofer HHI

Quelle: Fraunhofer HHI

Quelle: Fraunhofer HHI

Abbildung 4 zeigt die Laufzeiten für verschiedene

VVC-Enkodieraspekte in der VTM-Referenzsoftware (VTM-

10.0) in VVenC mit den gleichen Suchalgorithmen wie in

VTM (VVenC-VTM-comp) sowie in VVenC mit optimierten

Suchalgorithmen (VVenC medium). Hier ist zu bemerken,

dass die ersten beiden Konfigurationen aufgrund der gleichen

Enkoderentscheidungen die gleiche Kodiereffizienz

aufweisen. VVenC in der „medium“-Konfiguration hingegen

ist deutlich schneller, weist aber, wie im nächsten Abschnitt

beschrieben, eine etwas geringere Kodiereffizienz auf. Es ist

sehr deutlich zu erkennen, wo VVenC gegenüber VTM-10

Laufzeit einsparen kann. Der Unterschied zwischen VTM und

VVenC-VTM-comp zeigt lediglich die verbesserte Implementierung

des jeweiligen Algorithmus in VVenC, wobei viele

Optimierungen aus dem Dekoder übernommen wurden. Der

Vergleich von VVenC-VTM-comp zu VVenC medium zeigt,

wieviel Laufzeit eingespart werden kann, wenn bei gleicher

Implementierung zusätzlich noch der Suchalgorithmus angepasst

wird. Die angepassten Suchalgorithmen betreffen

vor allem die Bewegungskompensation und Blockaufteilung

(wobei letzteres in der Abbildung nicht direkt erkennbar ist,

weil sich dieses auf alle Suchbereiche auswirkt).

Gerade durch die Vielzahl neuer Möglichkeiten der Darstellung

von Bewegungsvektordifferenzen (MVD inklusive

SMVD, Affine MVD, AMVR) sowie Merge-Modi (Merge inklusive

MMVD und GPM, Affine Merge) ist der Suchraum in diesem

Bereich sehr groß. Durch neue Algorithmen können Entscheidungen

in VVenC in diesem Bereich schon sehr früh getroffen

werden, was die Laufzeit für VVenC medium effektiv

reduziert. Weitere Bestandteile der Enkodierung, bei denen

durch die optimierte Suche in VVenC medium die Laufzeit signifikant

reduziert wurde, sind die Quantisierung sowie ALF.

Neben der erwähnten medium Konfiguration bietet

VVenC drei weitere vorkonfigurierte Presets: slow, fast und

faster. Jedes dieser Presets stellt einen anderen Operationspunkt

bezüglich Laufzeit und Kodiereffizienz dar. So werden

in den Presets „faster“ und „fast“ nur eine grundlegende,

etwas eingeschränkte Blockaufteilung sowie Algorithmen,

für die keine Entscheidungen getroffen werden müssen,

angeschaltet. Beide Konfigurationen sind vor allem durch

die Softwarestruktur und die Komplexität dieser Basisalgorithmen

beschränkt. Das heißt, weitere Beschleunigungen

sind nur noch durch eine verbesserte Struktur und Implementierungen

der Algorithmen ohne Suche möglich. In der

„medium“ Konfiguration werden eine Vielzahl weiterer Kodierwerkzeuge

von VVC benutzt, für die jedoch die oben

diskutierten, angepassten Suchalgorithmen genutzt werden.

In der langsamsten Konfiguration werden viele der schnellen

Entscheidungsalgorithmen abgeschwächt sowie weitere

Werkzeuge dazu genommen, um in etwa auf die Kodiereffizienz

von VTM zu kommen. In Abbildung 5 sind die Laufzeiten

sowie Kodiereffizienz durch Bitrateneinsparung bei

gleichem Peak-Signal-to-Noise-Ratio (PSNR) der vier Presets

von VVenC gegenüber der HEVC-Referenzsoftware HM dargestellt.

Man sieht, dass die langsamste Konfiguration (slow)

die gleichen hohen Rateneinsparungen wie VTM bei ungefähr

der Laufzeit von HM erzielt.

Die zweitlangsamste Einstellung (medium) bietet dreifache

Beschleunigung gegenüber HM, behält jedoch weiterhin

noch einen Großteil der VTM-Gewinne. Darüber hinaus

ADAM WIECKOWSKI

ist wissenschaftlicher Mitarbeiter und Projektleiter am

Fraunhofer HHI. Er leitet die Entwicklungsarbeiten an den

optimierten VVC-Software-Implementierungen VVenC

und VVdeC.

https://www.hhi.fraunhofer.de/

BENJAMIN BROSS

ist Leiter der Gruppe "Videokodiersysteme" am Fraunhofer

HHI und Editor der HEVC- und VVC-Standards. Seine

Veröffentlichungen zu H.265/HEVC wurden mehrfach

ausgezeichnet.

https://www.hhi.fraunhofer.de/

DR.-ING. DETLEV MARPE

ist Leiter der Abteilung „Videokodierung und Maschinelles

Lernen” am Fraunhofer HHI. 2015 wurde er zum IEEE

Fellow ernannt.

https://www.hhi.fraunhofer.de/


36 Forschung & Entwicklung _ Beiträge Dezember 2020 FKT

FORSCHUNG

beinhaltet VVenC einige rein enkoderseitige Optimierungen,

wie eine bewegungsoptimierte Vorfilterung, die weder in HM

noch in VTM angeschaltet sind. In der Grafik sind zusätzlich

fünf Arbeitspunkte des AV1-Enkoders (Version libaom v-2.0)

unter weitgehend angepassten und somit vergleichbaren

Kodierbedingungen dargestellt. Obwohl VVC erst im Juli

2020 fertiggestellt wurde und der AV1-Enkoder über zwei

Jahre massiv optimiert wurde, ermöglicht die erste Version

von VVenC bereits bei ähnlicher Laufzeit eine deutlich höhere

Bitrateneinsparung.

Während sich der PSNR zur Entwicklung von Kodieralgorithmen

durchaus als ein valides Maß objektiver Videoqualität

etabliert hat, zählt am Ende doch die subjektiv

wahrgenommene Bildqualität. VVenC enthält daher zur Steigerung

der subjektiv wahrgenommenen Qualität die Option

einer psychovisuellen Optimierung. Diese wird durch eine

Adap tion der Quantisierungsschrittweite auf Basis der lokalen

zeitlichen und örtlichen Signalaktivität mithilfe des

am Fraunhofer HHI entwickelten XPSNR-Modells ermöglicht.

Durch die Nutzung dieser Optimierung hat VVenC im

medium Preset bei formalen subjektiven Tests zur Verifizierung

der Kodiereffizienz von VVC sogar besser als das VTM

abgeschnitten und dies bei ungefähr 110-fach schnellerer

Laufzeit.

Eine weitere Beschleunigung von Enkodern kann durch

Parallelisierung erzielt werden. Für VVenC ist diese in der aktuellen

Version sehr einfach gehalten, ermöglicht jedoch für

UHD eine fast vierfache Beschleunigung bei sechs Threads

oder eine dreifache Beschleunigung für UHD und HD bei

vier Threads. Die erreichte Kodiergeschwindigkeit ist abhängig

von der verwendeten CPU-Architektur und soll hier nicht

weiter im Detail diskutiert werden.

Zusammenfassung

Lediglich zwei Monate nach der Fertigstellung des VVC-Standards

hat das Fraunhofer HHI im September 2020 optimierte

Implementierungen von VVC-Enkoder- und -Dekodersoftware

(VVenC und VVdeC) frei verfügbar auf GitHub veröffentlicht.

Diese zeigen, dass VVC nicht nur auf dem Papier

und für das PSNR-Qualitätsmaß ausgezeichnete Ergebnisse

liefert, sondern auch großes Potenzial für praktische Anwendungen

mit hoher subjektiver Qualität bei kleinen Bitraten

aufweist. Während der Softwaredekoder noch etwas Arbeit

braucht, um auch auf älteren Geräten Live-Dekodierung zu

ermöglichen, kann der VVenC-Enkoder jetzt schon eingesetzt

werden, um das große Potenzial von VVC in praktischen

Anwendungen zu erproben.

NEUER MASTERSTUDIENGANG

„DIGITALE TECHNOLOGIEN“ AN FH SÜDWESTFALEN

Quelle: Shutterstock/Phonlamai Photo

Die Fachhochschule Südwestfalen in Soest bietet zum

Sommersemester 2021 den neuen Masterstudiengang

"Digitale Technologien" an, der sich mit den Schwerpunkten

Big Data, künstliche Intelligenz und IT-Sicherheit befasst.

Die digitale Zukunft stelle sowohl Entwickler als auch Anwender

vor neue Herausforderungen, heißt es in Soest. Die

technische Realisierung der Digitalisierung über Hardware

und Software muss entwickelt und permanent optimiert

werden. Wirtschaftliche Prozesse ändern sich durch Digitalisierung

maßgeblich und müssen demzufolge neu definiert

und kompetent gesteuert werden. Nicht zuletzt ist auch die

Rolle des Menschen in einer durch künstliche Intelligenz

gesteuerten Fabrik oder in der automatisierten Landwirtschaft

zu überdenken. Mit seiner interdisziplinären Ausrichtung

ist der Masterstudiengang "Digitale Technologien" für

Studenten aus verschiedenen Fachrichtungen interessant.

So werden Bachelor-Absolventen der Agrarwirtschaft, des

Maschinenbaus, des Wirtschaftsingenieurwesens ebenso

wie Absolventen interdisziplinärer Studiengänge mit technischer,

design- oder managementorientierter Ausrichtung auf

die Herausforderungen einer immer stärker digitalisierten

Zukunft vorbereitet. Das Studium verknüpft fachspezifische

Anwendungen mit Kompetenzen für die digitale Arbeitswelt

und IT-Wissen. Absolventen werden aber nicht zu IT-Spezialisten

ausgebildet, sie sind aufgrund ihres technischen

Hintergrunds vielmehr in der Lage, Digitalisierungs-Technologien

adäquat einzusetzen, die Ergebnisse anwendbar einzuordnen

und die Möglichkeiten und Grenzen zu verstehen.

Das mache den Studiengang "Digitale Technologien" an der

Fachhochschule Südwestfalen einzigartig, teilt die Fachhochschule

mit

Im Masterstudium werden Kenntnisse aus den Bereichen

Big Data, IT-Netzwerke und IT-Sicherheit, maschinelles

Lernen, Arbeitswelt 4.0 und digitale Geschäftsmodelle vermittelt.

Individuell können bereits zu Beginn des Studiums

Schwerpunkte gewählt werden, wie beispielsweise Additive

Fertigung, Automatisierung, Simulation, Interaktionsdesign,

E-Business/Online-Marketing oder Smart Farming. Die Regelstudienzeit

beträgt drei bzw. vier Semester je nach Vorkenntnissen.

Berufstätige können "Digitale Technologien"

auch parallel zum Beruf studieren. In der Regel verlängert

sich dadurch die Gesamtstudiendauer.

www.fh-swf.de/soest


38 Laudatio – Verleihung der

Oskar-Meßter-Medaille an Horst Burbulla

JÜRGEN BURGHARDT

39 Laudatio – Verleihung der Richard-

Theile-Medaille an Dr. Hans Hoffmann

DR. RAINER SCHÄFER

40 Laudatio – Verleihung des Rudolf-

Urtel-Preises an Dr. Anna Kruspe

PROF. DR.-ING. KARLHEINZ BRANDENBURG

41 Laudatio – Verleihung des Innovationspreises

an Prof. Karlheinz Brandenburg

DR.-ING. SIEGFRIED FÖSSEL


38 Dezember 2020 FKT

FKTG

Dr.-Ing. Siegfried Fößel, Erster Vorsitzender der FKTG, moderierte die Preisverleihung in Ilmenau.

Quelle: FKTG

FKTG VERLEIHT PREISE

FÜR INNOVATIONEN IN

FERNSEH- UND MEDIENBRANCHE

Am 29. Oktober 2020 hat die Fernseh- und Kinotechnische Gesellschaft FKTG Preise für Innovationen in der Fernseh- und Medienbranche

verliehen. Zu den Preisträgern in diesem Jahr zählen Prof. Karlheinz Brandenburg, Dr. Anna Kruspe, Horst Burbulla und

Dr. Hans Hoffmann. Alle zwei Jahre vergibt die FKTG ihre Medaillen und Preise an verdiente Personen der Medienbranche. In diesem

Jahr fand die Preisverleihung nicht wie üblich im Rahmen der FKTG-Fachtagung statt, sondern als Hybrid-Veranstaltung im Medienlabor

am Institut für Medientechnik der TU Ilmenau. Ein Mitschnitt der Preisverleihung ist auf Youtube verfügbar. FKT dokumentiert

die Laudationes.

LAUDATIO – VERLEIHUNG DER FKTG

OSKAR-MESSTER-MEDAILLE AN

HORST BURBULLA

Lieber Herr Burbulla,

wenn man über „großes Kino“ und „große

Filme“ spricht, denkt man zuerst an die

Schauspieler oder an die Regisseure, die

im Abspann und auch sonst fast immer an

erster Stelle Erwähnung finden. Welche

technischen Möglichkeiten aber bei der

Produktion eingesetzt wurden, ist häufig

nur eine zweitrangige Erwähnung wert. Dabei

sind es oft atemberaubende Kamerafahrten

oder spektakuläre Blickwinkel, die

den Zuschauer in Bann ziehen und durch

die Kamerafrau oder den Kameramann

kreativ gestaltet werden.

Als Sie vor über 20 Jahren den Teleskop-Kamerakran

erfanden, wurden großartige

Kamerafahrten und Aufnahmen

ermöglicht, die in dieser Form vorher kaum

realisierbar waren. Zu den vielen Filmen,

die mit dem „Technocrane“ gedreht wurden,

gehören große Filme wie Titanic, Pearl

Harbor, Matrix oder Harry Potter. Dieser

Kamerakran ist heute bei vielen Film- und

Fernsehproduktionen, insbesondere bei

aktionsreichen Filmen kaum wegzudenken.

Dabei war Ihnen der Erfindergeist nicht

unbedingt in die Wiege gelegt, denn als

ausgebildeter Krankenpfleger hatten Sie

möglicherweise zunächst andere Pläne,

wie sie dem Wohl von Menschen dienen

könnten.

Erst als Sie Anfang der 1980er Jahre

bei der Produktion Ihres ersten eigenen

Films feststellen mussten, dass flexible und

fahrbare Kamerasysteme nicht erschwinglich

waren, haben Sie einfach selbst ein

Kameraführungssystem erfunden, gebaut

nach Ihren eigenen Vorstellungen. Der

Teleskop-Kamerakran war geboren.

Die Weiterentwicklung und Perfektionierung

des Systems stand für Sie immer

im Fokus, und konnte auch wirtschaftlich

erfolgreich umgesetzt werden. Heute

werden diese Systeme von der Firma

Technocrane gefertigt, immer noch nach


FKT Dezember 2020

39

Ihren Vorstellungen. Technocrane hat ihren

Sitz in Pilsen in Tschechien und zählt mittlerweile

über 60 Angestellte.

Seit der Vorstellung des ersten Teleskop-Kamerasystems

sollten aber noch

über 20 Jahre vergehen, bis Sie im Jahre

2005 die höchste Auszeichnung der Branche

erhielten, „den Oscar in der Kategorie

Technik“. Wenn ich richtig recherchiert

habe, wurde der erste Oscar 1929 vergeben

und der erste Technik-Oscar sogar erst

1931. Die erste Oskar-Meßter-Medaille

wurde aber bereits 1927 vergeben. Wir

dürfen Ihnen daher den vermutlich ältesten

bedeutenden Preis in der Kinotechnik

heute und hier verleihen.

Aber sich auf Ruhm auszuruhen,

kommt für Sie offensichtlich nicht in Frage.

Mitarbeiter von Ihnen berichten, dass es

keine Messe oder Ausstellung gibt, auf der

Sie nicht persönlich Hand anlegen und

Kisten und Kartons selber schleppen. Die

Kransysteme werden weiterhin kontinuierlich

von Ihnen perfektioniert. Viele Ihrer

Horst Burbulla, Preisträger der FKTG

Oskar-Meßter-Medaille für herausragende

Verdienste in der Kinotechnik

Quelle: Jürgen Burghardt

Kunden schätzen Ihren Willen und Ihr

Streben sehr, nach Lösungen zu suchen

und Ihre Bereitschaft alle technischen

Herausforderungen anzunehmen.

Vielleicht ist ein Geheimnis Ihrer Schaffenskraft

auch in Ihren weiteren Interessen

und in Ihrem persönlichen Umfeld zu suchen.

Als Vater von drei Kindern wissen Sie,

was soziale Verantwortung heißt und auch

wenn es Ihnen nicht in die Wiege gelegt

wurde, haben Sie eine große Leidenschaft

zur Musik, zum Film und zur Architektur

entwickelt. Diese Leidenschaft teilen Sie

auch besonders gerne mit anderen Menschen

und das mit viel Engagement.

Die FKTG verleiht Ihnen also heute die

Oskar-Meßter-Medaille und würdigt damit

Ihre großen Verdienste für die Film- und

Fernsehproduktion durch die Erfindung

des Teleskop-Kamerakrans und dessen

kontinuierlicher Perfektionierung.

Meinen herzlichen Glückwunsch dafür.

Jürgen Burghardt – FKTG Geschäftsführer

FKTG

LAUDATIO – VERLEIHUNG DER

FKTG RICHARD-THEILE-MEDAILLE

AN DR. HANS HOFFMANN

Die Richard-Theile-Medaille stellt – auf

gleicher Ebene mit der Oskar-Meßter-

Medaille und dem zum 100-jährigen Bestehen

neu eingeführten Karl-Heinz-Brandenburg-Innovationspreis

– die höchste

Auszeichnung der FKTG dar und ist nach

dem ersten Direktor des Instituts für Rundfunktechnik

benannt. Damit schließt sich

ein besonderer Kreis, wenn sie nun erneut

an einen ehemaligen Mitarbeiter des IRT

vergeben werden kann.

Dr. Hans Hofmann erhält diesen Preis

für seine Verdienste bei der Entwicklung

von HDTV- und UHDTV-Fernsehsystemen

und die maßgebliche Mitwirkung in internationalen

Standardisierungsgremien. Eine

besondere Betonung liegt hier sicherlich

auf der „maßgeblichen Mitwirkung in

internationalen Standardisierungsgremien“,

denn seine Arbeit ist zwar eng mit der

Bildqualität, HDTV und UDHTV verwoben,

aber längst nicht auf diese beschränkt und

geht weit darüber hinaus.

Sein aktives Interesse an Standardisierung

und Interoperabilitätssicherung zeigte

sich schon während seiner ersten Arbeiten

zu Jittermessungen am Seriellen Digitalen

Interface (SDI) im IRT, wo er 1991 als frischgebackener

Absolvent der Hochschule

München seine berufliche Laufbahn in der

Abteilung von Max Rotthaler begann. Diese

Arbeiten führten dann auch sehr schnell

gemeinsam mit Kollegen zu einem Patent

mit dem Titel „Schaltungsanordnung zur

Messung des Jitters in einem System, das

serielle Daten hoher Datenrate, insbesondere

digitale Fernsehsignale über ein Koaxialkabel

überträgt“. Naturgemäß brachte

ihn dieses Arbeitsgebiet sehr eng mit der

Industrie und den einschlägigen Gruppen

der EBU und der SMPTE zusammen, insbesondere

mit einem weiteren Abteilungsleiter

im IRT und sehr aktiven Chairman

der EBU, Horst Schachlbauer. Gemeinsam

trieben sie die Standardisierung und Interoperabilitätssicherung

bei gleichzeitiger

intensiver Vernetzung von Industrie und

Anwendern voran. Eine zentrale Rolle

spielten dabei immer wieder die EBU und

die SMPTE.

So war es nicht verwunderlich, dass

Dipl.-Ing. (FH) Hans Hoffmann eine Chance

bei der EBU in Genf ergriff und im Jahr

2000 dort als Senior Engineer in das

Technical Department eintrat. Als Chair u. a.

der Projektgruppen P/BRRTV und P/PITV

fokussierte er sich u.a. auf die Standardisierung

des Serial Data Transport Interface

und der damals neu aufkommenden

professionellen File Formate.

Dr. Hans Hoffmann, Preisträger der FKTG

Richard-Theile-Medaille für herausragende

Verdienste in der Fernsehtechnik

Parallel zu seiner Tätigkeit in Genf erweiterte

er sein Studium um einen Universitätsabschluss

und promovierte 2007 an der

Brunel University West London zum Thema

„Image quality considerations for HDTV formats

in the Flat Panel Display environment“

– auch dieses Thema beweist wieder seinen

Einsatz für Qualität und höherqualitatives

Fernsehen.

2010 übernahm Dr. Hans Hoffmann

dann in der EBU die Position als „Head of

Media Fundamentals and Production“. In

dieser Funktion organisierte und steuerte er

Quelle: Jürgen Burghardt


40 Dezember 2020 FKT

FKTG

die Schwerpunkte und Innovationsaktivitäten

von EBU Technical & Innovation und

organisierte weltweit Kooperationen und

Wissensaustausch, insbesondere zwischen

den europäischen und japanischen R&D-

Instituten von Rundfunk und Industrie,

aber auch – und in zunehmendem Maße –

mit dem US-amerikanischen Rundfunk und

den dortigen Innovationszentren.

Den Kontakt in die USA hatte er schon

seit seiner Tätigkeit im IRT insbesondere

über sein langjähriges Engagement

und „sein zweites Leben“ in der SMPTE

aufgebaut. Er wurde – noch vor seiner Mitgliedschaft

in der FKTG ab 2020 – bereits

1998 Mitglied der SMPTE und setzte sich

schon ab 1996 im Rahmen der Joint EBU/

SMPTE Task Force für das kontrollierte bzw.

standardisierte Zusammenwachsen von IT

und Broadcast ein.

Er leitete dann seit 1998 das Committee

für File Management und Netzwerke, war von

2008–2011 Governor der EMEA Region von

SMPTE und wurde anschließend 2011–13

Engineering (Standards) Vice President. Nach

einer kleinen Pause wurde 2018 wieder als

Finance Vice President aktiv und ab 2019

Executive Vice President. Ab Anfang 2021

wird er die Funktion des SMPTE President

übernehmen. Bereits im Jahr 2000 wurde er

zum Fellow der SMPTE ernannt.

In allen diesen Positionen im Dienste der

internationalen Standardisierung zeigte Hans

Hoffmann in seiner Laufbahn immer wieder

großes politisches Geschick, die Dinge voranzutreiben,

und dazu auch eine besondere

Ausdauer und Beharrlichkeit, wie ihm von

seinen Partnern immer wieder anerkennend

oder manchmal auch unfreiwillig bestätigt

wurde.

Diese seine Ausdauer ist auch in einer

Vielzahl sportlicher Disziplinen bekannt.

Oft habe ich ihn vor oder nach einem Meeting

im Hotel getroffen, wenn er gerade

vom Laufen zurückkam.

Eine seiner ganz besonderen Eigenschaften

ist aber seine hervorragende

Vernetzung, die neben seinen nachgewiesenen

Erfolgen im Bereich der Qualitätsoptimierung

in besonderem Maße auch den

Zielen und Aufgaben der FKTG entsprechen

und ihn daher zu einem würdigen

Preisträger unserer Gesellschaft machen.

In diesem Sinne gratuliere ich Dir, Hans, im

Namen im Namen der FKTG und natürlich

auch ganz persönlich zur Verleihung der

Richard-Theile-Medaille.

Dr. Rainer Schäfer

LAUDATIO – VERLEIHUNG DES

RUDOLF-URTEL-PREISES FÜR DEN

WISSENSCHAFTLICHEN NACH-

WUCHS AN DR. ANNA KRUSPE

Sehr geehrte Damen und Herren an den

Bildschirmen,

liebe Anna Kruspe,

Dr. Anna Kruspe, Preisträgerin des

Rudolf-Urtel-Preises für den wissenschaftlichen

Nachwuchs

ich freue mich sehr, dass ich diese Laudatio

halten darf. Im Leben eines Professors sind

abgeschlossene Dissertationen Highlights,

aber Forschungspreise für die Kandidatinnen

und Kandidaten, die man über

mehrere Jahre betreut hat, schlagen diese

Erlebnisse noch deutlich.

Anna Kruspe hat in ihren jungen Jahren

schon viel erreicht. Sie war eine unserer

besten Studentinnen im Studiengang

Medientechnologie an der TU Ilmenau und

es gelang uns, sie für das Fraunhofer-Institut

für Digitale Medientechnologie IDMT

zu gewinnen. Schon ihre Diplomarbeit, die

sie am Fraunhofer IDMT anfertigte, wurde

2012 mit dem 3. Platz des Hugo-Geiger-

Preises der Fraunhofer-Gesellschaft

ausgezeichnet. Ihren Lebenslauf und ihre

Leistungen seither will ich mit folgenden

drei Schlaglichtern beleuchten:

• wissenschaftliche Leistungen

• ihre Herangehensweise an die Aufgabenstellungen

und

• ihre Arbeit im Team innerhalb und

außerhalb der Arbeitszeiten.

In Frau Kruspes Dissertation geht es darum,

bei der automatischen Transkription vokaler

Musik auch die Sprache mit einzubeziehen,

um nicht nur den Melodieverlauf,

sondern auch den Liedtext zu erhalten. Im

ersten Moment hört sich diese Aufgabenstellung

trivial an: Bereits seit mehreren

Jahrzehnten wird an Spracherkennungstechnologien

geforscht. Inzwischen

funktionieren diese mit entsprechendem

Aufwand auch gut, wie Alexa und Siri

Quelle: Jürgen Burghardt

beweisen. Der Forschungsbereich Music

Information Retrieval (MIR), also Methoden

zur Erkennung von Melodien, ist ein

etwas neueres Forschungsthema, an dem

in Ilmenau aber auch bereits seit 20 Jahren

geforscht wird. Außerdem gibt es weltweit

etliche renommierte Forschungsgruppen,

das bedeutet, auch in diesem Bereich gibt

es entsprechende Methoden und Technologien.

Warum sollte man also gesungene

Musik einschließlich des gesungenen Textes

nicht mit denselben Methoden erkennen

können? Wie Frau Kruspe sehr schnell

herausfand, ist das doch nicht so einfach.

Die einfache Anwendung der bisherigen

Methode funktioniert nicht bzw. nur sehr

beschränkt. Anna Kruspe ist das Problem

systematisch und sorgfältig angegangen

und konnte am Ende beweisen, dass es

doch funktioniert. Sie erzielte Ergebnisse,

die deutlich über das hinausgingen, was

irgendwo sonst in der Welt zu diesem

Thema erforscht wurde. Sie gliederte

ihre Forschungen in Teilfragen auf, dazu

gehörten zum Beispiel die Identifikation

der Sprache, das Finden von Schlagwörtern

etc. sowie das Finden der richtigen

Features, also Merkmale der Tonsignale für

die Eingangsstufe der machine learning-Algorithmen.

Die hervorragenden Ergebnisse sind

teilweise auch in Frau Kruspes Herangehensweise

begründet: Sie hat nicht einfach

in Ilmenau (im Team) am Rechner an neuen

Ideen gearbeitet, sondern sie war zweimal

zu Forschungsaufenthalten an weltweit

führenden Stellen, zum einen bei Prof.

Hermansky an der Johns Hopkins University

in Baltimore und zum anderen bei Prof.

Masataka Goto am National Institute of

Advanced Industrial Science and Tech-


FKT Dezember 2020

41

nology AIST in Japan. So war sie von den

Top-Ergebnissen aus den für ihre Arbeit

notwendigen Teilbereichen beflügelt

und konnte auch die Herangehensweise

anderer internationaler Gruppen in der

Forschung studieren. All das, verbunden

mit fleißiger Veröffentlichungstätigkeit,

führte dazu, dass sie weltweit zu einer

gesuchten Gesprächspartnerin wurde mit

Einladungen zu Vorträgen bei Google, Amazon

und Spotify sowie vielen Universitäten.

Inzwischen ist Frau Kruspe am DLR-Institut

für Datenwissenschaften in Jena tätig, wo

sie weiter an Fragen des maschinellen

Lernens forscht.

Es war bereits von Preisen für ihre Arbeit

die Rede. Ergänzend sei erwähnt, dass

sie auch eine IDMT-Tradition fortführte und

in dem jährlichen Wettbewerb im Bereich

MIR (MIREX) in ihrer Kategorie den besten

Vorschlag erzielte.

Meine Erinnerung an ihre Zeit am

Fraunhofer IDMT ist aber auch ganz

wesentlich davon geprägt, wie sie sich im

Team und bei Veranstaltungen im Institut

musikalisch eingebracht hat. Das können

wir heute leider nicht hören, aber sie war

sehr engagiert bei den Auftritten unserer

Instituts-Band dabei, überwiegend am

Keyboard.

Es gäbe noch viel mehr zu erzählen.

Zum Abschluss bleibt mir nur hinzuzufügen,

dass ich sehr stolz darauf bin, dass

eine junge Wissenschaftlerin wie Frau Dr.

Kruspe bei uns gearbeitet und geforscht

hat.

Herzlichen Glückwunsch!

Prof. Dr.-Ing. Karlheinz Brandenburg

FKTG

LAUDATIO – VERLEIHUNG DES

INNOVATIONSPREISES AN PROF.

KARLHEINZ BRANDENBURG

Karlheinz Brandenburg ist erster Preisträger

dieses neu gestifteten Preises.

Warum? Das ist leicht erklärt:

Wir haben in den letzten 150 Jahren

verschiedene Medienumbrüche im audiovisuellen

Umfeld erlebt.

Mit dem Kinofilm war es erstmals

möglich, Bewegtbildszenen auf Dauer festzuhalten

und wiederzugeben, daraus ist

die Deutsche Kinotechnische Gesellschaft,

unsere Vorläuferorganisation entstanden.

In den 50er Jahren des vorherigen Jahrhunderts

entwickelte sich die Fernsehtechnik,

die zur Fernsehtechnischen Gesellschaft

wurde, und 1973 den Zusammenschluss

zu FKTG begründete. Seit den 90-er Jahren

des vorherigen Jahrhunderts erleben wir

einen ungeahnten Boom des Internet und

der digitalen audiovisuellen Verarbeitung,

vor allem auch der Ton- und Videoübertragung

über das Internet, so dass man mit

Fug und Recht behaupten kann, dass dies

eine weitere Revolution der audiovisuellen

Medien darstellt. Dies war der Grund,

diesen neuen Preis ins Leben zu rufen. Der

Wunsch nach audiovisueller Kommunikation

kennt keine Grenzen, nur das Trägermedium

ändert sich. Wenn man sich nun

den Beginn dieser audiovisuellen Revolution

anschaut, so hat dies mit der Toncodierung

und -übertragung begonnen. Hier

kommt nun Prof. Brandenburg ins Spiel.

Karlheinz Brandenburg, geboren 1954

in Erlangen, studierte Elektrotechnik und

Mathematik, erhielt zwei Diplome 1980

und 1982 und promovierte anschließend

bei Prof. Seitzer, übrigens auch mein Doktorvater.

Prof. Seitzer hatte die Idee, Musik

über ISDN-Telefonleitungen zu übertragen

und der junge Doktorand Karlheinz Bran­

Prof. Dr.-Ing. Karlheinz Brandenburg,

Preisträger des Innovationspreises für Medientechnologie

in der Informationstechnik

denburg hatte die Aufgabe, ein Verfahren

zu entwickeln, wie dies möglich wird.

Prof. Seitzer war natürlich auch sonst sehr

rührig und gründete auch noch 1985 eine

Arbeitsgruppe der Fraunhofer Gesellschaft,

das heutige Fraunhofer Institut für Integrierte

Schaltungen in Erlangen. In einem

gemeinsamen europaweiten Projekt des

Digital Audio Broadcasting entwickelten

dann die beiden Forschergruppen an der

Universität und Fraunhofer gemeinsam

einen neuen Kompressionsstandard, der

1992 als MPEG-Audio Layer 3 abgeschlossen

wurde. Mit seiner Dissertation über

Adaptive Transformationscodierung, die er

1989 abschloss, hat Prof. Brandenburg die

Grundlagen der heutigen Audiocodierung

gelegt.

Es gibt viele Geschichten um den Standard

MP3, die Gründe für seinen holprigen

kommerziellen Start und seinen dann

doch weltweiten Erfolg. Vielleicht erzählt

uns Prof. Brandenburg im Anschluss noch

etwas dazu. Für mich ist es eine Kombination

aus deutscher beharrlicher Ingenieurskunst,

einem Umbruch in der Kommunikationstechnik

und dem Glück des Tüchtigen.

Mit dieser Entwicklung wurde das Tor für

die Übertragung von audiovisuellen

Medien über das Internet aufgestoßen.

Prof. Brandenburg hat nach seiner

Zeit am Fraunhofer IIS in Erlangen als

Institutsleiter und Professor in Ilmenau

weitere tolle Entwicklungen vorangebracht.

Ich persönlich habe mit ihm und seinen

Mitarbeitern in vielen Projekten zusammengearbeitet.

Seine Auszeichnungen

und Ehrungen sind kaum zählbar, unter

Ihnen das Verdienstkreuz am Bande der

Bundesrepublik Deutschland, der Deutsche

Zukunftspreis oder die Aufnahme in

die Hall of Fame der Consumer Electronic

Association.

Audio und deren Rätsel sind seine

Leidenschaft, auch nach seinem Ausscheiden

aus dem aktiven Berufsleben. Wobei

die Gründung einer neuen Firma, die

Forschung an intelligenten Kopfhörern und

die Arbeit als Senior Professor sind nicht

wirklich, was man sich unter Ruhestand

vorstellt.

Aus all diesen Gründen ist es der

FKTG eine besondere Ehre, Prof. Karlheinz

Brandenburg zum ersten Preisträger des

Innovationspreises für Medientechnologie

in der Informationstechnik zu ernennen.

Prof. Brandenburg, Karlheinz, meinen herzlichsten

Glückwunsch und vielen Dank für

die Jahre der bisherigen Zusammenarbeit!

Dr.-Ing. Siegfried Fößel

Quelle: Jürgen Burghardt


42 Dezember 2020 FKT

Vorschau

NEUER AUDIOCODEC LC3 FÜR

SPRACHÜBERTRAGUNG UND MUSIK-STREAMING

Mit dem Audiocodec Low Complexity Communication Codec (LC3) hat Fraunhofer

IIS eine Lösung speziell für drahtlose Kommunikationsplattformen wie Bluetooth

und DECT (Digital Enhanced Cordless Telecommunications) entwickelt. Die Betriebsarten

des Codecs reichen von mittleren Datenraten für eine optimale Sprachübertragung

bis hin zu hohen Datenraten für hochauflösende Musik-Streaming-Dienste.

Gleichzeitig arbeitet der Codec mit geringer Latenzzeit, geringer Komplexität und

geringem Speicherbedarf.

WIE KÜNSTLICHE INTELLIGENZ

DIE MEDIENPRODUKTION VERÄNDERT

Wie Künstliche Intelligenz (KI) heute und in Zukunft die Medienproduktion beeinflussen

wird, steht im Zentrum des 1. Münchener KI-Symposiums. Dabei beschränkt

sich der Einsatz von Künstlicher Intelligenz nicht nur auf eine einzelne Anwendung,

vielmehr erstrecken sich die Möglichkeiten aufgrund der Digitalisierung auf alle

Gewerke. Beginnend vom Drehbuch und der Zuschaueranalyse, über die Metadatengenerierung

bis hin zur Schnittunterstützung und Deep-Fake-Erkennung ist

eine der Kernfragen des KI-Symposiums, welchen Nutzen der Einsatz von künstlicher

Intelligenz bringen kann. FKT liefert eine Nachlese der Veranstaltung.

PILOTPROJEKT FÜR NEUES

CLOUDBASIERTES TOOLSET

Gemeinsam mit NRK, dem öffentlich-rechtlichen Sender in Norwegen, startet Sony

eine Machbarkeitsstudie. Ziel der Studie ist die Entwicklung eines neuen cloudbasierten

und automatisierten Produktionstoolsets. Dieses Set soll den Produktionsprozess

optimieren, die Duplizierung von Metadaten-Einträgen verhindern und

das Content-Management automatisieren.

Offizielles Organ der Fernseh- und Kinotechnischen

Gesellschaft (FKTG) in Verbindung mit dem Fachbereich 3

der ITG, des DIN-Normenausschusses Veranstaltungstechnik,

Bild und Film (NVBF) und des Arbeitsausschusses

NA 149-00-03 AA „Produktion, Wiedergabe und Archivierung

von audiovisuellen Medien“.

Redaktion

Leitender Redakteur

Martin Braun

Telefon: +49 (30) 25375249

E-Mail: braun@schiele-schoen.de

Redakteure

Thomas Schierbaum (für IRT-Seiten)

Telefon: +49 (89) 32399374

Dr. Hans Hoffmann (für EBU)

Telefon: +41 (22) 7172746

Martin Braun (für FKTG-Seiten)

E-Mail: braun@schiele-schoen.de

Technisch-wissenschaftlicher Beirat

Erweiterter Vorstand der Fernseh- und Kinotechnischen

Gesellschaft (Dr.-Ing. S. Fößel, Dr.-Ing. R. Schäfer, M. Bauer,

J. Brückner, N. Einig, L. Görner, R. Kupke, L. Lenzen, S. Rettner)

sowie Prof. Dr. R. Hedtke und Prof. Dr. U. Reimers

Verlagsanschrift

Schiele & Schön GmbH

Schlangenbader Straße. 13, 14197 Berlin

Telefon: +49 (30) 253752-10

E-Mail: service@schiele-schoen.de

Internet: www.schiele-schoen.de

Anzeigen

Gültig ist die Anzeigenpreisliste

vom 1. Januar 2020.

Anzeigenleitung: Stefanie Rosenlöcher

E-Mail: rosenloecher@schiele-schoen.de

Telefon: +49 (30) 253752-78

Anzeigendisposition: Diana Stahn

E-Mail: stahn@schiele-schoen.de

Telefon: +49 (30) 253752-20

Die Fachzeitschrift für Fernsehen,

Film und elektronische Medien

74. Jahrgang

Herstellung

Layout: Karen Weirich · Konzept: Eva Hernández

Vertrieb

Die FKT erscheint zehnmal jährlich.

Abo- und Vertriebsservice:

Helga Leuchter

E-Mail: leuchter@schiele-schoen.de

Telefon: +49 (30) 253752-24

Jahresabonnement

In Deutschland 169,00 € inkl. Versandkosten,

außerhalb Deutschlands 176,00 € inkl. Versandkosten.

Studenten- bzw. Azubi-Abo 80,50 €

inkl. Versandkosten (Nachweis).

Einzelheft 16,00 €

ePaper-Jahresabonnement 156,00 €

ePaper-Studentenabonnement 78,00 €

Abonnementskündigungen sind zum Ende des jeweiligen

Bezugsraums möglich und müssen bis sechs Wochen

vor Ende des Bezugszeitraums beim Verlag eingetroffen

sein. Andernfalls verlängert sich das Abonnement um ein

weiteres Jahr. Mitglieder der FKTG erhalten die Zeitschrift

im Rahmen eines Mitgliedsbeitrags.

Druck Druckhaus Gera GmbH, Gera

ISSN 1430-9947

– Änderungen vorbehalten –

FKT 1-2/2021 erscheint am 8. Februar 2021

Mitglied der Informationsgemeinschaft

zur Feststellung der Verbreitung von

Werbeträgern e. V. (IVW)

Tatsächlich verbreitete Auflage:

1.824 Exemplare, IVW 3/2020

Für die Übernahme von Artikeln in interne elektronische

Pressespiegel erhalten Sie die erforderlichen Rechte über

die PMG Presse-Monitor GmbH, Berlin.

Telefon: 030/ 284930 oder www.presse-monitor.de


Der Ton

macht die

Musik

NEU!

Wie der Ton zum Bild passt:

Wege zu effektivem Sounddesign

Maximilian Kock

152 Seiten, gebunden

Bestell-Nr. 959, € 24,80

Der Tonmeister

Carlos Albrecht

264 Seiten, gebunden

Bestell-Nr. 933, € 49,90

dritte

Auflage

NEU!

Die Welt des Klangs

The World of Sound

Peter K. Burkowitz

Musik auf dem Weg vom

Künstler zum Hörer

400 Seiten, gebunden, mit DVD

Bestell-Nr. 794, € 49,90

Sound-Design · Sound-Montage

· Soundtrack-Komposition

Jörg U. Lensing

Über die Gestaltung von Filmton

3. Auflage

ca. 280 Seiten, gebunden

Bestell-Nr.935, € 39,90

Audio-Logo-Vision im Kinofilm

Michel Chion

Geschichte, Ästhetik, Poesie

ca. 340 Seiten, broschiert

Bestell-Nr. 937, € 68,00

Herausgegeben von Prof. J. U. Lensing

Gleich bestellen

Tel.: 030 25 37 52-10

service@schiele-schoen.de

www.schiele-schoen.de

Alle Bücher auch als

eBook

erhältlich!


Fachübergreifende,

praxisnahe

Berichterstattung aus

unterschiedlichen

Perspektiven

THEMEN:

Fernsehtechnik

Filmtechnik

Videotechnik

Audiotechnik

Produktion und

Medienverwaltung

Jahresabo

169,00 €

* im Ausland

176,00 €

Studentenabo

80, 50 €

Einzelheft

16,00 €

Besuchen Sie uns

auch online

» Tagesaktuelle News

» Stellenbörse

» Umfangreiches Archiv

Fernseh-, Kino- und Systemtechnik

www.fkt-online.de

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!