Umfangreiches KI-Upgrade in der Content Produktion der DFL

14.7.2025 – Die Zusammenarbeit der DFL Deutsche Fußball Liga mit Amazon Web Services (AWS) trägt viele Früchte. Insbesondere die Anwendung von künstlicher Intelligenz trägt dazu bei, dass Bundesliga-Fans in aller Welt immer stärker auf ihre Interessen zugeschnittenen Content zur Verfügung gestellt bekommen. Zwei aktuelle Beispiele werden in diesem Artikel beleuchtet: Eine automatisierte Lokalisierungs- und Übersetzungslösung und eine KI-gestützte Metadaten-Anreicherung für Videomaterial, die die Auffindbarkeit und Nutzbarkeit von Inhalten revolutioniert.
Fokus auf die Fans: Inhalte stehen in mehreren Sprachen zur Verfügung
Um internationalen Medienpartnern verschiedene Content-Formate für ihre Zielgruppen zur Verfügung stellen zu können, übersetzt die DFL verschiedene Non-Live-Inhalte rund um die Bundesliga und 2. Bundesliga in möglichst viele Zielsprachen. Der Fokus liegt auf den weit verbreiteten Sprachen Englisch, Französisch, Portugiesisch und Arabisch.
Das Volumen dieser Medieninhalte ist eine große Herausforderung bei der Übersetzung. Um dennoch für einen Großteil des Contents Sprachbarrieren zu überwinden und dadurch deren Reichweite zu vergrößern, hat die DFL mit Hilfe von AWS eine KI-gestützte Lokalisierungs- und Übersetzungslösung entwickelt. Unter dem Arbeitstitel „Content OS“ ist eine Anwendung entstanden, die den Proof-of-Concept-Test erfolgreich bestanden hat.
Das Ziel: Medienpartner und DFL-interne Produktionsteams können Text und Ton vorhandener Clips automatisch in andere Sprachen übersetzen. Die Zeitersparnis gegenüber einer herkömmlichen Übersetzung liegt bei 50 bis 75 Prozent. So kann die Bundesliga zukünftig ein Angebot schaffen, das es weltweit mehr Fans als je zuvor ermöglicht, die Bundesliga und 2. Bundesliga in ihrer Muttersprache zu erleben.
Wir wollen kein künstliches Endprodukt.
Luccas Roznowicz, Head of Strategic Cooperations DFL
Voice-to-Voice als mehrstufiger Prozess
Wichtig für das Gelingen des Prototyps war, dass die sprachliche Ausgangsbasis ein menschliches Produkt ist. „Wir wollen kein künstliches Endprodukt“, erläutert Luccas Roznowicz, Head of Strategic Cooperations bei der DFL. „Das Original – ob Tonspur oder Untertitel – ist immer eine menschliche Äußerung. Dadurch steht der unverzichtbare ‚Human in the Loop‘ gleich am Anfang. Wir waren überrascht, wie gut die Übersetzungsergebnisse waren.“
Besonders anspruchsvoll ist die sogenannte Voice-to-Voice-Übersetzung – die Wiedergabe gesprochener Texte in einer ebenfalls gesprochenen Zielsprache. Hierbei muss das verarbeitende System den O-Ton zunächst „verstehen“, das heißt mit Hilfe eines Large-Language-Model (LLM) abgleichen, um unklare Wörter und Ausdrucksweisen zu klären. Der so erstellte Text wird dann einer Übersetzungs-Engine zugeführt, und das Resultat in Form einer Tonspur generiert.
„Am Anfang klangen die Computerstimmen noch sehr künstlich,“ meint Roznowicz. „Inzwischen sind die Ergebnisse wirklich gut, wenn auch noch nicht perfekt.“ Perfektionismus sei dabei auch gar nicht zielführend, denn der Zeitfaktor sei entscheidend: „Wenn wir dem Broadcaster sehr schnell ein Produkt in seiner Sprache in vergleichsweise hoher Qualität liefern, dann ermöglichen wir dem Medienpartner, seinen Arbeitsaufwand so gering wie möglich zu halten“, so Roznowicz.
Nächster Schritt: „Minimum Viable Product“
Im nächsten Schritt wird die Lösung nun zum einem „Minimum Viable Product“ weiterentwickelt, welches weiter „trainiert“ wird, um die Resultate stetig zu optimieren. In der Spielzeit 2025/26 sollen erste Testgruppen aus Partner und Produktionsteams über das Medienportal die Non-Live Inhalte in der jeweiligen Landessprache bestellen können. Diese Lokalisierungsplattform wird so zur gemeinsamen Infrastruktur für Storytelling, in der Skalierbarkeit, Geschwindigkeit und Qualität miteinander harmonieren.
Intelligente Metadaten-Generierung
Auch mit der Einführung von Intelligent Generation of Metadata (IGM) setzt die DFL neue Maßstäbe in der Verarbeitung und Aufbereitung von Sportinhalten. Dieses vollständig cloud-native System nutzt künstliche Intelligenz, um Videomaterial automatisch mit Metadaten anzureichern und so die Auffindbarkeit und Nutzbarkeit von Inhalten auf ein neues Niveau zu heben.
„Mit IGM setzen wir an einer Kernherausforderung aller Rechtehalter im Sport an – der Generierung der richtigen Metadaten, um das volle Potenzial unseres einzigartigen Content-Angebots zu heben. Cloud-Technologie von AWS und der Einsatz künstlicher Intelligenz sind dabei die Schlüssel, um Inhalte effizient auffindbar, durchsuchbar und verwertbar zu machen“, erklärt Roznowicz.
Neue Wege der Verarbeitung und Bereitstellung von Sportinhalten
IGM analysiert Videomaterial mit mehreren KI-Modellen gleichzeitig und generiert präzise, durchsuchbare Metadaten. Dabei erkennt das System automatisch Fußballereignisse wie Tore, Emotionen oder außergewöhnliche Fanreaktionen. Durch die Kombination von klassischer Ereigniserkennung und moderner semantischer KI ermöglicht IGM eine intuitive Suche, die auch spezielle Anfragen wie etwa „alle Tore von Harry Kane nach der 80. Minute“ oder „Fans, die im Regen feiern“ in Sekunden beantworten kann.

Der Weg zum Smart Content
Mit IGM setzt die DFL neue Standards in der Aufbereitung von Medieninhalten und zeigt dabei, wie KI die Art und Weise verändert, in der im Fußball Content identifiziert und produziert wird.
IGM steigert nicht nur die Produktionseffizienz, sondern erlaubt es auch, menschliche Kapazitäten auf andere Tätigkeiten wie zum Beispiel für kreatives Storytelling zu fokussieren. Gepaart mit einer benutzerfreundlichen Oberfläche und Suchmaske liefert IGM die präzisen, KI-gestützten Metadaten, die Inhalte wie Tore, Emotionen oder Fanreaktionen auffindbar machen. So entsteht eine nahtlose Lösung, die Zeit spart und die Auffindbarkeit relevanter Inhalte für Medienpartner, Clubs und Editoren stärkt. Derzeit ist IGM ein Proof of Concept (PoC) und noch nicht für den Live-Betrieb oder die Verarbeitung des gesamten Medienarchivs skaliert.
Zukunftspotenziale von IGM
IGM kann jede Art von Video verarbeiten und entscheidet autonom, welche Metadaten angereichert werden. Es segmentiert Videos per KI und speichert Metadaten sowohl für einzelne Segmente als auch für das gesamte Video. Neben der Erkennung von Ereignissen wie Toren bietet IGM Funktionen wie auf LLM basierende textliche Zusammenfassungen, Personen- und Emotionserkennung, Transkription und Vector Embeddings.