Jugendschutz mit KI: Wie Daniela Hansjosten mit der KI “Merm:ai:d” den Jugendschutz bei RTL aufs nächste Level hebt.
15. Dezember 2025
RTL Deutschland startet im Januar einen Modellversuch für seine selbstentwickelte Jugendschutz-KI “Merm:ai:d”. Das System analysiert audiovisuelle Inhalte und unterstützt die Redaktionen bei der Altersfreigabe. Die Kommission für Jugendmedienschutz testet die Software dabei erstmals im Rahmen eines offiziellen Verfahrens für KI-Anwendungen. Die Freiwillige Selbstkontrolle Fernsehen und die Freiwillige Selbstkontrolle Multimedia-Diensteanbieter begleiten das Projekt fachlich. Wie das Tool funktioniert, wie RTL damit die Effizienz steigern, aber weiter auf menschliche Verantwortung und Transparenz setzen will, erklärt Daniela Hansjosten, Leiterin Standards & Practices im Jugendschutz von RTL Deutschland, im Kurzinterview mit turi2.
RTL legt mit “Merm:ai:d” eine selbst entwickelte Jugendschutz-KI vor. Lassen Sie uns grundsätzlich starten: Warum braucht es für den Jugendmedienschutz überhaupt eine KI? Als Inhalte-Produzent sollte RTL Deutschland doch eigentlich wissen, was in seinen Programmen passiert.
RTL Deutschland betreibt ein umfangreiches Sender- und Streaming-Portfolio mit 15 TV-Sendern sowie dem Streaming-Angebot RTL+. Allein für RTL+ werden pro Jahr etwa 25.000 neue Videostunden eingespielt, Tendenz steigend. Dazu zählen neben Eigenproduktionen auch eine große Zahl eingekaufter Programme, die jeweils unter Jugendschutzgesichtspunkten bewertet werden müssen.
Das Volumen der zu prüfenden Inhalte übersteigt bereits heute die Kapazitäten eines klassischen Jugendschutzteams deutlich, und dieser Druck nimmt mit der wachsenden Menge an Bewegtbildinhalten weiter zu. Ohne effizientere Prozesse, Priorisierung und technische Unterstützung (z.B. automatisierte Voranalyse, bessere Metadaten, risikobasierte Auswahl) drohen Lücken im Jugendschutz sowie Überlastung der Fachkräfte. Verantwortung ist für RTL keine Floskel – mit Merm:ai:d können wir auch weiterhin diese erfüllen.
Wie funktioniert “Merm:ai:d”?
Merm:ai:d analysiert Inhalte in Bild und Ton mithilfe mehrerer spezialisierter KI-Module, erstellt automatisiert eine detaillierte inhaltliche Bewertung mit Deskriptoren und Altersempfehlung und unterstützt so Jugendschützer und Jugendschützerinnen bei schnellen, fundierten Freigabeentscheidungen.
Wie unterscheidet sich die Anwendung von anderen Anbietern?
Zum jetzigen Stand ist keine vergleichbare, speziell auf den Jugendmedienschutz zugeschnittene Anwendung im produktiven Einsatz bekannt. Das zentrale Alleinstellungsmerkmal von Merm:ai:d ist die weitgehend vollautomatisierte inhaltliche Analyse und Vorstrukturierung audiovisueller Inhalte entlang jugendschutzrelevanter Kriterien – von der Risikoerkennung über Deskriptoren bis hin zu einer Altersempfehlung als Entscheidungsvorschlag für die Prüfenden. Hinzu kommt, dass Merm:ai:d nicht nur einzelne Teilaufgaben unterstützt, sondern den gesamten Bewertungsprozess von der Erstsichtung bis zur dokumentierten Entscheidung medienbruchfrei begleitet. Die Kombination aus modularer KI-Architektur, speziell trainierten Modellen für Jugendschutzthemen und der engen Einbindung in professionelle Workflows von Jugendschutzteams macht das System derzeit einzigartig und bildet die Grundlage für eine zukünftige Skalierung auf das gesamte Content-Portfolio von RTL Deutschland.
Wo soll “Merm:ai:d” angewendet werden?
Merm:ai:d war seit Anfang 2025 im Testbetrieb und wird seit Mitte 2025 vollumfänglich im Jugendschutz für RTL Deutschland eingesetzt. Die Lösung unterstützt das Jugendschutzteam dabei, die stetig wachsende Menge an Inhalten effizient und konsistent zu prüfen. Der Jugendschützer übergibt den zu prüfenden Inhalt an die KI, die innerhalb eines vordefinierten Zeitfensters strukturierte Ergebnisse zurückliefert. Diese Ergebnisse enthalten unter anderem eine inhaltliche und eine Expertenanalyse, die der Jugendschützerin und dem Jugendschützer ermöglicht, sich sehr schnell eine fundierte Meinung zum Titel zu bilden. Zusätzlich generiert das System automatisch bis zu drei inhaltliche Deskriptoren sowie eine Altersempfehlung als weitere Entscheidungshilfe. Auf Basis dieser vorstrukturierten Informationen kann der Jugendschutz in deutlich kürzerer Zeit über eine Freigabe oder gegebenenfalls weitere Prüfmaßnahmen entscheiden. Dies soll die Fachkräfte entlasten, für mehr Einheitlichkeit in den Bewertungen sorgen und Ressourcen für besonders sensible oder strittige Fälle freispielen.
Warum die Jugendschutz-KI von RTL Deutschland “Merm:ai:d” heißt:
Rund 180 Namensvorschläge haben die Mitarbeitenden von RTL Deutschland für die Jugendschutz-KI der Sendergruppe eingereicht. Der Name “Merm:ai:d” hat am Ende u.a. überzeugt, weil er leicht auszusprechen und international einsetzbar ist. Zudem stecken “AI” für “Artificial Intelligence” und “Aid” in dem Markennamen, was zum Selbstverständnis des Jugendschutz-Teams passe: “unterstützen, schützen, Orientierung geben”.
Weitere Infos zu Merm:ai:d und dem Pilot-Projekt auf media.rtl.de
“Merm:ai:d” wurde bereits vor einem Jahr entwickelt. Nun sind KIs generell heute ein gutes Stück weiter als vor einem Jahr. Was bedeuten diese sehr schnellen Entwicklungen für ein Programm wie “Merm:ai:d”?
Merm:ai:d besteht aus unterschiedlichen KI-Komponenten, die in einer modularen Architektur miteinander verbunden sind. Dieses Baukastensystem wurde von Anfang an so konzipiert, dass einzelne Module jederzeit ausgetauscht oder ergänzt werden können. Sobald ein leistungsstärkeres oder kostengünstigeres Modell verfügbar ist, kann es an der passenden Stelle integriert werden, ohne das Gesamtsystem neu aufbauen zu müssen. Dadurch lässt sich Merm:ai:d fortlaufend optimieren: höhere Erkennungsqualität, schnellere Verarbeitung und bessere Kosteneffizienz. Die Merm:ai:d von heute ist bereits auf einem völlig anderen Stand als noch Anfang des Jahres. So bleibt die Lösung langfristig flexibel, zukunftssicher und kann sich schnell an neue regulatorische Anforderungen, Content-Formate und Marktbedingungen anpassen.
Im Januar startet ein Modellversuch – was erwarten Sie sich davon?
Der Modellversuch ist aus unserer Sicht ein zentraler Schritt, um belastbare Qualitätsmerkmale für KI-Systeme im Jugendschutz zu definieren. Auf dieser Grundlage lässt sich die Leistungsfähigkeit KI-gesteuerter Altersbewertungssysteme systematisch und nachvollziehbar überprüfen. Dabei geht es insbesondere darum, Kriterien wie Treffgenauigkeit, Konsistenz, Transparenz, Nachvollziehbarkeit der Entscheidungen und den verantwortungsvollen Umgang mit Fehlklassifikationen zu erfassen und zu bewerten. Gleichzeitig ermöglicht der Modellversuch, das Zusammenwirken von KI und Prüfenden zu untersuchen und so ein hybrides Prüfmodell zu entwickeln, das Effizienzgewinne mit einem hohen Schutzniveau für Kinder und Jugendliche verbindet.
Wie gestaltet sich die Zusammenarbeit mit FSF, FSM und der KJM?
KJM, FSF und FSM sind zentrale Pfeiler des deutschen Jugendmedienschutzes und tragen maßgeblich zum Erfolg des Modells der regulierten Selbstregulierung bei. Sie bündeln staatliche Aufsicht, unabhängige Prüfung und branchenseitige Verantwortung, um Kinder und Jugendliche in Rundfunk, Fernsehen und Online-Diensten wirksam zu schützen. Die Zusammenarbeit ist partnerschaftlich und von gegenseitiger Wertschätzung geprägt, zugleich aber bewusst kritisch, um blinde Flecken zu vermeiden und den Schutzstandard kontinuierlich weiterzuentwickeln. Gemeinsames Ziel aller Beteiligten ist es, Jugendschutzpraxis und -regeln so auszugestalten, dass sie mit der Dynamik digitaler Medien Schritt halten.
Wie geht es nach Ihrem Modellversuch im Idealfall weiter?
Die Ergebnisse des Modellversuchs ermöglichen es, in Merm:ai:d mögliche Schwachstellen zu identifizieren, die Performance gezielt zu optimieren und die inhaltliche Qualität der Bewertungen weiter zu erhöhen, selbst wenn derzeit keine gravierenden Defizite erwartet werden. Gleichzeitig liefern sie evidenzbasierte Hinweise dazu, in welchen Szenarien die KI besonders zuverlässig arbeitet und wo menschliche Prüfer stärker eingebunden bleiben sollten. Für KJM, FSF und FSM bietet das Durchlaufen des Modellversuchs die Chance, den zuvor entwickelten Prüfkriterienkatalog in der Praxis zu erproben, zu schärfen und gegebenenfalls anzupassen. So entsteht schrittweise ein gemeinsam getragenes Qualitätsverständnis für KI-gestützte Altersbewertung, das als Referenz für zukünftige Systeme und Verfahren im Jugendmedienschutz dienen kann. Zentral aber ist, dass eine offizielle Zertifizierung Vertrauen in ein zuverlässiges KI-System schafft.
Daniela Hansjosten ist Leiterin der Abteilung Standards & Practices (Jugendschutz) bei RTL Deutschland und bundesweit als Expertin für Jugendmedienschutz aktiv. Zudem wirkt sie in Gremien wie der Freiwilligen Selbstkontrolle Fernsehen (FSF) an der Weiterentwicklung von Standards im Medien- und Online-Jugendschutz mit. Sie ist darüber hinaus im Vorstand der Freiwilligen Selbstkontrolle Multimedia-Diensteanbieter (FSM) sowie bei JusProg e.V. engagiert und bringt dort ihre Expertise zu technischen und inhaltlichen Jugendschutzlösungen ein.
turi2 hat die Interview-Fragen per E-Mail gestellt.