artcount
  • News
  • Zukunft
  • themenwochen
  • Köpfe
  • Jobs
  • Termine
  • edition
  • podcast
  • werben bei turi2
  • suchen auf turi2
  • FAQ
  • werben bei turi2
  • Team
  • Newsletter
  • themenwochen
  • Köpfe
  • Firmen
  • Termine
  • Edition
  • podcast
  • turi2.tv
  • turi2 folgen
  • Partner
  • RSS-Feed
  • Datenschutz
  • Impressum

Jugendschutz mit KI: Wie Daniela Hansjosten mit der KI “Merm:ai:d” den Jugendschutz bei RTL aufs nächste Level hebt.

15. Dezember 2025

RTL Deutschland startet im Januar einen Modellversuch für seine selbstentwickelte Jugendschutz-KI “Merm:ai:d”. Das System analysiert audiovisuelle Inhalte und unterstützt die Redaktionen bei der Altersfreigabe. Die Kommission für Jugendmedienschutz testet die Software dabei erstmals im Rahmen eines offiziellen Verfahrens für KI-Anwendungen. Die Freiwillige Selbstkontrolle Fernsehen und die Freiwillige Selbstkontrolle Multimedia-Diensteanbieter begleiten das Projekt fachlich. Wie das Tool funktioniert, wie RTL damit die Effizienz steigern, aber weiter auf menschliche Verantwortung und Transparenz setzen will, erklärt Daniela Hansjosten, Leiterin Standards & Practices im Jugendschutz von RTL Deutschland, im Kurzinterview mit turi2.

RTL legt mit “Merm:ai:d” eine selbst entwickelte Jugendschutz-KI vor. Lassen Sie uns grundsätzlich starten: Warum braucht es für den Jugendmedienschutz überhaupt eine KI? Als Inhalte-Produzent sollte RTL Deutschland doch eigentlich wissen, was in seinen Programmen passiert.

RTL Deutschland betreibt ein umfangreiches Sender- und Streaming-Portfolio mit 15 TV-Sendern sowie dem Streaming-Angebot RTL+. Allein für RTL+ werden pro Jahr etwa 25.000 neue Videostunden eingespielt, Tendenz steigend. Dazu zählen neben Eigenproduktionen auch eine große Zahl eingekaufter Programme, die jeweils unter Jugendschutzgesichtspunkten bewertet werden müssen.
Das Volumen der zu prüfenden Inhalte übersteigt bereits heute die Kapazitäten eines klassischen Jugendschutzteams deutlich, und dieser Druck nimmt mit der wachsenden Menge an Bewegtbildinhalten weiter zu. Ohne effizientere Prozesse, Priorisierung und technische Unterstützung (z.B. automatisierte Voranalyse, bessere Metadaten, risikobasierte Auswahl) drohen Lücken im Jugendschutz sowie Überlastung der Fachkräfte. Verantwortung ist für RTL keine Floskel – mit Merm:ai:d können wir auch weiterhin diese erfüllen.

Wie funktioniert “Merm:ai:d”?

Merm:ai:d analysiert Inhalte in Bild und Ton mithilfe mehrerer spezialisierter KI-Module, erstellt automatisiert eine detaillierte inhaltliche Bewertung mit Deskriptoren und Altersempfehlung und unterstützt so Jugendschützer und Jugendschützerinnen bei schnellen, fundierten Freigabeentscheidungen.

Wie unterscheidet sich die Anwendung von anderen Anbietern?

Zum jetzigen Stand ist keine vergleichbare, speziell auf den Jugendmedienschutz zugeschnittene Anwendung im produktiven Einsatz bekannt. Das zentrale Alleinstellungsmerkmal von Merm:ai:d ist die weitgehend vollautomatisierte inhaltliche Analyse und Vorstrukturierung audiovisueller Inhalte entlang jugendschutzrelevanter Kriterien – von der Risikoerkennung über Deskriptoren bis hin zu einer Altersempfehlung als Entscheidungsvorschlag für die Prüfenden. Hinzu kommt, dass Merm:ai:d nicht nur einzelne Teilaufgaben unterstützt, sondern den gesamten Bewertungsprozess von der Erstsichtung bis zur dokumentierten Entscheidung medienbruchfrei begleitet. Die Kombination aus modularer KI-Architektur, speziell trainierten Modellen für Jugendschutzthemen und der engen Einbindung in professionelle Workflows von Jugendschutzteams macht das System derzeit einzigartig und bildet die Grundlage für eine zukünftige Skalierung auf das gesamte Content-Portfolio von RTL Deutschland.

Wo soll “Merm:ai:d” angewendet werden?

Merm:ai:d war seit Anfang 2025 im Testbetrieb und wird seit Mitte 2025 vollumfänglich im Jugendschutz für RTL Deutschland eingesetzt. Die Lösung unterstützt das Jugendschutzteam dabei, die stetig wachsende Menge an Inhalten effizient und konsistent zu prüfen. Der Jugendschützer übergibt den zu prüfenden Inhalt an die KI, die innerhalb eines vordefinierten Zeitfensters strukturierte Ergebnisse zurückliefert. Diese Ergebnisse enthalten unter anderem eine inhaltliche und eine Expertenanalyse, die der Jugendschützerin und dem Jugendschützer ermöglicht, sich sehr schnell eine fundierte Meinung zum Titel zu bilden. Zusätzlich generiert das System automatisch bis zu drei inhaltliche Deskriptoren sowie eine Altersempfehlung als weitere Entscheidungshilfe. Auf Basis dieser vorstrukturierten Informationen kann der Jugendschutz in deutlich kürzerer Zeit über eine Freigabe oder gegebenenfalls weitere Prüfmaßnahmen entscheiden. Dies soll die Fachkräfte entlasten, für mehr Einheitlichkeit in den Bewertungen sorgen und Ressourcen für besonders sensible oder strittige Fälle freispielen.


Warum die Jugendschutz-KI von RTL Deutschland “Merm:ai:d” heißt:
Rund 180 Namensvorschläge haben die Mitarbeitenden von RTL Deutschland für die Jugendschutz-KI der Sendergruppe eingereicht. Der Name “Merm:ai:d” hat am Ende u.a. überzeugt, weil er leicht auszusprechen und international einsetzbar ist. Zudem stecken “AI” für “Artificial Intelligence” und “Aid” in dem Markennamen, was zum Selbstverständnis des Jugendschutz-Teams passe: “unterstützen, schützen, Orientierung geben”.
Weitere Infos zu Merm:ai:d und dem Pilot-Projekt auf media.rtl.de

“Merm:ai:d” wurde bereits vor einem Jahr entwickelt. Nun sind KIs generell heute ein gutes Stück weiter als vor einem Jahr. Was bedeuten diese sehr schnellen Entwicklungen für ein Programm wie “Merm:ai:d”?

Merm:ai:d besteht aus unterschiedlichen KI-Komponenten, die in einer modularen Architektur miteinander verbunden sind. Dieses Baukastensystem wurde von Anfang an so konzipiert, dass einzelne Module jederzeit ausgetauscht oder ergänzt werden können. Sobald ein leistungsstärkeres oder kostengünstigeres Modell verfügbar ist, kann es an der passenden Stelle integriert werden, ohne das Gesamtsystem neu aufbauen zu müssen. Dadurch lässt sich Merm:ai:d fortlaufend optimieren: höhere Erkennungsqualität, schnellere Verarbeitung und bessere Kosteneffizienz. Die Merm:ai:d von heute ist bereits auf einem völlig anderen Stand als noch Anfang des Jahres. So bleibt die Lösung langfristig flexibel, zukunftssicher und kann sich schnell an neue regulatorische Anforderungen, Content-Formate und Marktbedingungen anpassen.

Im Januar startet ein Modellversuch – was erwarten Sie sich davon?

Der Modellversuch ist aus unserer Sicht ein zentraler Schritt, um belastbare Qualitätsmerkmale für KI-Systeme im Jugendschutz zu definieren. Auf dieser Grundlage lässt sich die Leistungsfähigkeit KI-gesteuerter Altersbewertungssysteme systematisch und nachvollziehbar überprüfen. Dabei geht es insbesondere darum, Kriterien wie Treffgenauigkeit, Konsistenz, Transparenz, Nachvollziehbarkeit der Entscheidungen und den verantwortungsvollen Umgang mit Fehlklassifikationen zu erfassen und zu bewerten. Gleichzeitig ermöglicht der Modellversuch, das Zusammenwirken von KI und Prüfenden zu untersuchen und so ein hybrides Prüfmodell zu entwickeln, das Effizienzgewinne mit einem hohen Schutzniveau für Kinder und Jugendliche verbindet.

Wie gestaltet sich die Zusammenarbeit mit FSF, FSM und der KJM?

KJM, FSF und FSM sind zentrale Pfeiler des deutschen Jugendmedienschutzes und tragen maßgeblich zum Erfolg des Modells der regulierten Selbstregulierung bei. Sie bündeln staatliche Aufsicht, unabhängige Prüfung und branchenseitige Verantwortung, um Kinder und Jugendliche in Rundfunk, Fernsehen und Online-Diensten wirksam zu schützen. Die Zusammenarbeit ist partnerschaftlich und von gegenseitiger Wertschätzung geprägt, zugleich aber bewusst kritisch, um blinde Flecken zu vermeiden und den Schutzstandard kontinuierlich weiterzuentwickeln. Gemeinsames Ziel aller Beteiligten ist es, Jugendschutzpraxis und -regeln so auszugestalten, dass sie mit der Dynamik digitaler Medien Schritt halten.

Wie geht es nach Ihrem Modellversuch im Idealfall weiter?

Die Ergebnisse des Modellversuchs ermöglichen es, in Merm:ai:d mögliche Schwachstellen zu identifizieren, die Performance gezielt zu optimieren und die inhaltliche Qualität der Bewertungen weiter zu erhöhen, selbst wenn derzeit keine gravierenden Defizite erwartet werden. Gleichzeitig liefern sie evidenzbasierte Hinweise dazu, in welchen Szenarien die KI besonders zuverlässig arbeitet und wo menschliche Prüfer stärker eingebunden bleiben sollten. Für KJM, FSF und FSM bietet das Durchlaufen des Modellversuchs die Chance, den zuvor entwickelten Prüfkriterienkatalog in der Praxis zu erproben, zu schärfen und gegebenenfalls anzupassen. So entsteht schrittweise ein gemeinsam getragenes Qualitätsverständnis für KI-gestützte Altersbewertung, das als Referenz für zukünftige Systeme und Verfahren im Jugendmedienschutz dienen kann. Zentral aber ist, dass eine offizielle Zertifizierung Vertrauen in ein zuverlässiges KI-System schafft.


Daniela Hansjosten ist Leiterin der Abteilung Standards & Practices (Jugendschutz) bei RTL Deutschland und bundesweit als Expertin für Jugendmedienschutz aktiv. Zudem wirkt sie in Gremien wie der Freiwilligen Selbstkontrolle Fernsehen (FSF) an der Weiterentwicklung von Standards im Medien- und Online-Jugendschutz mit. Sie ist darüber hinaus im Vorstand der Freiwilligen Selbstkontrolle Multimedia-Diensteanbieter (FSM) sowie bei JusProg e.V. engagiert und bringt dort ihre Expertise zu technischen und inhaltlichen Jugendschutzlösungen ein.

turi2 hat die Interview-Fragen per E-Mail gestellt.

(Fotos: RTL Deutschland)

    • “Zeit für eine neue Zeitung” – So sehen die neue Marken-Identität und Kampagne der noz/shz aus.

      Die Zeitungsgruppe noz/shz in Osnabrück und Flensburg präsentiert sich mit einer neuen Marken-Identität – flankiert mit einer Werbekampagne mit dem Claim “Zeit für eine neue Zeitung”. Der erste Flight, der ab heute in Niedersachsen und Schleswig-Holstein läuft, zeigt Wortspiele wie &...
      weiterlesen
    • Social-Media-Verbot für Kinder in Australien – und in Europa? Diese Länder diskutieren Verbote von Tiktok, Youtube & Co.

      Zu jung für Social Media? Immer mehr Staaten wollen Australiens Beispiel folgen und die Jüngsten von bestimmten Apps fernhalten. Nicola Trenz hat sich in unserer Rubrik NewsKNAcker, die wir zusammen mit der KNA veröffentlichen, einen Überblick verschafft, welche Verbote diskutiert werden und wie...
      weiterlesen
    • “Bullying ist wieder salonfähig” – ARD-Korrespondentin Gudrun Engel über Beleidigungen von Journalisten.

      In seiner zweiten Amtszeit hat US-Präsident Donald Trump den Medien den Kampf angesagt. Er drohte zahlreichen Redaktionen mit juristischen Schritten und strengte eine Klage gegen die BBC an. Das Heimatschutzministerium plant, die Visa für ausländische Korrespondenten drastisch zu verkürzen. Für ...
      weiterlesen
    • Kurz und KNAckig: Jana Ballweber kritisiert Arbeitsverweigerung der Medienpolitik.

      Wenn es um den Umgang mit Instagram, TikTok & Co geht, ist aktuell Australien das große Vorbild der Medienpolitiker: Dort ist es Unter-16-Jährigen nun gesetzlich verboten, Social Media zu nutzen. Wenn es nach einigen deutschen Politik-Promis geht, könnten junge Menschen auch hierzulande bald...
      weiterlesen
    • Blick in die Glaskugel: Wie Gerald Hensel Markenverantwortliche zukunftsfest machen will.

      “Brand Future Scenarios” sollen mit KI die Zukunft erlebbar machen, um Markenverantwortliche in der Strategiearbeit zu unterstützen. Gerald Hensel von der Marketingberatung Superspring erzählt im Rahmen der Themenwoche Zukunft bei turi2, welcher Mehrwert entsteht, wenn aus Zielgruppe...
      weiterlesen
    • Es graswurzelt was: Wie das Jahr 2026 die Zuversicht in Medien, Wirtschaft und Politik zurückbringen könnte.

      Die Mehrheit der Menschen in Deutschland sieht schwarz für das Land. Diese ernüchternde Bilanz steht ganz am Anfang einer repräsentativen und tiefenpsychologischen Studie, hinter der die Initiative 18, #UseTheNews und die Marktforschungsagentur Rheingold Salon stehen. Mitte Mai 2025 kam die Stud...
      weiterlesen
    • Premiere für die Flimmerkiste: Vor 100 Jahren lief der erste Fernseher.

      Viereckige Augen vom Glotzen: Als 1926 der erste mechanische Fernseher lief, war dessen Siegeszug kaum abzusehen. Ob Castingshows oder Wettspiel-Abend und “Tagesschau” oder Tier-Doku – was als Technikexperiment begann, endete als Massenmedium im Wohnzimmer, beschreibt Daniel Zander i...
      weiterlesen
    • Ist das ein Trend, oder kann das weg? Von Trends, Hypes und allem dazwischen.

      Trends sind leise Verhaltensänderungen, Hypes dagegen laute Versprechen ohne Belege, finden Christian Simon und Johannes Klingebiel. Die Hosts des Podcasts “Hype Institut” sortieren in ihrem Gastbeitrag für die Themenwoche Zukunft das aktuelle Buzzword-Bingo und loten die Grenzen der...
      weiterlesen
    • “Die Menschen entwickeln nicht mehr automatisch Freude, nur weil etwas ‘nachhaltig’ ist.” Sebastian Ackermann über die Kommunikation von erneuerbaren Energien und sein TikTok-“Dilemma”.

      Hat der Begriff “Energiewende” ausgedient? Sebastian Ackermann, Leiter Kommunikation und Marke bei EnBW, spricht im Interview mit turi2 lieber von der “Transformation der Energieinfrastruktur”, auch weil der Begriff “Energiewende” sich zunehmend abnutze und au...
      weiterlesen
    • Mut zur Schnecke: Warum Philosophin Rebekka Reinhard der “Raketen-Geschwindigkeit” der KI mit Langsamkeit begegnet.

      Ausgerechnet ein Magazin über KI setzt auf gedrucktes Papier als “Artefakt”, das zur Langsamkeit zwingt. “human”-Chefredakteurin Rebekka Reinhard erklärt im Auftakt-Interview zur Themenwoche Zukunft bei turi2, warum sie Haptik gegen die “Raketen-Geschwindigkeit̶...
      weiterlesen

    Artikel-Navigation

    ← turi2 am Abend: Emotion, Investitionsverpflichtung, Paul Ronzheimer. turi2 am Morgen: Themenwoche Zukunft, Correctiv, Wolfram Weimer. →

Werktags um 7 und 17 Uhr die wichtigsten News aus Medien, Marketing und PR als Newsletter. Jetzt abonnieren!

Loading...

Suchen auf turi2.de

Banner turi2 Themenwoche
Impressum, Datenschutz, Mediadaten, FAQ, RSS-Feed, Termine
Dieses Blog läuft mit WordPress