artcount
  • News
  • Zukunft
  • themenwochen
  • Köpfe
  • Jobs
  • Termine
  • edition
  • podcast
  • werben bei turi2
  • suchen auf turi2
  • FAQ
  • werben bei turi2
  • Team
  • Newsletter
  • themenwochen
  • Köpfe
  • Firmen
  • Termine
  • Edition
  • podcast
  • turi2.tv
  • turi2 folgen
  • Partner
  • RSS-Feed
  • Datenschutz
  • Impressum

KI als Sparringspartner: Max Penk über den Einsatz generativer KI in Kreation und Werbung.

3. September 2025

“Mit KI geben wir auch Menschen eine kreative Stimme, die sie vorher nicht hatten”, sagt Max Penk, scheidender Creative Innovation Director der Kreativ­­agentur David+Martin, im turi2-Interview zur Themenwoche KI & Innovation. Er nutzt KI als Sparrings­partner, um Ideen, die er sonst Kollegen erzählt hätte, weiterzu­entwickeln und zu visualisieren. “Das sind nicht immer Gedanken, auf die ich nicht auch selbst gekommen wäre, aber es spart enorm viel Zeit.” Was KI bisher nicht gut könne, seien Emotionen und Empathie, aber auch das kreative Um-die-Ecke-Denken: “Die KI geht immer den Weg des universell Angelernten. Aber das hilft nicht immer der Kreativität”, sagt Penk. Im Gespräch mit turi2-Redakteur Björn Czieslik erzählt er auch, wann er Kunden vom KI-Einsatz abrät, welche Kreativ-Jobs wegfallen und warum er auch Maschinen ein “Recht auf Inspiration” zuspricht.

Von Björn Czieslik

Max, Du hast schon früh angefangen, Dich mit KI in der Kreation zu beschäftigen. Was waren die ersten Cases, die du für echte Kunden umgesetzt hast?

Als ich Anfang 2023 zu David+Martin gekommen bin, waren ChatGPT und Midjourney gerade frisch draußen und wir hatten Burger King als Kunden. Die hatten ein neues Produkt in der Entwicklung, nämlich „Cheeseburger Nuggets“. Da konnte sich erst einmal niemand vorstellen, was das sein soll. Ist das ein Nugget so groß wie ein Cheeseburger? Oder ein Nugget gefüllt mit Cheeseburger?

Also haben wir mit Midjourney experimentiert: Wie stellt sich die KI dieses Produkt vor, das es noch gar nicht gibt? Wir haben das visualisiert, die Ergebnisse der Community gezeigt und gefragt: „Wollt ihr das haben?“ Natürlich wollten die Leute die „Cheeseburger Nuggets“ haben und es kamen noch viele weitere Ideen, was Burger King noch alles machen sollte, z.B. Chicken-Wing-Donuts oder einen Shake komplett aus Chili-Cheese-Soße. All diese verrückten Kombinationen konnten wir mit KI innerhalb von Minuten visualisieren. Das wäre vorher nicht möglich gewesen. Das hätte ein Food-Stylist aufwendig vorbereiten müssen, wir hätten einen Fotografen dafür engagieren müssen und es wäre sehr teuer gewesen, diese Produkt-Ideen auf einem Level zu visualisieren, dass es auch appetitlich aussieht.

Die KI bietet uns da kreativ ganz neue Möglichkeiten. Das war für uns ein spielerischer Einstieg in die Welt der KI. Aber sehr schnell haben wir gemerkt, dass diese Technologie weit über Gags oder visuelle Spielereien hinausgeht. Heute setzen wir KI viel breiter ein. Von komplexen Kampagnenentwicklungen über Bewegtbild bis hin zu strategischen Fragestellungen. Der Burger-King-Case war nur der Anfang, um auszuprobieren, wie man mit KI Begeisterung erzeugen kann.


Mithilfe von KI hat David+Martin Ideen für neue Burger-King-Produkte visualisiert. (Bilder: David+Martin)
vimeo.com (2-Min-Case-Film)

Wie sieht der Kreationsprozess mit KI-Hilfe denn heute aus? Wie hat sich deine Arbeit durch KI verändert?

Die Aufgabenstellung für uns als Kreative ist immer noch ähnlich wie früher. Der Kunde kommt mit einem Problem oder mit einer Herausforderung auf uns zu und dann überlegen wir uns, wie wir dem Kunden dabei helfen können. Diese allererste Überlegung findet immer noch in Person statt. Jeder Kreative macht sich selbst Gedanken und arbeitet die Idee aus, bis er sie gut findet. Früher war es aber so, dass wir diese Ideen dann unseren Kollegen erzählt haben. Dieses Ideen-Sparring, das geht jetzt mit KI.

Das heißt, ich kann der KI erzählen, was ich mir ausgedacht habe, und die KI kann mir dann sagen, was sie davon hält und welche Ideen sie darüber hinaus noch hat. Das sind nicht immer Gedanken, auf die ich nicht auch selbst gekommen wäre, aber es spart enorm viel Zeit, weil ich selbst viel länger gebraucht hätte, das aufzuschreiben. Daher ist dieses Sparring in der Ideenphase einfach sehr wertvoll.

Wie geht es dann weiter, wenn die erste Idee da ist?

Der größere Teil der Arbeit von uns Kreativen ist eigentlich, diese Idee wem anders zu vermitteln. Und da hilft uns KI besonders, weil ich meine Ideen jetzt viel schneller visualisieren kann und die Vision, die ich im Kopf habe, mit anderen teilen kann.

Wenn ich nur aufschreibe „Ein Auto fährt in den Sonnenuntergang“, dann stellt sich jeder ein anderes Auto vor, jeder ein anderes Land, jeder eine andere Straße. Um meine Idee zu vermitteln, muss ich sehr, sehr präzise werden. Wenn ich sie aber schnell visualisieren kann, sei es mit einem Foto oder auch einem kleinen Film, kann ich meine Vision viel schneller jemand anderem in den Kopf setzen.

Damit geben wir auch Menschen eine kreative Stimme, die sie vorher nicht hatten, weil sie diese Fähigkeiten nicht hatten. Auch ein Texter kann jetzt auf die Schnelle seine Idee visualisieren, ein Fotograf oder Art Director kann seine visuellen Ideen in Text umsetzen.

Wenn es dann an die Umsetzung geht, welche Tools nutzt Ihr dafür?

Wir nutzen eigentlich alle. Wir versuchen immer, die allerneuesten Tools gleich einzusetzen, weil dadurch die kreative Spielwiese größer wird. Zum einen haben wir Tools im Einsatz, die wir ohnehin schon immer benutzt haben, wie Photoshop oder Premiere von Adobe, die ja mittlerweile auch alle KI-Funktionen integriert haben.

Dann ist als zusätzliches Tool immer irgendeine Art von Text-KI oder LLM im Einsatz. Das kann ChatGPT sein, das kann auch mal Claude oder Deep Seek sein, je nachdem, was am besten zum Kunden und in unser Setup passt.

Bei den visuellen Tools ist Midjourney bei den Art-Direktoren immer noch total beliebt, weil man damit inzwischen viel gearbeitet hat und nach zwei Jahren Erfahrung weiß, wie man damit umgehen muss. Unser grundsätzlicher Bewegtbild-Workflow basiert auf ComfyUI, das ist eins dieser universellen Tools, die ganz viele verschiedene Technologien und Videomodelle unter einer Oberfläche bündeln.

Welche Eigenarten und Besonderheiten haben die verschiedenen KI-Tools?

Jedes Tool bringt einen gewissen Charakter mit sich. Es gibt Open-Source-Tools, die aus dem asiatischen Raum kommen, z.B. Kling oder Seedance, die sind sehr stark, was Comics oder Mangas betrifft. Gleichzeitig ist es so, dass damit bei Menschen, wenn ich die nicht sehr genau definiere, meistens Asiaten herauskommen. Man muss also sehr genau sagen, was man will.

Das merkt man auch etwa bei Veo von Google, das mit Daten von CBS trainiert wurde, weil Google mit denen einen Deal gemacht hat. Wenn ich dort eine Szene prompte „Ein Reporter steht auf der Straße und interviewt jemanden“, sieht das meist sehr stark nach amerikanischem Nachrichtenfernsehen aus. Die Trainingsdaten definieren also auch ein Stück weit den Output. Umso präziser müssen hier die Prompts sein.

Es gibt also nicht DAS eine Super-Tool?

Genau, wir nutzen eine Mischung aus vielen, auch in Kombination. Manchmal generieren wir eine Szene mit einem Tool, nehmen den Output und geben ihn in ein anderes Tool. Da gibt es noch nicht die eine Lösung, die immer funktioniert. Da ist noch viel Ausprobieren und Experimentieren angesagt. Und die Fertigstellung eines Films machen am Ende immer noch Menschen, klassische Editoren oder Filmemacher, die ein Verständnis für filmisches Storytelling haben.

Meiner Erfahrung nach, ist es oft einfacher, einem Regisseur oder Filmemacher technische Hilfestellung zu geben, als andersherum zu versuchen, einem Techniker Regie oder Filmemachen beizubringen, weil das dann doch das viel Schwierigere ist.

Was kann denn die KI bisher nicht so gut?

Das sind zum Beispiel Empathie, Emotionen oder Intuition. KI kann zwar sehr gut etwas nachahmen oder simulieren, aber nicht fühlen, was das Gegenüber von mir will.
Die KI würde auch in der Ideenfindung erst einmal immer den richtigsten Weg gehen. Solche Sprachmodelle basieren ja darauf, dass sie das nächste Wort und den nächsten Satz vorhersagen. Die KI geht also immer den Weg des universell Angelernten. Aber das hilft nicht immer der Kreativität.

Wenn ich zum Beispiel mit einer KI eine Geschichte entwickle, dann würde die KI mir immer eine lineare Geschichte erzählen, von vorne nach hinten. Sie würde aber nicht selbst auf die Idee kommen, dass ein Film ab der Hälfte wieder rückwärts läuft und dadurch mit dem Anfang endet. Das sind Sachen, die bringen wir als Kreative rein.


Die aktuelle Kampagne “Clash of Cool” der öster­reichischen Eistee-Marke Rauch hat David+Martin visuell vollständig mit Hilfe von KI erstellt. (Bild: David+Martin)
medianet.at (Infos zur Kampagne), vimeo.com (1-Min-Video)

Kommt der Wunsch, eine Kampagne mit KI-Videos umzusetzen, eher vom Kunden oder ist das etwas, das ihr euren Kunden erst schmackhaft machen müsst?

Sowohl als auch. Manchmal ist es so, dass wir technologisch etwas ausprobieren, das wir witzig finden, und dann versuchen wir, das proaktiv einem Kunden anzubieten. Manche Kunden fragen aber explizit danach, weil sie eine gewisse Visualität spannend finden, andere wollen generative KI aus Kostengründen einsetzen, weil sie nicht das Budget haben, das Ganze filmisch zu drehen. Aber etwas nur zu machen, weil es billiger ist, heißt ja nicht, dass es auch gut ist.

In welchen Fällen ratet Ihr Kunden davon ab, eine Kampagne mit KI zu machen?

Immer dann, wenn es um Authentizität geht, um echte Menschen oder bekannte Persönlichkeiten. Da würden wir immer davon abraten, irgendetwas zu faken oder auch Richtung Deepfake zu gehen. Ebenso, wenn der Markenkern für Natürlichkeit steht, etwa bei einer Biomarke, oder für Nahbarkeit, wie eine Fashion-Marke. Dann sollte man das mit echten Menschen besetzen, anstatt künstlich zu generieren. Sonst könnte eine Diskussion darüber entbrennen, wie die Markenwerte mit der künstlichen Erstellung von Inhalten zusammenpassen. Auch bei Charity- oder Hilfsorganisationen würde ich stark davon abraten, Menschen mit KI zu generieren und auf jeden Fall empfehlen, authentisch und echt zu bleiben.

Und perfekt ist die Qualität von KI-Videos ja auch noch nicht, oder?

Speziell im Bereich Automotive kommt es auf sehr genaue Präzision bei der Darstellung des Produkts an. Gerade bei unseren deutschen Automarken. Da geht es um Spaltmaße oder die genaue Lackstruktur. Es wäre sehr schwierig, das nur mit KI mit so einer Genauigkeit zu generieren. Manchmal kann man sich mit einer Kombination aus CGI und KI behelfen, aber auch das bedeutet sehr viel Aufwand und ist weit mehr als nur ein Prompt.

Dazu kommen markenrechtliche Bedenken. Viele dieser Dienste finden in einer Cloud statt, aber man will ja nicht, dass Firmengeheimnisse wie das Design eines neuen Autos oder einer Verpackung auf einen Server nach China hochgeladen werden und man keine Kontrolle mehr hat, was mit diesen Daten passiert. Aber auch dafür gibt es mittlerweile Lösungen.

Damit KI-Modelle etwas generieren können, müssen sie mit Trainingsdaten angelernt werden. Das ist nicht unumstritten, weil nicht immer klar ist, wo die Daten herkommen und ob sie rechtmäßig eingesetzt wurden. Wie stehst du dazu, als jemand, der selbst sein Geld damit verdient, kreative Inhalte zu erschaffen?

Es gibt viele Modelle, die mit Daten trainiert wurden, deren Herkunft nicht hundertprozentig geklärt ist. Die basieren meist auf dem Ansatz, dass das Datensammeln ja unter „Fair Use“ fällt. Im amerikanischen Recht gibt es einen Passus, wonach das Sammeln von Daten per se erstmal nicht strafbar ist. Im Europäischen Recht gibt es abgewandelt davon, eine Text&Data Mining Exception, die vergleichbar ist. Man kann darüber streiten, ob das Training der Maschinen mit diesen gesammelten Daten einen illegalen Kopiervorgang darstellt. Zum Analysieren der Daten werde ein gefundenes Bild ja einmal kopiert, wird argumentiert.

Ich persönlich finde das eine schwierige Argumentation. Ich kann ja auch in ein Museum gehen, mir Bilder anschauen und mich davon inspirieren lassen. Dann setze ich mich hin und male ein Bild, das eventuell von dem inspiriert ist, was ich gesehen habe. Eine KI macht im Prinzip nichts anderes: Sie schaut sich auch Bilder oder Videoschnipsel an und kann, inspiriert davon, etwas Neues generieren. Der Unterschied ist nur, dass sich eine KI Informationen viel besser merken und Details viel genauer wiedergeben kann, als ein Mensch es je könnte. Ich würde das aber eher als Maschineninspiration sehen und nicht als Diebstahl geistigen Eigentums. Ich finde, auch Maschinen haben ein Recht auf Inspiration.

Aber was heißt das aus rechtlicher Sicht für euren Arbeitsalltag?

Wir schauen sehr genau, wo die Trainingsdaten herkommen. Das müssen die Modelle mittlerweile ja auch preisgeben. Auch viele Kunden wollen inzwischen einen lückenlosen Nachweis haben, was zum Einsatz gekommen ist, wo die Ursprungsdaten herkommen und ob man diese kommerziell nutzen darf.
Uns ist wichtig, dass der Output, den wir mit KI-Tools generieren, in keiner Weise Rechte anderer verletzt. Ich möchte nichts generieren, was möglicherweise Copyright oder Urheberrechte von jemandem angreift, weil es sehr ähnlich oder genauso ist, wie etwas, das es schon gibt. Die Aufgabe, diesen Output auf mögliche rechtliche Fallstricke nach bestem Gewissen zu überprüfen, sehe ich auf jeden Fall bei uns.

Welche Rolle spielt es, ob noch ein Mensch eingreift?

Der Output einer KI ist per se nicht vom Urheberrecht geschützt, weil eine KI keine natürliche Person ist, sondern eine Maschine. Dadurch können keine Nutzungs- oder Urheberrechte entstehen.

Wenn ich diesen KI-Output aber nehme und dann selbst auf eine kreative Schöpfungshöhe bringe, indem ich es verändere, indem ich es neu zusammensetze, indem ich es zum Teil eines anderen Werks mache, dann kann eine kreative Schöpfungshöhe entstehen, die auch wieder schützensfähig ist.

Es gab mal den Fall eines Affen, der mit der Kamera eines Fotografen ein Selfie gemacht hat. Da gab es dann einen Rechtsstreit, ob der Fotograf der Urheber ist oder der Affe. Ähnlich verhält es sich mit einer KI, die ein Werk zwar generiert hat, aber genauso wenig wie ein Affe Rechte wahrnehmen kann.

Wir sind wahrscheinlich erst am Anfang der KI-Revolution. Erwartest du, dass KI in der Kreativszene Jobs von manchen Menschen komplett ersetzen wird?

Es wird definitiv andere Jobs geben als vorher und es gibt Arbeitsbereiche, die von KI ersetzt werden können. Illustratoren zum Beispiel, deren Job wird sich massiv ändern – wie eigentlich bei jeder technischen Revolution, aber bei KI besonders. Ich glaube aber, es gibt Möglichkeiten, seinen Job weiterzuentwickeln, zu transformieren und mithilfe der KI ganz neue Möglichkeiten zu haben – und dann vielleicht sogar einen noch viel besseren Job zu haben.

Man muss sich aber dieser Transformation bewusst werden und diese auch mitmachen wollen. Das kann eine Chance sein, wenn man das will, aber es kann natürlich auch bedrohend wirken, wenn man sich dagegen wehrt.

Hast du Angst, dass die KI dich irgendwann ersetzt?

Ich sehe es eher als Ansporn, neugierig und kreativ zu bleiben. Respekt habe ich auf jeden Fall, aber keine Angst.

– VITA –

Max Penk, Jahrgang 1984, stammt aus einer “Fernseh­familie”. Die Leiden­schaft für bewegtes Bild wurde ihm schon in die Wiege gelegt. Sein Vater Wolfgang Penk war Fernseh­produzent und ZDF-Unter­haltungs­chef, seine Mutter hat im “Tele­kolleg” vom SWF Englisch-Unterricht gegeben. Für Computer und Technik interessiert Max Penk sich schon in der Schule, im Informatik-Unterricht hört er erstmals was von neuronalen Netzen und lernenden Maschinen, den Grund­lagen Künstlicher Intelligenz.

Nach dem Abi studiert er zunächst Informatik und Philosophie in Mainz, nach zwei Jahren wechselt er an die Film­akademie Baden-Württemberg in Ludwigsburg, um seine Leidenschaft für filmisches Story­telling zu vertiefen. Vor allem mit den Werbe­filmern ist er auf einer Wellen­länge. Erste Berufs­erfahrung sammelt er u.a. bei NBC Giga, MTV und Bild-TV sowie bei den Produktions­firmen +ep films und Mr. Bob Films. Ab Sommer 2015 arbeitet er als Executive Creative Producer für die Berliner Werbe­film-Produktion IT’S US. Seit Januar 2023 ist Max Penk Creative Innovation Director der Kreativ­agentur David+Martin. Anfang dieser Woche wurde bekannt, dass er die Agentur im Herbst verlässt.

Dieses Interview ist Teil der turi2-Themenwoche KI & Innovation. Hier geht’s zu weiteren Beiträgen >>>

    • “Bullying ist wieder salonfähig” – ARD-Korrespondentin Gudrun Engel über Beleidigungen von Journalisten.

      In seiner zweiten Amtszeit hat US-Präsident Donald Trump den Medien den Kampf angesagt. Er drohte zahlreichen Redaktionen mit juristischen Schritten und strengte eine Klage gegen die BBC an. Das Heimatschutzministerium plant, die Visa für ausländische Korrespondenten drastisch zu verkürzen. Für ...
      weiterlesen
    • Kurz und KNAckig: Jana Ballweber kritisiert Arbeitsverweigerung der Medienpolitik.

      Wenn es um den Umgang mit Instagram, TikTok & Co geht, ist aktuell Australien das große Vorbild der Medienpolitiker: Dort ist es Unter-16-Jährigen nun gesetzlich verboten, Social Media zu nutzen. Wenn es nach einigen deutschen Politik-Promis geht, könnten junge Menschen auch hierzulande bald...
      weiterlesen
    • Blick in die Glaskugel: Wie Gerald Hensel Markenverantwortliche zukunftsfest machen will.

      “Brand Future Scenarios” sollen mit KI die Zukunft erlebbar machen, um Markenverantwortliche in der Strategiearbeit zu unterstützen. Gerald Hensel von der Marketingberatung Superspring erzählt im Rahmen der Themenwoche Zukunft bei turi2, welcher Mehrwert entsteht, wenn aus Zielgruppe...
      weiterlesen
    • Es graswurzelt was: Wie das Jahr 2026 die Zuversicht in Medien, Wirtschaft und Politik zurückbringen könnte.

      Die Mehrheit der Menschen in Deutschland sieht schwarz für das Land. Diese ernüchternde Bilanz steht ganz am Anfang einer repräsentativen und tiefenpsychologischen Studie, hinter der die Initiative 18, #UseTheNews und die Marktforschungsagentur Rheingold Salon stehen. Mitte Mai 2025 kam die Stud...
      weiterlesen
    • Premiere für die Flimmerkiste: Vor 100 Jahren lief der erste Fernseher.

      Viereckige Augen vom Glotzen: Als 1926 der erste mechanische Fernseher lief, war dessen Siegeszug kaum abzusehen. Ob Castingshows oder Wettspiel-Abend und “Tagesschau” oder Tier-Doku – was als Technikexperiment begann, endete als Massenmedium im Wohnzimmer, beschreibt Daniel Zander i...
      weiterlesen
    • Ist das ein Trend, oder kann das weg? Von Trends, Hypes und allem dazwischen.

      Trends sind leise Verhaltensänderungen, Hypes dagegen laute Versprechen ohne Belege, finden Christian Simon und Johannes Klingebiel. Die Hosts des Podcasts “Hype Institut” sortieren in ihrem Gastbeitrag für die Themenwoche Zukunft das aktuelle Buzzword-Bingo und loten die Grenzen der...
      weiterlesen
    • “Die Menschen entwickeln nicht mehr automatisch Freude, nur weil etwas ‘nachhaltig’ ist.” Sebastian Ackermann über die Kommunikation von erneuerbaren Energien und sein TikTok-“Dilemma”.

      Hat der Begriff “Energiewende” ausgedient? Sebastian Ackermann, Leiter Kommunikation und Marke bei EnBW, spricht im Interview mit turi2 lieber von der “Transformation der Energieinfrastruktur”, auch weil der Begriff “Energiewende” sich zunehmend abnutze und au...
      weiterlesen
    • Mut zur Schnecke: Warum Philosophin Rebekka Reinhard der “Raketen-Geschwindigkeit” der KI mit Langsamkeit begegnet.

      Ausgerechnet ein Magazin über KI setzt auf gedrucktes Papier als “Artefakt”, das zur Langsamkeit zwingt. “human”-Chefredakteurin Rebekka Reinhard erklärt im Auftakt-Interview zur Themenwoche Zukunft bei turi2, warum sie Haptik gegen die “Raketen-Geschwindigkeit̶...
      weiterlesen
    • Kurz & KNAckig: Jana Ballweber über “Sensationslust” im Fall Burgard.

      In der Berichterstattung über den Rückzug von Jan Philipp Burgard als “Welt”-Chefredakteur haben Medien eine “fußballkommentatorenhafte Sensationslust” an den Tag gelegt und “jede Umdrehung scheibchenweise vermeldet”, schreibt KNA-Redakteurin Jana Ballweber in...
      weiterlesen
    • Wort & Bild Verlag bringt mit “Apotheken Umschau Medicus” erstes Kaufmagazin an den Kiosk.

      Wort für Geld: Der Wort & Bild Verlag bringt heute das neue Print-Magazin “Apotheken Umschau Medicus” an den Kiosk, das auf 124 Seiten Meilensteine der Medizingeschichte thematisiert. Es ist in der 70-jährigen Verlagsgeschichte das erste Kaufmagazin. Es kostet 9,95 Euro. “W...
      weiterlesen

    Artikel-Navigation

    ← turi2 am Morgen: Wort & Bild Verlag, Wikipedia, Wolfram Weimer. turi2 am Abend: CNBC, Madsack, Holtzbrinck. →

Werktags um 7 und 17 Uhr die wichtigsten News aus Medien, Marketing und PR als Newsletter. Jetzt abonnieren!

Loading...

Suchen auf turi2.de

Banner turi2 Themenwoche
Impressum, Datenschutz, Mediadaten, FAQ, RSS-Feed, Termine
Dieses Blog läuft mit WordPress