KI als Sparringspartner: Max Penk über den Einsatz generativer KI in Kreation und Werbung.
3. September 2025
“Mit KI geben wir auch Menschen eine kreative Stimme, die sie vorher nicht hatten”, sagt Max Penk, scheidender Creative Innovation Director der Kreativagentur David+Martin, im turi2-Interview zur Themenwoche KI & Innovation. Er nutzt KI als Sparringspartner, um Ideen, die er sonst Kollegen erzählt hätte, weiterzuentwickeln und zu visualisieren. “Das sind nicht immer Gedanken, auf die ich nicht auch selbst gekommen wäre, aber es spart enorm viel Zeit.” Was KI bisher nicht gut könne, seien Emotionen und Empathie, aber auch das kreative Um-die-Ecke-Denken: “Die KI geht immer den Weg des universell Angelernten. Aber das hilft nicht immer der Kreativität”, sagt Penk. Im Gespräch mit turi2-Redakteur Björn Czieslik erzählt er auch, wann er Kunden vom KI-Einsatz abrät, welche Kreativ-Jobs wegfallen und warum er auch Maschinen ein “Recht auf Inspiration” zuspricht.
Max, Du hast schon früh angefangen, Dich mit KI in der Kreation zu beschäftigen. Was waren die ersten Cases, die du für echte Kunden umgesetzt hast?
Als ich Anfang 2023 zu David+Martin gekommen bin, waren ChatGPT und Midjourney gerade frisch draußen und wir hatten Burger King als Kunden. Die hatten ein neues Produkt in der Entwicklung, nämlich „Cheeseburger Nuggets“. Da konnte sich erst einmal niemand vorstellen, was das sein soll. Ist das ein Nugget so groß wie ein Cheeseburger? Oder ein Nugget gefüllt mit Cheeseburger?
Also haben wir mit Midjourney experimentiert: Wie stellt sich die KI dieses Produkt vor, das es noch gar nicht gibt? Wir haben das visualisiert, die Ergebnisse der Community gezeigt und gefragt: „Wollt ihr das haben?“ Natürlich wollten die Leute die „Cheeseburger Nuggets“ haben und es kamen noch viele weitere Ideen, was Burger King noch alles machen sollte, z.B. Chicken-Wing-Donuts oder einen Shake komplett aus Chili-Cheese-Soße. All diese verrückten Kombinationen konnten wir mit KI innerhalb von Minuten visualisieren. Das wäre vorher nicht möglich gewesen. Das hätte ein Food-Stylist aufwendig vorbereiten müssen, wir hätten einen Fotografen dafür engagieren müssen und es wäre sehr teuer gewesen, diese Produkt-Ideen auf einem Level zu visualisieren, dass es auch appetitlich aussieht.
Die KI bietet uns da kreativ ganz neue Möglichkeiten. Das war für uns ein spielerischer Einstieg in die Welt der KI. Aber sehr schnell haben wir gemerkt, dass diese Technologie weit über Gags oder visuelle Spielereien hinausgeht. Heute setzen wir KI viel breiter ein. Von komplexen Kampagnenentwicklungen über Bewegtbild bis hin zu strategischen Fragestellungen. Der Burger-King-Case war nur der Anfang, um auszuprobieren, wie man mit KI Begeisterung erzeugen kann.
Mithilfe von KI hat David+Martin Ideen für neue Burger-King-Produkte visualisiert. (Bilder: David+Martin) vimeo.com (2-Min-Case-Film)
Wie sieht der Kreationsprozess mit KI-Hilfe denn heute aus? Wie hat sich deine Arbeit durch KI verändert?
Die Aufgabenstellung für uns als Kreative ist immer noch ähnlich wie früher. Der Kunde kommt mit einem Problem oder mit einer Herausforderung auf uns zu und dann überlegen wir uns, wie wir dem Kunden dabei helfen können. Diese allererste Überlegung findet immer noch in Person statt. Jeder Kreative macht sich selbst Gedanken und arbeitet die Idee aus, bis er sie gut findet. Früher war es aber so, dass wir diese Ideen dann unseren Kollegen erzählt haben. Dieses Ideen-Sparring, das geht jetzt mit KI.
Das heißt, ich kann der KI erzählen, was ich mir ausgedacht habe, und die KI kann mir dann sagen, was sie davon hält und welche Ideen sie darüber hinaus noch hat. Das sind nicht immer Gedanken, auf die ich nicht auch selbst gekommen wäre, aber es spart enorm viel Zeit, weil ich selbst viel länger gebraucht hätte, das aufzuschreiben. Daher ist dieses Sparring in der Ideenphase einfach sehr wertvoll.
Wie geht es dann weiter, wenn die erste Idee da ist?
Der größere Teil der Arbeit von uns Kreativen ist eigentlich, diese Idee wem anders zu vermitteln. Und da hilft uns KI besonders, weil ich meine Ideen jetzt viel schneller visualisieren kann und die Vision, die ich im Kopf habe, mit anderen teilen kann.
Wenn ich nur aufschreibe „Ein Auto fährt in den Sonnenuntergang“, dann stellt sich jeder ein anderes Auto vor, jeder ein anderes Land, jeder eine andere Straße. Um meine Idee zu vermitteln, muss ich sehr, sehr präzise werden. Wenn ich sie aber schnell visualisieren kann, sei es mit einem Foto oder auch einem kleinen Film, kann ich meine Vision viel schneller jemand anderem in den Kopf setzen.
Damit geben wir auch Menschen eine kreative Stimme, die sie vorher nicht hatten, weil sie diese Fähigkeiten nicht hatten. Auch ein Texter kann jetzt auf die Schnelle seine Idee visualisieren, ein Fotograf oder Art Director kann seine visuellen Ideen in Text umsetzen.
Wenn es dann an die Umsetzung geht, welche Tools nutzt Ihr dafür?
Wir nutzen eigentlich alle. Wir versuchen immer, die allerneuesten Tools gleich einzusetzen, weil dadurch die kreative Spielwiese größer wird. Zum einen haben wir Tools im Einsatz, die wir ohnehin schon immer benutzt haben, wie Photoshop oder Premiere von Adobe, die ja mittlerweile auch alle KI-Funktionen integriert haben.
Dann ist als zusätzliches Tool immer irgendeine Art von Text-KI oder LLM im Einsatz. Das kann ChatGPT sein, das kann auch mal Claude oder Deep Seek sein, je nachdem, was am besten zum Kunden und in unser Setup passt.
Bei den visuellen Tools ist Midjourney bei den Art-Direktoren immer noch total beliebt, weil man damit inzwischen viel gearbeitet hat und nach zwei Jahren Erfahrung weiß, wie man damit umgehen muss. Unser grundsätzlicher Bewegtbild-Workflow basiert auf ComfyUI, das ist eins dieser universellen Tools, die ganz viele verschiedene Technologien und Videomodelle unter einer Oberfläche bündeln.
Welche Eigenarten und Besonderheiten haben die verschiedenen KI-Tools?
Jedes Tool bringt einen gewissen Charakter mit sich. Es gibt Open-Source-Tools, die aus dem asiatischen Raum kommen, z.B. Kling oder Seedance, die sind sehr stark, was Comics oder Mangas betrifft. Gleichzeitig ist es so, dass damit bei Menschen, wenn ich die nicht sehr genau definiere, meistens Asiaten herauskommen. Man muss also sehr genau sagen, was man will.
Das merkt man auch etwa bei Veo von Google, das mit Daten von CBS trainiert wurde, weil Google mit denen einen Deal gemacht hat. Wenn ich dort eine Szene prompte „Ein Reporter steht auf der Straße und interviewt jemanden“, sieht das meist sehr stark nach amerikanischem Nachrichtenfernsehen aus. Die Trainingsdaten definieren also auch ein Stück weit den Output. Umso präziser müssen hier die Prompts sein.
Es gibt also nicht DAS eine Super-Tool?
Genau, wir nutzen eine Mischung aus vielen, auch in Kombination. Manchmal generieren wir eine Szene mit einem Tool, nehmen den Output und geben ihn in ein anderes Tool. Da gibt es noch nicht die eine Lösung, die immer funktioniert. Da ist noch viel Ausprobieren und Experimentieren angesagt. Und die Fertigstellung eines Films machen am Ende immer noch Menschen, klassische Editoren oder Filmemacher, die ein Verständnis für filmisches Storytelling haben.
Meiner Erfahrung nach, ist es oft einfacher, einem Regisseur oder Filmemacher technische Hilfestellung zu geben, als andersherum zu versuchen, einem Techniker Regie oder Filmemachen beizubringen, weil das dann doch das viel Schwierigere ist.
Was kann denn die KI bisher nicht so gut?
Das sind zum Beispiel Empathie, Emotionen oder Intuition. KI kann zwar sehr gut etwas nachahmen oder simulieren, aber nicht fühlen, was das Gegenüber von mir will.
Die KI würde auch in der Ideenfindung erst einmal immer den richtigsten Weg gehen. Solche Sprachmodelle basieren ja darauf, dass sie das nächste Wort und den nächsten Satz vorhersagen. Die KI geht also immer den Weg des universell Angelernten. Aber das hilft nicht immer der Kreativität.
Wenn ich zum Beispiel mit einer KI eine Geschichte entwickle, dann würde die KI mir immer eine lineare Geschichte erzählen, von vorne nach hinten. Sie würde aber nicht selbst auf die Idee kommen, dass ein Film ab der Hälfte wieder rückwärts läuft und dadurch mit dem Anfang endet. Das sind Sachen, die bringen wir als Kreative rein.
Die aktuelle Kampagne “Clash of Cool” der österreichischen Eistee-Marke Rauch hat David+Martin visuell vollständig mit Hilfe von KI erstellt. (Bild: David+Martin) medianet.at (Infos zur Kampagne), vimeo.com (1-Min-Video)
Kommt der Wunsch, eine Kampagne mit KI-Videos umzusetzen, eher vom Kunden oder ist das etwas, das ihr euren Kunden erst schmackhaft machen müsst?
Sowohl als auch. Manchmal ist es so, dass wir technologisch etwas ausprobieren, das wir witzig finden, und dann versuchen wir, das proaktiv einem Kunden anzubieten. Manche Kunden fragen aber explizit danach, weil sie eine gewisse Visualität spannend finden, andere wollen generative KI aus Kostengründen einsetzen, weil sie nicht das Budget haben, das Ganze filmisch zu drehen. Aber etwas nur zu machen, weil es billiger ist, heißt ja nicht, dass es auch gut ist.
In welchen Fällen ratet Ihr Kunden davon ab, eine Kampagne mit KI zu machen?
Immer dann, wenn es um Authentizität geht, um echte Menschen oder bekannte Persönlichkeiten. Da würden wir immer davon abraten, irgendetwas zu faken oder auch Richtung Deepfake zu gehen. Ebenso, wenn der Markenkern für Natürlichkeit steht, etwa bei einer Biomarke, oder für Nahbarkeit, wie eine Fashion-Marke. Dann sollte man das mit echten Menschen besetzen, anstatt künstlich zu generieren. Sonst könnte eine Diskussion darüber entbrennen, wie die Markenwerte mit der künstlichen Erstellung von Inhalten zusammenpassen. Auch bei Charity- oder Hilfsorganisationen würde ich stark davon abraten, Menschen mit KI zu generieren und auf jeden Fall empfehlen, authentisch und echt zu bleiben.
Und perfekt ist die Qualität von KI-Videos ja auch noch nicht, oder?
Speziell im Bereich Automotive kommt es auf sehr genaue Präzision bei der Darstellung des Produkts an. Gerade bei unseren deutschen Automarken. Da geht es um Spaltmaße oder die genaue Lackstruktur. Es wäre sehr schwierig, das nur mit KI mit so einer Genauigkeit zu generieren. Manchmal kann man sich mit einer Kombination aus CGI und KI behelfen, aber auch das bedeutet sehr viel Aufwand und ist weit mehr als nur ein Prompt.
Dazu kommen markenrechtliche Bedenken. Viele dieser Dienste finden in einer Cloud statt, aber man will ja nicht, dass Firmengeheimnisse wie das Design eines neuen Autos oder einer Verpackung auf einen Server nach China hochgeladen werden und man keine Kontrolle mehr hat, was mit diesen Daten passiert. Aber auch dafür gibt es mittlerweile Lösungen.
Damit KI-Modelle etwas generieren können, müssen sie mit Trainingsdaten angelernt werden. Das ist nicht unumstritten, weil nicht immer klar ist, wo die Daten herkommen und ob sie rechtmäßig eingesetzt wurden. Wie stehst du dazu, als jemand, der selbst sein Geld damit verdient, kreative Inhalte zu erschaffen?
Es gibt viele Modelle, die mit Daten trainiert wurden, deren Herkunft nicht hundertprozentig geklärt ist. Die basieren meist auf dem Ansatz, dass das Datensammeln ja unter „Fair Use“ fällt. Im amerikanischen Recht gibt es einen Passus, wonach das Sammeln von Daten per se erstmal nicht strafbar ist. Im Europäischen Recht gibt es abgewandelt davon, eine Text&Data Mining Exception, die vergleichbar ist. Man kann darüber streiten, ob das Training der Maschinen mit diesen gesammelten Daten einen illegalen Kopiervorgang darstellt. Zum Analysieren der Daten werde ein gefundenes Bild ja einmal kopiert, wird argumentiert.
Ich persönlich finde das eine schwierige Argumentation. Ich kann ja auch in ein Museum gehen, mir Bilder anschauen und mich davon inspirieren lassen. Dann setze ich mich hin und male ein Bild, das eventuell von dem inspiriert ist, was ich gesehen habe. Eine KI macht im Prinzip nichts anderes: Sie schaut sich auch Bilder oder Videoschnipsel an und kann, inspiriert davon, etwas Neues generieren. Der Unterschied ist nur, dass sich eine KI Informationen viel besser merken und Details viel genauer wiedergeben kann, als ein Mensch es je könnte. Ich würde das aber eher als Maschineninspiration sehen und nicht als Diebstahl geistigen Eigentums. Ich finde, auch Maschinen haben ein Recht auf Inspiration.
Aber was heißt das aus rechtlicher Sicht für euren Arbeitsalltag?
Wir schauen sehr genau, wo die Trainingsdaten herkommen. Das müssen die Modelle mittlerweile ja auch preisgeben. Auch viele Kunden wollen inzwischen einen lückenlosen Nachweis haben, was zum Einsatz gekommen ist, wo die Ursprungsdaten herkommen und ob man diese kommerziell nutzen darf.
Uns ist wichtig, dass der Output, den wir mit KI-Tools generieren, in keiner Weise Rechte anderer verletzt. Ich möchte nichts generieren, was möglicherweise Copyright oder Urheberrechte von jemandem angreift, weil es sehr ähnlich oder genauso ist, wie etwas, das es schon gibt. Die Aufgabe, diesen Output auf mögliche rechtliche Fallstricke nach bestem Gewissen zu überprüfen, sehe ich auf jeden Fall bei uns.
Welche Rolle spielt es, ob noch ein Mensch eingreift?
Der Output einer KI ist per se nicht vom Urheberrecht geschützt, weil eine KI keine natürliche Person ist, sondern eine Maschine. Dadurch können keine Nutzungs- oder Urheberrechte entstehen.
Wenn ich diesen KI-Output aber nehme und dann selbst auf eine kreative Schöpfungshöhe bringe, indem ich es verändere, indem ich es neu zusammensetze, indem ich es zum Teil eines anderen Werks mache, dann kann eine kreative Schöpfungshöhe entstehen, die auch wieder schützensfähig ist.
Es gab mal den Fall eines Affen, der mit der Kamera eines Fotografen ein Selfie gemacht hat. Da gab es dann einen Rechtsstreit, ob der Fotograf der Urheber ist oder der Affe. Ähnlich verhält es sich mit einer KI, die ein Werk zwar generiert hat, aber genauso wenig wie ein Affe Rechte wahrnehmen kann.
Wir sind wahrscheinlich erst am Anfang der KI-Revolution. Erwartest du, dass KI in der Kreativszene Jobs von manchen Menschen komplett ersetzen wird?
Es wird definitiv andere Jobs geben als vorher und es gibt Arbeitsbereiche, die von KI ersetzt werden können. Illustratoren zum Beispiel, deren Job wird sich massiv ändern – wie eigentlich bei jeder technischen Revolution, aber bei KI besonders. Ich glaube aber, es gibt Möglichkeiten, seinen Job weiterzuentwickeln, zu transformieren und mithilfe der KI ganz neue Möglichkeiten zu haben – und dann vielleicht sogar einen noch viel besseren Job zu haben.
Man muss sich aber dieser Transformation bewusst werden und diese auch mitmachen wollen. Das kann eine Chance sein, wenn man das will, aber es kann natürlich auch bedrohend wirken, wenn man sich dagegen wehrt.
Hast du Angst, dass die KI dich irgendwann ersetzt?
Ich sehe es eher als Ansporn, neugierig und kreativ zu bleiben. Respekt habe ich auf jeden Fall, aber keine Angst.
– VITA –
Max Penk, Jahrgang 1984, stammt aus einer “Fernsehfamilie”. Die Leidenschaft für bewegtes Bild wurde ihm schon in die Wiege gelegt. Sein Vater Wolfgang Penk war Fernsehproduzent und ZDF-Unterhaltungschef, seine Mutter hat im “Telekolleg” vom SWF Englisch-Unterricht gegeben. Für Computer und Technik interessiert Max Penk sich schon in der Schule, im Informatik-Unterricht hört er erstmals was von neuronalen Netzen und lernenden Maschinen, den Grundlagen Künstlicher Intelligenz.
Nach dem Abi studiert er zunächst Informatik und Philosophie in Mainz, nach zwei Jahren wechselt er an die Filmakademie Baden-Württemberg in Ludwigsburg, um seine Leidenschaft für filmisches Storytelling zu vertiefen. Vor allem mit den Werbefilmern ist er auf einer Wellenlänge. Erste Berufserfahrung sammelt er u.a. bei NBC Giga, MTV und Bild-TV sowie bei den Produktionsfirmen +ep films und Mr. Bob Films. Ab Sommer 2015 arbeitet er als Executive Creative Producer für die Berliner Werbefilm-Produktion IT’S US. Seit Januar 2023 ist Max Penk Creative Innovation Director der Kreativagentur David+Martin. Anfang dieser Woche wurde bekannt, dass er die Agentur im Herbst verlässt.