print logo

Generative AI: Wie die EU im Marketing hilft

Generative KI-Tools haben vielfältige Anwendungsfälle im Marketing, aber auch Risiken. Der geplante "AI Act" der EU bietet Orientierung.
Lukas Stuber | 23.08.2023
Generative AI: Wie die EU im Marketing hilft © Freepik / Phonlamaistudio
 

Als die Marvel Studios im Juni 2023 mit «Secret Invasion» ihre jüngste Serie lancierten, war der Aufschrei gross. Grund: der Vorspann. Denn er wurde mit Generative AI kreiert, basierte unübersehbar auf Comic-Kunst früherer Marvel-Illustrationen und hatte somit die Arbeit von Künstlerinnen und Künstlern gewissermassen kostenfrei plagiiert. Nur eine Woche später reichte eine Kalifornische Anwaltskanzlei eine Sammelklage gegen OpenAI ein: Der Hersteller unter anderem von ChatGPT und DALL-E habe mit seinen Trainingsdaten geltendes Urheberrecht verletzt. Selbst der Streik der «Screen Actors Guild», der gerade Hollywood bremst, hat viel mit AI zu tun.

Die Entwicklung erstaunt nicht. AI Tools arbeiten mit Menschengemachtem. Dass dabei Fehler passieren, ist nur die logische Folge, und der Bezug zum Marketing ist offensichtlich: Auch Agenturen und Unternehmen nutzen Generative AI, um Text- und Bild-Inhalte effizient herzustellen oder Daten analysieren zu lassen. Die Qualität überzeugt zwar nicht immer, der Zeitgewinn durchaus.

AI und Diskriminierung

Nebst Plagiatsvorwürfen droht im Marketing das Risiko, dass man diskriminierenden «Bias» übernimmt, der in den Daten steckt. Denn Generative AI, sorglos eingesetzt, reproduziert zwangsläufig Stereotypen. So hat etwa ein Bloomberg Team überzeugend nachgewiesen, wie Stable Diffusion selbst bei trivialer Nutzung rassistische und sexistische Muster bedient. Marketingabteilungen sind deshalb gut beraten, wenn sie derlei Risiken antizipieren und ihre Prozesse entsprechend gestalten. Andernfalls wird ein Backlash nicht lange auf sich warten lassen.

Doch woran kann man sich orientieren? Eine womöglich taugliche Grundlage ist ausgerechnet die geplante, wenn auch umstrittene Regulierung von AI seitens der Europäischen Union. Denn deren «AI Act» adressiert genau diese Fragen, auch wenn man über die vorgeschlagenen Massnahmen noch lange diskutieren wird: Vor 2025 wird eine Ratifizierung kaum erfolgen.

EU fordert Risikoabwägung und Transparenz

Der geplante «AI Act» der EU geht weit: Gewisse Anwendungen wie etwa biometrische Echtzeiterfassung will er gleich ganz verbieten. Anderes wie die Vorsortierung von Lebensläufen im Recruiting oder alles, was den Zugang zu Bildung beeinflusst, definiert die EU als hochriskant und will die Zulassung von einem «Sandbox Testing» abhängig machen. Den Einsatz von AI Chatbots, etwa im Kundendienst, definiert die EU hingegen als reduziert riskant und schlägt nur ein Transparenzgebot vor.

Radikaler will die EU bei «Foundation Models» vorgehen, zu denen ChatGPT und Co. gehören: Hier will die EU die Herstellerfirmen in die Pflicht nehmen. Urheberrechtsverletzungen, Diskriminierung oder Faktenferne sollen sie «by design» verhindern, auch hier ist ein Zulassungsprozess geplant.

Kein Wunder, hat die Privatwirtschaft bereits protestiert: Die EU behindere Innovation in Europa, und teure Auflagen konzentrierten bloss weitere Macht bei den Tech-Riesen. Zweiteres ist nicht von der Hand zu weisen, zumal das US-Kartellgesetz seit Ronald Reagan zahnlos ist. Ersteres aber beruht auf einer inakzeptablen Prämisse: dass Innovation a priori eine gute Sache sei. Befördert Innovation aber Machtgefälle – was mittels Bias, «AI Colonialism» oder katastrophalen Arbeitsbedingungen eindeutig geschieht – gehen zivilisatorische Werte bachab. Genau deswegen aber zielt der AI Act auf neuralgische Punkte. Das mag schmerzen, ist aber unabdingbar, und gerade fürs Marketing lassen sich daraus jetzt schon Grundsätze ableiten.

Vier Grundsätze fürs Marketing

Erstens: Anhand der Risikopyramide der EU ist zu entscheiden, ob man AI in einem problematischen Bereich einzusetzen plant, um entsprechende Testprotokolle zu implementieren. Lässt etwa ein Bildungsinstitut seine Ads von AI generieren, sind Gender-Stereotypen nicht weit, Bildungszugang beschädigt. Derlei Risiken lassen sich minimieren.

Zweitens: Testprotokolle und «Human Oversight» gehören unabhängig von der Risikostufe immer dann eingesetzt, wenn Generative AI genutzt wird. Denn bis die Hersteller in der Pflicht stehen, wird es noch dauern, die Fehler aber geschehen jetzt. So mag es verführerisch sein, tausende personalisierter Ads oder Produktbeschriebe per Knopfdruck zu generieren. Aber es ist riskant, sie ohne Prüfung zu publizieren.

Drittens: Datenanalysen mittels AI liefern zwar beschleunigt Erkenntnisse, was für Marketing-Agenturen und Unternehmen gleichermassen interessant ist. Doch zugleich ist unklar, was mit den Daten geschieht. Unternehmensdaten mit allem Drum und Dran gehören deshalb den Tools nicht gefüttert, da Vertraulichkeit noch nicht gewährleistet ist.

Viertens: Die EU fordert ein Transparenzgebot selbst bei geringen Risiken, und Marketing-Abteilungen sollten AI-gestützte Inhalte jetzt schon konsequent deklarieren. Denn in einer Zeit, in der Algorithmen gerade auch Faktenfreies amplifizieren und uns in Bubbles einschweissen, erzeugt jene Transparenz einen entscheidenden Datenpunkt, der eine kritische Lesart wenigstens möglich macht. Und das Transparenzgebot wird so oder so kommen, möglicherweise gar über «Watermarking». Also ist es sinnvoll, Transparenz schon mal zu üben.

Zugegeben: Zweifel an eigenen Inhalten zu schüren ist keine Kernaufgabe des Marketings. Deshalb ist es auch nicht diese Branche, die derzeit mit Richtlinien und Codes of Conduct vorangeht. Sondern die Verlagsbranche: Bei Ringier, «Der Spiegel» oder «The Guardian» etwa können sich Marketer jetzt schon abschauen, wie das mit Transparenz, Copyright, Unternehmensdaten und Risikominimierung so geht. Mitunter ist das noch etwas vage, zielt aber, dem Geist des AI Act gehorchend, in die richtige Richtung.

Marketeers sollten dem folgen.