print logo

Barmer und Pia Dymatrix entwickeln KI-Regelwerk für Marketing Automation

Die Barmer setzt ein klares Zeichen für digitale Verantwortung und Umgang mit KI im Marketing.
PIA DYMATRIX | 25.04.2023
Ethische Leitlinien als Grundlage für Limitation von In- und Output © PIA DYMATRIX
 

Die rasanten Innovationen im Bereich der künstlichen Intelligenz werden gerade allgegenwärtig in den Medien, der Öffentlichkeit und Politik diskutiert. „Large Language Models“ wie ChatGPT haben uns spektakulär vor Augen geführt, welche Ableitungen Machine Learning Modelle vollständig autonom treffen könnten, wenn wir sie denn lassen. Das birgt große Chancen für die Nutzung von KI im Marketing, allerdings auch Risiken. Die BARMER und PIA DYMATRIX haben deshalb ein Regelwerk zum Umgang mit KI in der Marketing Automation geschaffen, noch bevor es spezielle gesetzliche Regelungen zum Einsatz von KI gibt.

Warum sollte der Einsatz von KI im Marketing reguliert werden?

Large Trained Models sind heute so weit entwickelt, dass sie professionelle Texte verfassen, Designs entwerfen oder sogar Musik komponieren können. Für Laien ist dabei in der Regel nicht mehr erkennbar, dass eine künstliche Intelligenz Urheber war. Die eingesetzten Modelle sind darauf trainiert, einen überzeugenden Output zu generieren, den Menschen akzeptieren und der ein Informations- oder Unterhaltungsbedürfnis befriedigt. Sie können aber weder zwischen Wahrheit und Lüge, noch zwischen richtig und falsch in einem ethischen Sinn unterscheiden. Deshalb müssen solchen Modellen Grenzen gesetzt werden, die sowohl den möglichen Dateninput als auch den möglichen Output beschränken und beispielsweise ausschließen, dass eine KI beginnt, Fehlinformationen zu verbreiten.

In der Marketing Automation wollen wir KI vor allem dafür nutzen, mit Hilfe von prädiktiven Modellen eine „Next Best Action“ für die Nutzer vorherzusagen Es geht also immer um die Frage, was einem Website-Nutzer oder einer Newsletter-Leserin als nächstes am meisten hilft oder sie am stärksten interessiert. Am Beispiel der Gesundheitskommunikation kann das etwa ein Überblicksartikel zu Entspannungstechniken sein, ein Yoga-Video, der Link zu einer Meditations-App oder das Anmeldeformular für einen Kurs zu progressiver Muskelentspannung.

Potenziell schädlicher KI-Output muss ausgeschlossen werden

Das aufgezeigte Szenario rund um Entspannungsthemen ist unkritisch. Sollte sich das Modell einmal "irren" und eine Meditation vorschlagen, obwohl Nutzende lieber Power-Yoga machen würden, entsteht kein Schaden. Aber was, wenn das prädiktive Modell aufgrund des Suchverhaltens einer Person fälschlich zu dem Schluss kommt, dass diese unter einer lebensbedrohlichen Krankheit leidet und ihr fortan nur noch entsprechende Inhalte ausspielt? Es kann schwerwiegende Folgen haben, Menschen eine schwere Erkrankung zu suggerieren, unter der sie gar nicht leiden. Deshalb ist es an dieser Stelle sinnvoll, die Ausspielung solcher Inhalte durch eine KI generell auszuschließen.

Ein technisches Regelwerk und nutzerbasierte Einstellungen regulieren die KI

Um solche und ähnliche Szenarien zu verhindern, hat PIA DYMATRIX gemeinsam mit der BARMER ein Regelwerk konzipiert, dass die Nutzung von KI in der Marketing Automation grundsätzlich reguliert.

Das Regelwerk basiert darauf, den möglichen Daten-Input und Content-Output anhand ethischer Kriterien in vier Kategorien einzuteilen.

1. Daten/Content mit      inakzeptablem       Risiko     –      zum        Beispiel Krebserkrankung/Krebstherapie

2. Daten/Content mit hohem Risiko – zum Beispiel Schwangerschaft/Hinweise zur Geburtsvorbereitung

3. Daten/Content mit beschränktem – zum Beispiel Alter/Hinweis Darmkrebsfrüherkennung

4. Daten mit minimalem Risiko - zum Beispiel Versichertenstatus/Hinweis Bonusprogramm

 

Je nach Einordnung auf dieser Skala werden Daten und Inhalte mehr oder weniger streng für die Nutzung in KI-Modellen reguliert oder generell ausgeschlossen

Der Einsatz von KI-Modellen wird außerdem auf der Website oder im Newsletter transparent gemacht und in einfacher Form erklärt. Neben dem technisch fest implementierten Regelwerk sollen Nutzer auch die Möglichkeit bekommen, selbst zu entscheiden, ob und in welchem Umfang sie Empfehlungen einer KI erhalten möchten. Es wird also auch möglich sein, die KI individuell abzuschalten.

Dieses ethische Regelwerk zum Umgang mit KI in der Marketing Automation, haben Christian Bock (Bereichsleiter Marke und Marketing | BARMER) und Stefanie Bahde (Principal & Teamlead Strategy Consulting | PIA DYMATRIX), am 21.4. exklusiv auf der Fachkonferenz PIA DynaSummit in Stuttgart vorgestellt.

 

Zitat Christian Bock:

„Der Einsatz von KI im Marketing ist nicht unethisch! Wer digital verantwortlich handeln will, muss aber mehr tun, als Gesetze einzuhalten.“