print logo

Was kann Generative AI wirklich?

Vier Experten diskutierten über die Frage, „wie“ man die Tools täglich nutzt und worin die Risiken bestehen.
Frank Puscher | 09.03.2023
Was kann Generative AI wirklich? © Frank Puscher
 

Der erste Hype um ChatGPT flaut ab und es stellt sich die Frage, wie sich GenerativeAI in den produktiven Alltag von Agenturen und Marken integrieren lässt. Vier Experten diskutierten im Rahmen eines Webinars der marketing-BÖRSE weniger über das „ob“, sondern eher über die Frage, „wie“ man die Tools täglich nutzt und worin die Risiken bestehen.

Was passiert, wenn man einen Creative Director, einen SEO-Experten, einen KI-Gründer und einen erfahrenen Digitalvermarkter an einen Tisch setzt, um das Thema Generative AI zu diskutieren. Es ergibt sich ein sehr rundes und ganzheitliches Bild. Die Essenz: Die existierenden Tools können in einigen Arbeitsprozessen helfen, aber man muss Qualität hineingeben und die Qualität des Output streng kontrollieren.

Im virtuellen Roundtable der marketing-BÖRSE saßen Adrian Wenzel, Creative Director der Agentur Kochstrasse, Dawid Przybylski, Gründer von Finest Audience, SEO-Experte, Michael Keusgen, Gründer der Ella AG und Christian von den Brincken, General Manager bei Ströer Core.

Herr Keusgen, hat Sie der Hype um ChatGPT überrascht?

Keusgen: Es ist immer überraschend und auch sehr aufregend. Es ist aber auch sehr anstrengend, weil es von den Kernthemen ablenkt. Für uns als Firma ist das sehr hilfreich, da nun jeder versteht, was wir machen, auch meine Oma. Den Begriff Generative AI gab es ja vor einem halben Jahr noch gar nicht.

Was sind denn die eigentlichen Kernthemen?

Keusgen: Das ist genauso, wie beim Smartphone. Die Dinger sind seit 15 Jahren auf dem Markt und ich behaupte, dass bis heute viele noch nicht wissen, damit richtig umzugehen. Das ist wie überall: Wir werden ganz viele Herausforderungen haben. Das gilt für das Generieren der Inhalte wie bei uns genauso wie für das Nutzen. Da gibt es noch sehr viel zu lernen. Allerdings glaube ich, dass die Lernkurve exponentiell steigt. Das wird schneller gehen, als wir heute denken.

Aktuell weidet sich die Szene darin, dass die KI Fehler macht. Bing hat eine Nutzerin als „unhöflich“ und „nicht vertrauenswürdig“ bezeichnet. Microsoft hat die Nutzung von Bing limitiert.

Keusgen: KI ist wie ein Schraubenzieher. Der Nutzer führt das Tool. Allerdings ist das in der öffentlichen Diskussion anders. Am Ende kommt es darauf an, wie viel Qualität man in das System rein gibt. Da agieren die Anbieter in den USA und Europa ja durchaus unterschiedlich. Die Amerikaner kippen alles an Daten rein, was sie im Internet bekommen können und veröffentlichen dann ein unfertiges System, das man im Nachgang verbessern muss. Wir hingegen geben uns wahnsinnig Mühe, den Input zu kuratieren, damit bereits beim ersten Aufschlag die Qualität des Ergebnisses zu einem hohen Prozentsatz stimmt. Ich halte das amerikanische Modell nicht für den Zukunftsweg.

Herr Wenzel, haben die Kreativen in der Kochstrasse Angst um ihre Jobs?

Wenzel: Die grassiert auf jeden Fall schon, aber in einer anderen Form. Unsere Jobs werden sich nicht in Luft auflösen, aber sie werden sich sehr stark ändern. Und die Angst bezieht sich auf die Frage, ob man mit diesem Wandel Schritt halten kann.

Wir produzieren heute schon viele Vorschläge für unsere Kunden mithilfe von Generative AI. Da fällt tatsächlich Arbeitsvolumen weg. Wo früher in der Entwurfsphase fünf Menschen Vorschläge erarbeitet haben, sitzt heute noch einer, der mit der KI arbeitet. Dafür brauchen wir aber neue Kapazitäten beim Trainieren der KI, beim Prompting, damit die Designs, die generiert werden, auch zielführend sind.

Verändert sich die Kreativagentur in ihrer Marktpositionierung?

Wenzel: Ja. Für Freelancer ist es eine gewaltige Chance, größere Aufträge mit größeren Kunden abzuwickeln. Wir werden kleinere Aufträge verlieren, aber das macht sich im Ergebnis nicht bemerkbar. Wir werden an anderer Stelle unsere Leitung mithilfe der gleichen Werkzeuge steigern. Eine wirkliche Repositionierung der Agentur findet nicht statt.

Wie viele Kunden fragen nach KI-Inhalten?

Wenzel: Bei uns eigentlich gar nicht. Unsere Arbeit wird am optischen Endergebnis gemessen, nicht an der Frage, mit welchen Tools das gemacht wird. Beim Endergebnis sollte nicht zu erkennen sein, ob KI in der Produktion eine Rolle gespielt hat, denn das würde einen emotionalen Keil in die Kundenbeziehung treiben. Es geht um Love Brands und diese Liebe entsteht nicht gegenüber einer Künstlichen Intelligenz.

Von den Brincken: Ich sehe noch eine andere Facette. Aus Sicht des Kreativen geht so etwas wie Werkstolz verloren. Das ist aber für die seelische Bedürfnisbefriedigung der Menschen enorm wichtig. Wir machen gerade eine Studie dazu. Menschen akzeptieren Technologie nicht, weil es sie gibt – siehe VR – sondern weil sie ein Problem löst. Und das einzige Problem, dass Generative AI heute löst, ist so eine Art kreative Starthilfe und vielleicht Prozesseffizienz.

Das Ganze ist ein overhyptes Ding der Web2-Plattformen, die versuchen, ihr Geschäftsmodell zu retten, indem sie uns dazu verführen, ihnen unsere Trainingsdaten zur Verfügung zu stellen.

Aber es gibt doch Anbieter von KI-Tools, denen es nicht darum geht, Daten zu sammeln.

Von den Brinken: Das ist auch nicht der einzige Kritikpunkt. Wenn Sie im Callcenter anrufen, weil Ihr Router kaputt ist, wollen Sie mit einem Bot sprechen oder mit einem empathischen Menschen? Das kriegt doch KI nicht hin. Es sind nützliche Werkzeuge und viele Prozesse lassen sich damit optimieren, aber so Statements wie: „Die KI ist das zweitgrößte Ding nach dem Buchdruck“, halte ich für Unsinn. Da sehe ich ein Thema wie Datensouveränität im Web3 eher.

Przybylski: Ich kann beide Seiten verstehen. Die Angst um Arbeitsplätze gibt es bei uns auch. Aber wenn man genau hinschaut, dann sind die Tools eben nur so gut, wie das, was man rein gibt. Und das macht ein Mensch. Wir beschleunigen mit diesen Tools unsere Prozesse. Das ist eine Toolbox. Die ganze Industrie ist ja immer Hype-getrieben. Und es stellt sich immer die gleiche Frage: Wie setze ich das richtig ein. Heute sehen wir ja, dass man die Tools vorsichtig einsetzen muss.

Eine spannende Funktion der Sprachmodelle ist das Zusammenfassen von Videos oder anderen Quellen. Nutzen Sie das? Und wie kontrolliert man da die Qualität?

Przybylski: Das ist tatsächlich ein schwieriges Thema. Wer Blinkist nutzt, um bei der Lektüre von Büchern abzukürzen, hat erstens nicht das Buch als solches verstanden, sondern sich nur einen Überblick über den Inhalt verschafft. Und man muss sich fragen, ob diese Zusammenfassung wirklich dem entspricht, was man selbst aus einem Text herausgelesen hätte. Das hängt ja von vielen Faktoren ab.

Für uns in der Praxis bedeutet das: Wir müssen prüfen, ob es Duplicate Content ist. Wir müssen prüfen, ob es als KI-Text erkannt wird. Und drittens müssen wir die Fakten checken. Oft ist der Korrekturaufwand fast genauso groß, wie wenn man den Text von Hand geschrieben hätte.

Kann man pauschal sagen, dass Generative AI gut ist bei generischen Texten, bei spezialisierten Texten aber keinen sehr hohen Effizienzgewinn bringt?

Przybylski: Aus unserer Sicht kann man das so sagen. Ja.

Wenn die Leistung der Generative AI so vom Dateninput abhängt, wie stellt man sicher, dass in Dokumenten, mit denen die KI trainiert wurde, kein Rassismus stattfand, weil er damals, als der Text geschrieben wurde, noch ganz anders beurteilt wurde als heute?

Keusgen: Man muss die Texte in den Kontext setzen. Deswegen arbeiten bei uns sehr viele Sprachwissenschaftler. Wir wollen der Maschine eine saubere Einordnung beim Input geben. Das ist es, was das Trainieren einer KI so aufwendig macht. Wir schauen schon, wie sich die Sprache und ein Stückweit auch der Zeitgeist entwickelt haben.

Ich bin da überhaupt nicht ängstlich, man muss nur sorgfältig arbeiten.

Herr Keusgen, wie setzen Ihre Kunden die Ella-KI ein?

Keusgen: In erster Linie assistierend. Und wenn man merkt, dass ein Tool nicht gut arbeitet, dann nimmt man eben ein anderes.

Schlägt die KI Verbesserungen vor oder schreibt sie einfach einen neuen Text.

Keusgen: Beides. Wir sind bewußt zuerst auf die Medienhäuser zugegangen, weil da der Gegenwind der schärfste war. Wenn wir lernen, wie wir Journalisten dabei helfen können, bessere Texte zu erzeugen, dann funktioniert das auch für andere Zielgruppen.

Von den Brincken: Aber das ist doch nichts Neues. T-Online arbeitet schon lange mit automatisierter Texterstellung und kommuniziert das auch. Das ist eine evolutionäre Entwicklung und kein Quantensprung, wie es manchmal dargestellt wird.  

Als NTV begann, automatisiert aus Artikeln Podcasts zu generieren, war der Aufschrei groß.

Von den Brincken: Dann kann man als Bildjournalist auch das Smartphone ablehnen. Den technischen Fortschritt hält man nicht auf. Aber er revolutioniert eben auch nicht unser Leben.

Herr Keusgen, Sie sprechen nicht über Kunden. Wollen die das nicht?

Keusgen: Genau. Wir schreiben zum Beispiel für einige Kunden Horoskope. Da wollen die Kunden auf keinen Fall, dass die Leser den Eindruck bekommen, dass eine Maschine diese Texte generiert. Selbst wenn wir dafür zum Beispiel auch Daten von der Nasa verwenden.

Bei T-Online geht es aber viel um Nachrichtenthemen und nicht um Horoskope.

Keusgen: Und da ist es sehr sinnvoll, sonst wird man der Nachrichtenflut auch nicht Herr. Aber deshalb muss man trotzdem nicht draufschreiben, dass der Text von der KI kommt. Faktisch stimmt das auch gar nicht. Die KI macht Vorschläge, aber der Redakteur hat vorher den Input geliefert und kontrolliert nachher das Ergebnis.

Von den Brincken: Und bei T-Online sind News und Meinung klar voneinander getrennt. Das macht es einfacher. Bei den Fakten nutzen wir alle Instrumente, um die Richtigkeit zu überprüfen und diese Fakten auch zu verarbeiten. Bei Meinungsstücken oder Interviews geht das ja gar nicht.

Herr Przybylski, die Aufbereitung von Content wird auch für Marken und Freelancer einfacher. Geht da ein USP der SEO-Unternehmen verloren.

Przybylski: Noch nicht, aber das kommt. Aber das, was hier an Effizienzgewinn erzielt werden kann, erzielen wir ja auch. Ein Whitepaper für einen Kunden erstellt der Freelancer heute in wenigen Stunden und in besserer Qualität als wir vor vielleicht zwei Jahren. Das wird schon brutal. Ich habe das neulich getestet. Da haben wir einen Report von der KI erstellen lassen und ihn unkommentiert dem Kunden gegeben. Der sagte, er habe noch nie einen so guten Report von uns erhalten.

Herr Wenzel, wir sprechen die ganze Zeit von Text. Wie steht es um die Kennzeichnung bei grafischen Inhalten?

Wenzel: Das Problem an der Kennzeichnung ist, dass sofort eine emotionale Distanz entsteht. Das gilt für unsere Kunden, aber auch für deren Kunden. Das nimmt ihnen die Möglichkeit, sich mit einer Marke zu identifizieren. Es offen zu kennzeichnen, würde an dieser Stelle keinen Sinn machen.

Womit arbeitet die Kochstrasse konkret, was hat man verworfen?

Wenzel: Verworfen haben wir inzwischen MidJourney. Das ist viel zu kompliziert. Dall-E2 ist wesentlich nutzerfreundlicher.

Wegen der Integration in Discord?

Wenzel: Genau. Das kostet uns zu viel Zeit und die Ergebnisse, die Dall-E 2 produziert, sind ja nicht schlechter. Wir nutzen natürlich ChatGPT und wir nutzen oft Runway. Das ist eine Suite, die richtig Potenzial hat, weil sie schon einen regelrechten Pool an Anwendungen zur Verfügung stellt.

Anwendungen, wie zum Freistellen von Objekten und entfernen von Hintergründen.

Wenzel: Genau. Und auch für die 3-D-Gestaltung und Bewegtbild. Und diese kleinen Tools beschleunigen auch Prozesse. Und gestern haben wir ein Plug-in installiert, das Dall-E2 direkt in Photoshop verfügbar macht. Das ist nochmal eine krasse Vereinfachung. Da schaffen wir eine Symbiose zwischen beiden Tools.

Herr Przybylski, Sie kontrollieren Content über die KI. Mit welchen Tools?

Przybylski: Wir haben einige Detektoren im Einsatz, zum Beispiel Writer.ai. Wir testen wirklich vieles und testen die Tools auch gegeneinander. Jedes spuckt etwas anderes aus. Und am Ende nutzen wir sehr klassische Tools wie CopyScape, das wir schon 15 Jahre einsetzen.

Ist die Varianz bei der Detektion groß? Beim gleichen Text mal 20 Prozent menschliche oder mal 80?

Przybylski: Ja. Das ist wirklich so. Und CopyScape sagt dann auch noch, dass wir Duplicate Content haben. Manchmal wissen wir da gar nicht, wohin wir gehen sollen. Deshalb machen wir das immer schlanker. Wir wünschen uns eine KI, die die KI testet. Damit wir Zeit sparen.

Keusgen: Das gibt es. Beim Programmieren und bei Lektorieren gibt es das schon. Und man kann sich eigene Tools bauen, die diese Prozesse automatisieren.

Przybylski: Und wir müssen natürlich auch aufs Team achten. Die jungen Azubis richten sich nur noch an diesen Tools aus. Wir schreiben aber für Menschen und nicht für Maschinen.

Keusgen: Ehrenwerter Satz, aber viele richten sich nicht danach.

Herr Keusgen, wie funktioniert der Faktencheck bei Ella? Eher Eigenentwicklung oder auch externe Tools, gerade um der eigenen Filterblase zu entfliehen?

Keusgen: Zunächst kontrolliert der Mensch und dann eine Kaskade an Tools, das sind selbst entwickelte Tools, aber auch aufgebohrte am Markt verfügbare Werkzeuge. Wir haben viel mit OpenAI und GPT2 gearbeitet, als es noch nonprofit war. Jetzt müssen wir schauen, was da noch kommt. Ob die Öffnung in die Breite funktioniert, wird man sehen. Wir haben uns klar auf Fokussierung eingestellt. Qualität erreicht man nur über Fokussierung.

Hat jemand schon einmal mit Jasper gearbeitet?

Przybylski: Haben wir früher fast für jeden Text eingesetzt. Inzwischen nehmen wir das nur noch für stützende Seiten, da kann die Qualität auch etwas niedriger sein. Inzwischen spielt das kaum mehr eine Rolle. Wir würden uns gerne auf fünf Tools fokussieren.

Darf man Kundendaten in die Chat-Systeme geben?

Von den Brincken: Zunächst sollte man mal ein klares Ziel definieren, was man eigentlich will. Das Problem muss klar umrissen sein. Und wenn dann gute Daten vorliegen, darf man sich kurz fragen, ob man dann überhaupt noch KI braucht.

Herr Wenzel, die Kochstrasse hat viel mit Daten zu tun, die noch nicht öffentlich sind. Gibt es eine Policy, dass man diese Daten in der KI nicht benutzt?

Wenzel: Nein, die gibt es nicht. Aber grundsätzlich müssen wir mit Daten arbeiten, damit wir passenden Content generieren. Das machen wir aber schon immer. Wir wollen eben auch wissen, was die Menschen denken, um zu wissen, ob die Kommunikation funktioniert.

Herr Przybylski, Herr Keusgen, kann man Unternehmensdaten und die Datenbasis der KI auf Dauer sauber trennen?

Przybylski: Ein schwieriges Thema. Meta hatte ein ähnliches Problem mit Lookalikes. Da gibt es den Button: „Warum wird mir das angezeigt“. Da sieht man eben, wer welche Daten hochgeladen hat.

Keusgen: Technologisch kann man das sauber trennen. Das Problem ist der Mensch. In dessen „Programmierung“ ist eine solche Trennung nicht ganz so sauber angelegt.