print logo

„Vergiften“ schützt Bilder vor KI

Nightshade schützt Künstler vor unethischer KI-Nutzung. Durch 'Vergiften' von Bildern hindert es KI-Modelle am unrechtmäßigen Training.
31.01.24 | Interessanter Artikel bei TechCrunch




Für Künstler ist es ein harter Kampf, ihre Werke davor zu schützen, dass sie ohne ihre Zustimmung für das Training von KI-Modellen verwendet werden. Leider schützen nicht immer Opt-out-Anträge und "Do-not-scrape"-Codes. Sich offline abzuschotten ist für Künstler auch keine Option. Einen Ausweg bietet Nightshade, ein Projekt der University of Chicago, berichtet Morgan Sung auf TechCrunch.


Nightshade ermöglicht Künstlern  ihre Werke vor unautorisiertem Einsatz in KI-Modellen zu schützen, indem es die Bild-Daten "vergiftet" und sie für das Training von Bilddaten unbrauchbar macht.


Es werden verschiedene Beispiele vorgestellt. So sieht die KI in der Mona Lisa eine Katze in einem Gewand. Eine Kuh, die sich auf der Wiese räkelt, wird derart von der KI verzerrt, dass Kühe vier runde Räder, eine Stoßstange und einen Rüssel haben.


Ziel ist es, Tech-Giganten dazu zu zwingen, für lizenzierte Arbeiten zu zahlen, anstatt KI-Modelle mit gescrapten Bildern zu trainieren. Die Schöpfer betonen, dass es um Einwilligung und Entschädigung geht, nicht um den Angriff auf große KI-Unternehmen. Nightshade wird als eine defensive Maßnahme betrachtet, bis angemessene Regulierungen existieren.