print logo

Der VW-Skandal und die Folgen: Wenn Menschen und Maschinen lügen

Volkswagen produzierte kein schlechtes Auto.
Gunnar Sohn | 08.10.2015
“Die Ingenieure programmierten lediglich einen Motor mit dem Vorsatz, den Abgastest auszutricksen. Und dieser Unterschied ist mehr als eine semantische Finesse. Er ist spieltheoretisch bedeutend. Denn Menschen lügen manchmal, je mehr nämlich die Vorteile mögliche Risiken überwiegen. Maschinen tun das nicht. Fragt man, ob jemand seine Steuererklärung korrekt ausgefüllt hat, dann ist die Antwort in den meisten Fällen ‘Selbstverständlich!’. Und die Antwort ist im besten Falle ehrlich; bedarf meist der kreativen Deutung; und ist im schlechteren Fall gelogen”, so Stefan Holtel von brightOne Consulting.

Anders sei es bei künstlichen Objekten: Der Energieverbrauch einer Glühbirne lasse sich zweifelsfrei messen. Der Gefrierpunkt eines Kühlschranks sei leicht zu kontrollieren, so Holtel: Aber Maschinen werden komplizierter. Auch Glühbirnen, wie Philips hue. Und Kühlschränke, etwa Samsung Smart-Fridge T9000. Und Automotoren, beispielsweise VW EA189. Wir nennen solche Produkte intelligent. Aber so verhalten die sich nicht immer. Es unterlaufen ihnen manchmal Fehler.

”Maschinen verfolgen immerhin keine hinterfotzige Strategie. Die Lampe leuchtet. Der Kühlschrank kühlt. Der Motor läuft. Maschinen verschleiern kein Verhalten, um uns auszutricksen. Denn Objekte sinnieren nicht über Gut und Böse, sondern bestenfalls ihre Erbauer. Aber die Zeiten ändern sich. Das Internet der Dinge wird eine Myriade von Maschinen gebären. Und die werden ein hochkomplexes, dem Gehirn ähnliches, kognitives Verhalten aufweisen: Maschinen, die in natürlicher Sprache mit Anwendern sprechen. Sie liefern neue Informationen, wenn immer möglich und fragen zurück, wenn nötig. Sie lernen dabei unentwegt weiter. Das verbirgt sich hinter Cognitive Computing, einer Facette von Big Data, die sich anschickt, eine neue Ära der Computergeschichte einzuläuten. Leider entziehen sich kognitive Maschinen dem einfachen Verständnis. Ihr Verhalten ist schwer nachvollziehbar. Wir erkennen einfach nicht mehr, ob sie lediglich falsch liegen oder uns systematisch aufs Kreuz legen wollen”, bemerkt Holtel.

Dann werde nicht ihre Fehleranfälligkeit zum Schlüsselkriterium, sondern ihre Manipulation durch den Menschen: Information vorenthalten, Datenquellen filtern, Algorithmen frisieren. VW Dieselgate.

“Software infiltriert heute jede halbwegs komplizierte Maschine. Das Universum kommunizierender Objekte expandiert weiter. Und damit werden unehrliche Menschen und korrupte Organisationen mehr denn je versucht sein, ihre Produkte nach eigenen Wünschen zu impfen. Nennen wir das einfach mal ‘Lügen zweiter Ordnung’. Und Benutzer können das nicht mehr erkennen. Denn leider wächst den Maschinen keine Nase. So wird Wahrheit oder Lüge plötzlich ein Schlüsselfaktor in der Mensch-Maschine-Interaktion. Und es taucht schlagartig die Frage auf, ob und wie man Maschinen ethisches Verhalten beibringen könnte. Ein sehr verzwicktes Problem. Und es führt zu Verwicklungen, für die wir heute noch nicht mal Denkfiguren haben. Es wird Zeit, die zu entdecken”, resümiert Holtel.