Teil 2 – Schöne neue Welt

„Künstliche Intelligenz“: Soziale Dreigliederung auf dem Prüfstand

Emotionserkennung

Ein anderes wichtiges Zukunftsthema für die KI-Forschung ist maschinelle Emotionserkennung. Dies erscheint auf den ersten Blick verblüffend, aber bei genauerem Hinsehen zeigt sich, dass es auch hier, ähnlich wie im Bereich der Kunst, nicht um Wahrnehmung von wirklichen Emotionen geht, sondern um die Wahrscheinlichkeit, mit der bestimmte Sensorzustände mit bestimmten Gefühlen korreliert sind. Sensoren sind dabei z.B. Kameras, die die Gesichtsmuskeln analysieren, Sensoren, die den Hautwiderstand messen, Herzschlaganalyse und Stimmanalyse usw. Die Gefühle, die „erkannt“ werden können, müssen natürlich vorher trainiert worden sein. Deshalb ist hier keine differenzierte Gefühlserkennung zu erwarten, sondern es können nur relativ berflächliche Gefühle wie Ärger, Zorn, Freude, Langeweile oder Müdigkeit registriert werden.

Wozu soll das gut sein? Man stellt sich vor, dass ein personalisiertes Assistenzsystem im Auto z.B. auf den „emotionalen“ Zustand des Fahrers reagieren kann. Wenn der Fahrer zornig ist, könnte es früher bremsen. Wenn ihm langweilig ist, macht es Musik an. Wenn er müde ist, drosselt es die Geschwindigkeit und bittet ihn, einen Parkplatz anzusteuern und sich auszuruhen usw. Denn Menschen sind ja konstitutionell nicht in der Lage, ihre eigenen Gefühle zu bemerken…

Auch für mehr Effizienz personalisierter Werbung wäre es interessant, wenn man den emotionalen Zustand des Nutzers/Lesers kennen würde. Man könnte dann die ausgespielte Werbung wesentlich besser anpassen und sich so eine höhere Erfolgsquote erhoffen.

Diskutiert wird auch die Anwendung von Emotionserkennung im Bereich der Arbeitssicherheit. Michael Bartl, Vorstand der HYVE AG, erläutert:

„Hier geht es darum zu messen, ob Menschen über- oder unterfordert sind. Dazu gibt es verschiedene Theorien wie beispielsweise die Flow Theorie. Hier geht man davon aus, dass jeder Mensch einen optimalen Zustand hat, bei dem die Fähigkeiten zu den Herausforderungen passen. Wenn ich etwas sehr gut kann, die Herausforderung aber nicht so hoch ist, dann bin ich gelangweilt. Wenn meine Herausforderung zu hoch ist, bin ich gestresst oder habe Angst. Das optimale Verhältnis zwischen Über- und Unterforderung ist der Flow. Eigentlich sollte man in einem Unternehmen, beispielsweise am Fließband, immer diesen optimalen Grad an Über- und Unterforderung haben, damit sich jeder wohlfühlt. Diese Messung ist jetzt nicht im Sinne der Überwachung zu verstehen, sondern im Sinne der Arbeitssicherheit, Risikominimierung und Fehlervermeidung.“ (11)

Das ist ein gutes Beispiel für einen technikzentrierten Lösungsansatz für soziale Probleme. Die Technikentwickler und ihre Financiers, aber auch diejenigen, die diese Technik später einsetzen möchten, gehen – möglicherweise unbewusst – davon aus, dass Menschen sich nicht entwickeln können und dass sie deshalb mit Hilfe von Technik verbesserte Fähigkeiten erlangen sollten, in diesem Fall die Fähigkeit, den sog. „flow“ aufrechtzuerhalten. Viele technische Innovationen folgen dieser Logik „stupid humans – smart machines“. Sie werden in dem Moment eigentlich überflüssig, in dem sich der Mensch als ein entwicklungsfähiges Wesen begreift.

„Ich will so bleiben, wie ich bin“: Die Verflachung der Selbstwahrnehmung

Wieder ist es nicht die Maschine, die hier übergriffig ist. Natürlich stehen hier vor allem die Entwickler und Finanzierer in der Schusslinie, die diese Technologien in die Welt setzen. Aber wenn man tiefer blickt, entdeckt man, dass die meisten Menschen sich selbst nicht für veränderungsfähig halten oder sich nicht verändern (sprich: dazulernen) wollen. Das Selbstbild ist leider überwiegend geprägt von Sätzen wie „Ich will so bleiben, wie ich bin“. Dies scheint mir die eigentliche Basis für diese technikgesteuerte Selbstverbesserung zu sein. Der Unwille oder der Glaube an die eigene Unfähigkeit, sich selbst zu verändern, ist eine geistige Unart unserer Zeit, die tiefe Fragen an unsere Bildungssysteme aufwirft.

Das Fatale ist: Wenn solche Systeme zur Emotions- oder zur Gesundheitserkennung längere Zeit und auf breiterer Front in Benutzung sind, werden sich tatsächlich Gewohnheiten ausbilden, die wie eine Bestätigung dieses Glaubenssatzes aussehen. Man wird den Berechnungen der pseudointelligenten Ma- schinen immer stärker Glauben schenken, weil dies in den meisten Fällen einfacher und zuverlässiger sein wird, als sich selbst durch Eigenwahrnehmung um eine Einschätzung des eigenen Gefühls- oder Gesundheitszustandes zu bemühen. Die meisten Zeitgenossen sind beispielsweise schon heute nicht mehr ohne Weiteres in der Lage zu beurteilen, welche Nahrungsmittel ihnen zuträglich sind und welche nicht. Die Flut der Ratgeberliteratur legt hiervon ein beredtes Zeugnis ab. Man darf davon ausgehen, dass entsprechende Diät-Apps in Zukunft diese Literatur verdrängen werden. Eine App, die dem Nutzer Rezeptvorschläge unterbreitet, ihm Einkaufslisten zusammenstellt und ggf. sogar direkt beim nächsten Supermarkt bestellt, käme dieser vorherrschenden Grundhaltung mehr als entgegen.

Das Trainingsdatenproblem

Damit eine solche App sinnvolle Ergebnisse produziert, muss sie mit einer großen Anzahl von Datensätzen trainiert worden sein. Wie oben schon erwähnt, ist es entscheidend, dass die Trainingsdatensätze möglichst vielfältig und unterschiedlich sind. Sonst kann es leicht passieren, dass man soziale Vorurteile über die Datensätze in die Berechnungen importiert. Eine KII, die mit den Resozialisierungsdaten einer großen Gruppe von US -Amerikanern gefüttert wurde, stellte Afroamerikanern eine signifikant schlechtere Prognose als Weißen. Warum wohl? Ein anderes Beispiel: Eine KII, die die Kreditwür- digkeit von Kunden beurteilt, wird Männern eine höhere Kreditwürdigkeit zugestehen als Frauen, weil Männer in der Regel die höheren Einkommen haben. Es ist bis heute ein ungelöstes Problem, wie man solche Fehler der KI verhindern bzw. wie man sie wieder rückgängig machen, also die KII sozu- sagen „enttrainieren“ kann. Hierfür hat man noch keinerlei Ideen, wenngleich das Problem mittlerweile anerkannt ist. (12) Was aber bis jetzt noch gar nicht richtig ins Bewusstsein gedrungen zu sein scheint, ist die Tatsache, dass sich soziale Verhältnisse im Laufe der Jahre auch ändern. Das, was vor einigen Jahren noch akzeptabel erschien, ist es auf einmal nicht mehr. Die KII-Systeme arbeiten aber immer noch nach den vergangenen Trainingsmodellen.

Und wie können neue wissenschaftliche Erkenntnisse in die Entscheidungsstrukturen einer KII einfließen? Wie können die KII-Algorithmen up-to-date gehalten werden? Wird es ausreichen, sie mit immer neuen Trainingsdaten zu aktualisieren? Oder werden sie Trainingsdaten auch vergessen können müssen? Für dieses KII-„Alterungsproblem“ gibt es noch über- haupt kein Bewusstsein, so weit ich es sehe.

„Predictive computing“: Das Virtuelle wird Scheinwirklichkeit

Auch hier zeigt sich wieder: Der Nutzer braucht grundsätzlich eine kritische Distanz zur KII. Man kann sich auf diese Systeme nicht so verlassen, wie man es sonst von Maschinen gewohnt ist. Dies gilt insbesondere dann, wenn man bei komplexen sozialen oder medizinischen Problemen KII-Unter- stützung sucht. Es werden heute in vielen Bereichen Überlegungen angestellt, wie man die mutmaßliche „Intelligenz“ von KII-Maschinen für die Lösung komplexer Probleme nutzen könnte. Dabei unterstellt man von vorneherein, dass selbst ein gut ausgebildeter Experte diese Probleme nicht zuverlässig lösen könne. Ich spreche z.B. von medizinischer Diagnostik: Wie zuverlässig ist die Krebsdiagnose? Wie hoch sind die Heilungschancen? Oder im juristischen Bereich: Welches Strafmaß unterstützt die Resozia-lisierung am besten? Oder im technischen Bereich: Wann geht ein bestimmtes wichtiges Bauteil in einem Flugzeug voraussichtlich kaputt bzw. wann sollte es ausgetauscht werden?

Bei allen diesen Fragen will man KII-Algorithmen trainieren und sich von ihren Berechnungen unterstützen lassen. Natürlich hat in diesen KII-Einsatzszenarien immer der Mensch das letzte Wort – heute noch. Aber wird dies so bleiben, wenn der Zeitdruck im medizinischen Bereich weiter zunimmt? Wird ein Arzt seine kritische Distanz zur „Expertise“ einer KII aufrechterhalten können, wenn sie sich schon tausend Mal bewährt hat? Oder wird dann in der alltäglichen beruflichen Praxis das, was die KII präsentiert, nicht doch für real genommen und entsprechend gehandelt werden?

Ähnliche Probleme gibt es beim „Autonomen Fahren“. Bis heute arbeiten die Systeme nicht zuverlässig genug. Es passiert zu viel Unvorhergesehenes, auf das die KII-Systeme nicht adäquat reagieren können, sodass ein Fahrer im Notfall eingreifen können muss. Aber wird er genau dann wach und reaktionsschnell genug sein, wenn es in einer langen Zeit vorher keinen Grund zum Eingreifen gab? Die unvermeidbare Gewöhnung an die scheinbare Funktionsfähigkeit der Systeme, eine Scheinwirklichkeit, wurde 2018 in Arizona einer Fußgängerin zum Verhängnis. (13)

Man glaube nicht, dass dies nur Anfangsschwierig- keiten sind. In der hier vorgeschlagenen Perspektive beginnen die Probleme gerade dann, wenn die KII-Systeme immer zuverlässiger werden, weil wir dann mit ihren immer völlig unerwartet auftretenden Fehlfunktionen nicht mehr rechnen.

Manipulierte Scheinwirklichkeiten

Auf der anderen Seite bieten KII-Systeme sehr große Angriffsflächen für Manipulationen aller Art. KIIs in autonom fahrenden Autos können manipulierte Verkehrsschilder bis jetzt noch nicht zuverlässig erkennen. Es wurde gezeigt, dass oft schon ein aufgeklebtes kleines schwarzes Quadrat genügt, um ein Verkehrsschild unkenntlich zu machen. (14) Bewohner von Nebenstraßen, durch die von Google Maps bei Staus auf den Hauptstraßen der Verkehr geleitet wurde, haben kürzlich Google Maps so manipuliert, dass der App ein Stau vorgegaukelt wurde.(15) Welche Möglichkeiten der Manipulation sich Geheimdiensten und Spezialisten im Dienst der Werbewirtschaft oder skrupelloser Fanatiker bieten, überlasse ich der Fantasie der Leser.

Die Wiedergewinnung von Leiblichkeit und Weltwahrnehmung

Zwischen uns und die Welt schiebt sich mit diesen KII – Expertensystemen eine weitere Schicht, die unseren Weltbezug verzerrt. Konstitutionell vorgegeben ist uns die Aufspaltung in Wahrnehmung und Denken, durch deren Zusammenfügung wir unsere menschliche Wirklichkeit erzeugen. Durch die Digitalisierung hinzugekommen ist eine zusätzliche Schicht von abstrakten digitalen Daten, die uns einen Ausschnitt der Wirklichkeit zeigen, nämlich den, der aufgrund eines Datenmodells von Interesse und der durch die Verfügbarkeit der entsprechenden Sensoren digitalisierbar ist. KIIs bereiten diese Daten im Idealfall für uns nun so auf, dass wir uns nicht mehr die Mühe der – eventuell fehlerbehafteten – Wirklichkeitsinterpretation machen müssen.

Es wird von entscheidender Bedeutung sein, dass wir wieder lernen, in ein unmittelbares Verhältnis zur Welt zu treten, um von da aus die Berechnungen der KII-Systeme zu bewerten und ggf. zu korrigieren oder wenigstens zu ignorieren. KII-Systeme sind so gesehen eine starke Aufforderung, unsere Wirklichkeitswahrnehmung neu zu greifen. Dies erfordert auch einen neuen Blick auf unsere Sinnesorgane und unsere Leiblichkeit insgesamt. Es wird sich erweisen, dass eine erfahrungsgesättigte Kindheit und Schulbildung die beste Voraussetzung dafür ist, mit den KII-erzeugten Scheinwirklichkeiten angemessen umzugehen. Menschliches Bewusstsein hat unterschiedlichste leibliche Erfahrungen als Voraussetzung. Die Geringschätzung von Leiblichkeit, die sich in der KII-Technik manifestiert und von den Post- und Transhumanisten aller Couleur zum Programm erhoben wird, müssen wir überwinden, wenn wir mit KII sach-, und das heißt letzten Endes menschengemäß, umgehen können wollen.

Der Mensch im Mittelpunkt

Dabei wird es von entscheidender Bedeutung sein zu akzeptieren, dass wir nicht alle Probleme zu hundert Prozent lösen können, dass ein Rest an Prognoseunsicherheit bleibt und dass wir Menschen die Verant wortung für unsere Entscheidungen übernehmen müssen. Der Mensch im Mittelpunkt – diese Aussage gilt nicht nur für das Objekt sozialen Handelns, sondern in Zukunft auch immer stärker für sein Subjekt!

Wir dürfen die Gestaltung sozialer Beziehungen nicht in die Hände von Maschinen geben. Sonst gefährden wir das an Freiheit, was wir uns durch das Herauskämpfen aus der Natur mühsam erworben haben, und geben uns in die Obhut einer technoiden zweiten Natur, deren Funktionsweise wir immer weniger durchschauen können. Deshalb müssen Menschen bei KII-gestützten Entscheidungsprozessen die Letztverantwortung behalten.

Die Einführung von KII-Programmen muss Schritt für Schritt erfolgen und sorgfältig beobachtet werden. „Disruptive Prozesse“, mit denen komplexe und bewährte soziale Strukturen zerstört und durch völlig ungeprüfte und undurchschaubare KIIs ersetzt werden, sind absolut zu vermeiden. Die betroffenen Mitarbeiter und Kunden sollten gut auf entsprechende Veränderungen vorbereitet und in Entscheidungen über Anschaffung und Ausgestaltung solcher Systeme, soweit es geht, einbezogen werden.

Überhaupt müssen die Menschen viel besser über KII-Systeme, ihre grundsätzliche Funktionsweise und ihre spezielle Fehleranfälligkeit aufgeklärt werden. Schon in den Schulen sollte dies im Unterricht behandelt werden, indem   ein deutlicher Unterschied herausgearbeitet wird zwischen der menschlichen Intelligenz und der spezialisierten Pseudointelligenz von KII. Hierfür müssen Lehrkräfte ausgebildet und didaktische Konzepte entworfen werden. Ohne die Einbettung in solche Kon- zepte wird die aktuelle propagierte „Digitalisierung der Schulen“, die vor allem im Hardwarebereich greift und ein Tummelplatz für ein paar wenige Großunternehmen geworden ist, ins Leere laufen. Junge Menschen müssen diese Dinge einmal grundsätzlich verstanden haben, dann können sie der Tendenz von KII-Systemen, den Menschen im Sozialen an den Rand zu drängen, viel  bewusster entgegentreten.

Stefan Padberg

Erschienen in: Sozialimpulse 1/2020 (Fortsetzung folgt)

Fußnoten Teil 2

11) Michael Bartl, Vorstand HYVE AG, Interview Als die Dinge füh- len lernten – Emotional Intelligence [https://www.xing.com/news/ insiders/articles/als-die-dinge-fuhlen-lernten-emotional-intelligence-779799]

12) In einer Resolution des EU-Parlaments vom Januar 2020 wird auf diese Problematik Bezug genommen und entsprechende Regulierun- gen gefordert (siehe „EU-Abgeordnete fordern „erklärbare” und trans- parente Künstliche Intelligenz“,    https://www.heise.de/newsticker/ meldung/EU-Abgeordnete-fordern-erklaerbare-und-transparente-Kuenstliche-Intelligenz-4644700.html, abgerufen am 29.02.2020)

13)  „Tödlicher Crash mit autonomem Auto: Fußgänger auf Fahrbahn nicht vorgesehen“, https://www.heise.de/newsticker/meldung/Toed- licher-Crash-mit-autonomen-Auto-Fussgaenger-auf-Fahrbahn-nicht-vor- gesehen-4578931.html, abgerufen am 29.2.2020

14) „You Can Trick Self-Driving Cars by Defacing Street Signs“, https://w w w.bleepingcomputer.com/news/securit y/you- can-trick- self-driving-cars-by-defacing-street-signs/, abgerufen am 29.2.2020

15) Der Link zu dem entsprechenden Artikel ist mir abhanden gekom- men. Wie diese Technik funktioniert, kann hier nachgelesen werden: „Virtueller Stau auf Google-Maps als Kunstwerk“, https://www.heise. de/newsticker/meldung/Virtueller-Stau-auf-Google-Maps-als-Kunst- werk-4651651.html, abgerufen 29.2.2020