TEIL 1 Schöne neue Welt

Künstliche Intelligenz: Soziale Dreigliederung auf dem Prüfstand

Im vorangegangenen Teil des Artikels (Sozialimpulse 4/2019) wurde die Geschichte der Entwicklung der sog. „Künstlichen Intelligenz“-Technologie mit ihrem Beginn in den 1950er Jahren nachgezeichnet. Es wurde herausgearbeitet, dass es sich im Wesentlichen um digitale Mustererkennung handelt. Diese beruht auf dem Programmieransatz der „künstlichen neuronalen Netze“ und ist in vielen Bereichen der klassischen seriellen Programmierung deutlich überlegen, vor allem seitdem man Feedbackschleifen einbaute, mit deren Hilfe der Programmierer das neuronale Netzwerk quasi „trainieren“ kann.

Darüber hinaus wurde aufgezeigt, dass die Entwicklung dieser Technologie von Anfang an von Mythologemen begleitet wurde. Sie spiegeln sich in einer Erwartungshaltung, die sich im Laufe der Jahrzehnte steigerte, dass eines nicht mehr fernen Tages noch in diesem Jahrhundert eine sog. „starke oder allgemeine KI“ entstehen werde, die die Intelligenzlei- stungen des Menschen übertreffen werde. Die Frage sei dann nur, ob diese den Menschen beherrschen, an den Rand drängen und schließlich vernichten werde, oder ob sich die Menschheit mit ihrer Hilfe quasi unsterblich machen könne (Post- oder Transhumanismus). Diese mit einer seltsamen Mischung aus technologischer Nüchternheit und gläubiger Inbrunst vorgetragene Prophezeiung gipfelte vor einigen Jahren in der Gründung einer KI-Kirche: „The Way Of The Future Church“.

Self-fulfilling prophecy

Das Problem an dieser Denke ist nicht so sehr ihr spe- kulativer und methodenfreier Charakter. Das Problem ist, dass sie von Menschen propagiert wird, die viel für die reale technische Entwicklung getan haben und deshalb von vielen verehrt werden. Darüber hinaus können die Betreffenden Milliardenbeträge an Dollars dirigieren, mit denen sie versuchen werden, die entsprechenden technischen Entwicklungen in Gang zu setzen. Dieses Geld steht damit für die wirklich wichtigen Dinge nicht zur Verfügung. Außerdem nutzen sie ihre Bekanntheit dazu, ihren Glauben in die Öffentlichkeit zu tragen.

Die Prophezeiung der Transhumanisten über den angeblich unvermeidlichen Lauf der technologischen Entwicklung könnte den Charakter einer selbster- füllenden Prophezeiung bekommen. Je mehr Leute davon überzeugt sind, desto höher ist die Wahrscheinlichkeit, dass sie die Welt wirklich verändert. Die Gefahr ist aber nicht, dass eine Super-Intelligenz entsteht, sondern, dass wir Menschen das Unterscheidungsvermögen zwischen echter menschlicher Intelligenz und maschineller Intelligenzimitation verlieren. Dadurch würden wir sehr schnell in eine Abhängigkeitssituation geraten und die technologi- sche Singularität könnte Wirklichkeit werden – aber nicht, weil die Maschinen super-intelligent geworden wären, sondern weil wir Menschen unsere Unterscheidungsfähigkeit verloren hätten.

Dass diese Unterscheidungsfähigkeit gefährdet ist, hat ja schon der im ersten Teil erwähnte ELIZA-Effekt deutlich gemacht. Seitdem ist die Entwicklung immer stärker in die Richtung gegangen, dass die Mensch-Maschine-Schnittstelle immer menschen- freundlicher („intuitiver“) wird, wodurch aber die Technik immer stärker verborgen wird. Dies führt zusammen mit der ungeheuer vorangeschrittenen Miniaturisierung dazu, dass die modernen Geräte „wie von Zauberhand“ funktionieren und selbst für Fachleute kaum noch zu durchschauen sind. Die Benutzung dieser Geräte wird untergründig von Vermutungen begleitet, dass sie menschlichen Fähigkeiten überlegen seien.

Dumme KI

Das ist aber nicht der Fall. Nach wie vor handelt es sich um hochspezialisierte Maschinen, die das besonders gut können, wofür sie programmiert wurden, während sie alles andere überhaupt nicht können. Bei den künstlichen Intelligenzimitationen kommt hinzu, dass die Qualität ihrer Funktionsweise sehr stark von der Qualität der Trainingsdaten abhängig ist. Sie müssen in der Trainingsphase mit möglichst variantenreichen Datensätzen in ausreichender Zahl konfrontiert worden sein, um zuverlässige Ergebnisse zu produzieren. Dabei ist oftmals das Ziel, die Fehlerquote auf das Maß zu senken, das auch ein Mensch erreichen kann. Eine hundertprozentige Zuverlässigkeit wird oft gar nicht angestrebt, weil sie in vielen Lebenslagen auch gar nicht nötig ist.

Deshalb möchte ich behaupten, dass für diese Technologie grundsätzlich gelten sollte, dass ihre Berech- nungen von Menschen geprüft und bewertet werden müssen. Es kommt natürlich auf den Einsatzzweck an, wie streng man hier vorzugehen hat. Solange es nur um die möglicherweise fehlerbehaftete Auswahl von Bildern oder Spammails geht, ist KI kein wirkliches Risiko, sondern eine Erleichterung. Es sieht aber anders aus, wenn sie in der medizinischen Diagnostik oder in der Polizeiarbeit oder vor Gericht eingesetzt wird und Prognosen über Krankheits- oder Resozialisierungsverläufe erstellen soll. In diesen Ein- satzbereichen ist Vertrauen in die KI überhaupt nicht angebracht. Bisher gibt es auch keine empirischen Beweise, dass KI-generierte Vorhersagen besser sind als die von Menschen erstellten Prognosen. Toby Walsh formulierte dies so:

„Sorgen macht mir dumme KI: Im Augenblick ist auf die Systeme noch wenig Verlass – die meiste Zeit funktionieren sie gut, aber plötzlich geht etwas schief, und sie brechen zusammen. Und wir machen den klassischen menschlichen Fehler, den Maschinen bereits zu sehr zu vertrauen.“ (1)

Walsh liegt mit dieser Einschätzung wohl näher an der Wirklichkeit als die lautstarken und medienwirk- samen Warnungen vor der starken KI, wie sie z.B. von Stephen Hawking und Elon Musk in den letzten Jahren vorgebracht wurden. Auf dem Web Summit

2017 warnte Stephen Hawking beispielsweise, dass KI eines Tages superschlau werden und die Menschheit vernichten könnte: „KI wird entweder das Beste sein, was der Menschheit jemals widerfahren ist – oder das Schlimmste.“ Und Elon Musk erklärte schon 2014:

„Ich denke, wir sollten mit künstlicher Intelligenz sehr vorsichtig sein. Wenn ich raten müsste, was unsere größte existenzielle Bedrohung ist, dann ist es wahrscheinlich das.“ (2)  Der bekannte Technologie-Visionär, der daran glaubt, dass wir in einer Computersimulation leben (3) glaubt natürlich auch daran, dass eine Super-Intelligenz erschaffen werden kann.

Es ist sehr zu begrüßen, dass der übliche Fortschrittsoptimismus in der Techie-Szene einer eher nachdenklichen und kritischen Haltung gewichen ist. Auf dem Web Summit 2017, auf dem Elon Musk und Stephen Hawking ihre Warnungen quasi vor der Weltöffentlichkeit aussprachen, waren über 6.000 Menschen aus der internationalen Technikgemeinschaft versammelt. Insofern deutet sich hier in den Äußerungen dieser zwei so verschiedenen Galionsfiguren des Fortschrittsoptimismus eine gewisse Trendwende an, denn seit einigen Jahren ist die Kritik an den modernen technischen Entwicklungen voll im Herzen der Community angekommen.

Und dennoch: Wenn diese Entwicklungen nur deshalb erfolgen, weil man Angst vor einer allgemeinen maschinellen Intelligenz hat, dann nimmt man diese schon als real an und verleiht der KI-Prophezeiung zusätzliches Gewicht. Die Kritik sollte an einer anderen Stelle ansetzen. Es muss vielmehr das Unterscheidungsvermögen zwischen menschlicher Intelligenz und der begrenzten maschinellen Imitation derselben gestärkt werden.

Ein besonderes Husarenstück des fehlenden Unter-scheidungsvermögens kam zustande, als im Frühjahr 2017 im Facebook AI Research Lab zwei KI-Systeme anfingen, sinnlose Sprachblöcke auszutauschen. (4)

Man versucht dort Sprachprogramme so zu trainieren, dass sie mit Menschen verhandeln können. Es hat sich gezeigt, dass die Trainingsphase stark verkürzt werden kann, wenn man ein untrainiertes KI-Sprachprogramm durch ein anderes trainieren lässt, das seine Trainingsphase schon abgeschlossen hat. Dabei beobachtete man, dass die beiden Systeme von Zeit zu Zeit sinnlose Sprachblöcke miteinander austauschten. Hier ist z.B. ein Protokoll einer solchen „Unterhaltung“:

Bob: i can i i everything else …

Alice: balls have zero to me to me to me to me

to me to me to me to me to

Bob: you i everything else …

Alice: balls have a ball to me to me to me to me

to me to me to me

Bob: i i can i i i everything else …

Alice: balls have a ball to me to me to me to me to me to me to me

Bob: i …

Alice: balls have zero to me to me to me to me to me to me to me to me to

Bob: you i i i i i everything else …

Alice: balls have 0 to me to me to me to me to me to me to me to me to

Bob: you i i i everything else …

Alice: balls have zero to me to me to me to me to me to me to me to me to

Dieses „Gestammel“ kommt möglicherweise zustande, weil kein Mensch an der „Konversation“ teilnimmt. Ein Mensch würde die Sprachgenerierung im KI-Programm wahrscheinlich so triggern, dass menschlich verständliche Sprache dabei herauskäme. Jedenfalls entstand in der KI-Szene eine ernsthafte Debatte darüber, ob wir hier etwa der Geburt einer Superintelligenz beiwohnen. Die Facebook-Ingenieure waren sich jedenfalls so unsicher, dass sie die Systeme vorsichtshalber erst einmal abschalteten…

Einsatzgebiete von maschineller Intelligenz heute und in naher Zukunft

Ich werde im weiteren Verlauf der Untersuchung auf dieses Thema zurückkommen, möchte mich aber nun erst einmal den realen Einsatzgebieten heute vorhandener KI-Systeme zuwenden. Es handelt sich dabei im Wesentlichen um Anwendungen, die heute als „schwache KI“ klassifiziert werden. Ich bevorzuge hingegen gerne die Bezeichnung „maschinelle oder elektronische oder digitale Mustererkennung“, denn um mehr handelt es sich letzten Endes meiner Ansicht nach nicht. Für die Zwecke dieses Artikels spreche ich von künstlicher Intelligenz-Imitation (KII).

Diese Technologien werden in den kommenden Jahren und Jahrzehnten vor allem repetitive Tätigkeiten aller Art übernehmen können. Im Bereich der materiellen Produktion können solche Systeme nach einer kurzen Trainingsphase eigenständig Handgriffe ausführen, die vorher von Fließbandarbeitern durchgeführt wurden. Aber auch bei Verwaltungs- tätigkeiten können solche Systeme für repetitive Aufgaben verwendet werden. Für diesen Bereich wird deshalb ein Riesenautomatisierungspotenzial vorhergesagt – was für eine große Verunsicherung bei den Beschäftigten sorgt, denn bisher waren diese Bereiche vor den Rationalisierungsbestrebungen noch einigermaßen geschützt. Hier folgt eine Übersicht in Listenform, wobei ich davon ausgehe, dass über diese Themen in den Medien schon öfter berichtet worden ist, sodass ich hier nicht weiter ins Detail gehen möchte:

Industrie: Fertigung, Transport und Logistik

Büro: Standardschreiben, Auftragsabwicklung und Abrechnung

Handel: Lagerhaltung, Verkauf und Kasse; personalisierte Preisbildung

Reinigungsdienste: Rasenmähen, Staubsaugen, Fensterputzen

Landwirtschaft: melken, füttern, misten, ernten (5)

Pflege: Essensverteilung, Wäschetransport, Medikamentenverteilung, medizinische Überwachung (6)

Journalismus: Routinenachrichten erstellen (7)

Kanzleien: Standardschreiben

Werbung: verbesserte Personalisierung

Social Media: Einsatz gegen Fake News und Filter Bubbles

Apps: personalisierte Beratung im Bereich Lebensstil, Gesundheit und Erziehung, persona- lisierte Filterung von News, E-Mails, Terminen usw.

An ambitionierteren Anwendungen wird geforscht. Es ist durchaus möglich, dass sie mittelfristig zum Einsatz kommen können:

Verkehr: vernetzte Mobilität, Verkehrsflussoptimierung, automatisiertes Fahren (8)

Soziale Kontrolle: Scoring-Verfahren

Medizin: Diagnostik, Tele-Diagnostik, Tele-Operationen

Städteplanung: Smart Cities

Polizei: Predictive Policing (9)

Landwirtschaft: Präzisionslandwirtschaft (mit 5G-Netz „an jeder Milchkanne“)

Emotionserkennung: Verbesserung der Mensch-Maschine-Schnittstelle

Roboter-Mensch-Gespanne (sog. „Zentaur“): Einsatz z.B. in der Automobilproduktion, aber vor allem beim Militär in der Infanterie (10)

Kunst: Klassifizierung und Sortierung von Kunstwerken

Klimaschutz: KI-optimierte Nachhaltigkeitstech nik, verbesserte Klimaprognostik und vernetzte Energieproduktion

Kunst: Berechnung von Schönheit

Ein Wort noch zum Einsatzbereich in der Kunstwelt. Wenn KII auf die Schönheit von Kunstwerken angesetzt wird, dann geht es nicht um Schönheit im philosophischen Sinne. Es geht vielmehr darum, Bilder herauszufiltern, die Menschen mit hoher Wahrscheinlichkeit für schön halten. Darauf lässt sich ein solches System durchaus trainieren.

Wenn man ein solches System trainiert hat, kann man es mit einem anderen System zusammenschalten, das Gemälde erzeugt, und diese von dem ersten System bewerten lassen. So werden Gemälde entstehen, die mit hoher Wahrscheinlichkeit nach die Menschen schön finden werden.

Wer erzeugt jetzt hier die Kunst? Der Mensch, der solche Bilder schön findet? Oder der Programmierer, der die Systeme programmiert/trainiert hat? Darüber ließe sich streiten. Aber es sind sicher nicht die Maschinen selber!

Stefan Padberg

Erschienen in: Sozialimpulse 1/2020 (Fortsetzung folgt)

Fußnoten Teil 1

1) Toby Walsh, Universität New South Wales, Gastprofessur an der TU Berlin, Interview mit dem GQ Magazin [https://www.gq-magazin. de/auto-technik/article/ki-forscher-toby-walsh-wir-sollten-uns-nicht- um-schlaue-sondern-um-dumme-ki-sorgen]

2)    The Guardian, „Elon Musk: artificial intelligence is our biggest existential threat“, https://www.theguardian.com/technology/2014/ oct/27/elon-musk-artificial-intelligence-ai-biggest-existential-threat, abgerufen am 2.3.2020

3) h t t ps ://d e .w i ki p e d i a . o r g /w i ki/S i m ul a t i o n sh y p o t h e s e # Elon_Musks_Theorie, abgerufen am 2.3.2020

4)  Adrienne   Lafrance,   An   Artificial   Intelligence   Developed   Its Own   Non-Human   Language,   15.6.2017   [https://www.theatlantic.c o m / t e c h n o l o gy/a r c h i v e / 2 017/0 6/a r t i f i c i a l – i n t el l i g en c e – develops-its-own-non-human-language/530436/].Adrienne Lafrance, What an AI’s Non-Human Language Actually Looks Like, 20.6.2017 [ht t ps://w w w.t he a t l ant ic.co m/t e c hnol o g y/arc hive/2017/06/ what-an-ais-non-human-language-actually-looks-like/530934/].

5) Vgl. zum Konzept des „Smart Farming“: „Smart Farming: mit intel- ligenter Maschine und Drohne übern Acker“, https://www.heise.de/ newstic ke r/mel dung/Smar t – Farming – mit – int elligenter- M aschine – und-Drohne-uebern-Acker-4629219.html, abgerufen am 11.3.2020

6) Vgl. hierzu die sehr dfferenzierte Stellungnahme des Deutschen Ethik- rates: „Robotik für gute Pflege“, https://www.ethikrat.org/fileadmin/Pu- blikationen/Stellungnahmen/deutsch/stellungnahme-robotik-fuer-gute-pflege.pdf, abgerufen am 11.3.2020

7) Vgl. Googles Konzept des Roboterjournalismus: „30.000 Meldungen in 30 Tagen: Google unterstützt Roboterjournalismus“, https:// w w w.gq – magazin.de/auto – technik/ar ticle/rob ot er- journalismus -bots-pa-dni-google-news-digitale-artikel, abgerufen am 11.3.2020

8) Vgl. zum aktuellen Stand der Entwicklung die Einschätzung der führenden Roboterwagen-Firma Waymo: „Waymo-Chef: Roboterwagen werden Menschen am Steuer nicht verdrängen“, https://www.heise. de/news/Waymo-Chef-Roboterwagen-werden-Menschen-am-Steuer- nicht-verdraengen-4681149.html, abgerufen am 11.3.2020.

9)Eine kritische Analyse von netzpolitik.org findet sich hier: „Schweiz: Predictive Policing liegt meist falsch“, https://netzpolitik.org/2018/ schweiz-predictive-policing-liegt-meist-falsch/,abgerufen am 11.3.2020

10) Vgl. zum Zentauren-Konzept: „How combined human and computer intelligence will redefine jobs“, https://techcrunch.com/2016/11/01/ how-combined-human-and-computer-intelligence-will-redefine-jobs/, abgerufen am 11.3.2020. Nick Case, „How To Become A Centaur“, https: //jods.mitpress.mit.edu/pub/issue3-case, abgerufen am 11.3.2020