Schöne neue Welt Teil 4

Künstliche Intelligenz: Soziale Dreigliederung auf dem Prüfstand

KII im politischen und Rechtsleben

Dass Gesetzestexte sich hervorragend zur maschinellen Auswertung eignen, liegt auf der Hand. Die semantischen Strukturen von rechtlichen Texten aller Art sind für Menschen vielleicht schwer zu verstehen, eignen sich aber sehr gut für einfache semantische Suchalgorithmen. In Zukunft werden KII-Systeme die für Gutachten und Urteile nötigen Gesetzestexte und Sekundärliteratur selbstständig heraussuchen und auswerten können. Solange sie nicht selbständig Urteile in Gerichtsverfahren fällen, ist dies unschädlich.

„Filter bubbles“ und gesellschaftlicher Zusammenhalt

Das gesellschaftliche Subsystem „Rechtsleben“ umfasst aber wesentlich mehr als die Gesetzestexte und das Rechtswesen. Ein wichtiger Teil ist die öffentliche Meinung und die Medienlandschaft, denn ohne zuverlässige Informationen und engagierte Diskussionen funktioniert eine demokratische Entscheidungsfindung nicht. Die öffentliche Debatte ist ein Grenzbereich zwischen Geistesleben und Rechtsleben. Das demokratische Prinzip setzt heute voraus, dass alle Bürgerinnen und Bürger in gleicher Weise an der Entscheidungsfindung zu beteiligen sind. Daraus ergibt sich das Erfordernis, dass zuverlässige Informationen allen Bürgern gleichermaßen zur Verfügung zu stellen sind. Das Internet und die sozialen Medien haben in den letzten Jahren dazu geführt, dass sich die öffentliche Meinungslandschaft weitgehend zersplittert hat. Diese Fragmentierung der Öffentlichkeit erschwert die Entscheidungsfindung in Demokratien enorm bis hin zur partiellen Lähmung. Die Phänomene sind bekannt und werden in der Tagespresse ausführlich diskutiert.

KII-Systeme verschärfen diesen Trend zur einseitigen Meinungsbildung weiter. Es ist nahezu unmöglich, von einem KII-Algorithmus zu verlangen, Nachrich- ten nach „objektiven“ Kriterien zusammenzustellen. Solange er die Vorlieben des Nutzers zugrunde legen muss, wird es immer eine subjektiv gefärbte Auswahl bleiben. Es bleibt dem Nutzer nicht erspart, sich aus verschiedenen, voneinander unabhängigen Quellen zu informieren und die Qualität der Informa- tionen selbstständig zu überprüfen und zu bewerten. Hier sind wir wieder beim Problem der mangelnden Distanz zu den Berechnungen der KII-Systeme. Man darf das, was sie einem vorspiegeln, nicht einfach für bare Münze nehmen. (26)

Gesellschaftlicher Zusammenhalt entsteht nicht al- gorithmisch, sondern durch die engagierte Debatte und die gemeinsame demokratische Entscheidungsfindung in der Bürgerschaft. In diesem Herzbereich einer Demokratie benötigen wir deutlich mehr offene Begegnung zwischen Bürgern, Parteimitgliedern, Verbändevertretern, zivilgesellschaftlichen Akteu- ren und professionellen Politikern. Debatte erzeugt Reibung, und Reibung erzeugt Wärme. Diese Wärme belebt den sozialen Organismus, während der Versuch, Konflikte algorithmisch zu minimieren, indem Lebenswelten individualisiert und voneinander abgeschottet werden, soziale Kälte und Erstarrung erzeugt. (27)

Medienkompetenz zu er werben, ist dringend notwendig, auch und gerade für die erwachsene Generation, die mit den sozialen Medien nicht aufgewachsen ist. Die junge Generation hat hier nach meiner persönlichen Beobachtung oft schon eine bessere Unterscheidungsfähigkeit erlangt. Dazu gehört aber nicht nur das Wissen, wie „das Internet“ funktioniert, sondern es sollte auch daran erinnert werden, wie ein freies Pressewesen funktioniert und wie Journalisten arbeiten. Durch den Einsatz von KII-Algorithmen wird sich daran nichts ändern.

„Big data“ wird durch KII erst richtig auswertbar

Ein großes Problem sind die Datenberge, die sich bei großen Unternehmen und bei den Geheimdiensten ansammeln. Sie geben differenziert Auskunft über Nutzer, ihre Vorlieben und Beziehungen und sind in der Hand von zu allem entschlossenen Machtmen- schen eine große Gefahr.

Die Daten, die große Unternehmen wie Amazon, Facebook oder Alibaba über ihre Nutzer gesammelt haben, sind nicht automatisch vor dem Zugriff der Polizei oder der Geheimdienste geschützt. Die Sicherheitsorgane haben mittlerweile – oftmals legalen – Zugriff auf diese Daten. Ohne KII-Systeme lassen sich solche Datenmengen aber gar nicht vernünftig auswerten.

Heutzutage werden solche Datenberge oft auf Vorrat angelegt. Man hat noch nicht die Möglichkeit, sie auszuwerten, aber hofft, dass diese in den nächsten Jahren geschaffen werden wird. Selbstverständlich werden diese Daten „anonymisiert“ gespeichert, aber wissenschaftliche Untersuchungen haben ergeben, dass man schon aus wenigen Eigenschaften Rückschlüsse auf die echte Person ziehen kann. (28)

Konzepte wie „Smart cities“ oder „Social scoring“, mit denen die kybernetische Steuerung ganzer Gesellschaften angedacht wird, werden gegenwärtig diskutiert und an verschiedenen Stellen ausprobiert. (29) Es versteht sich, dass hier eine Riesengefahr für die Demokratie entsteht. Vermutlich ist dies die größte Gefahr für die Zukunft unserer Gesellschaften.

Leider können Datenspeicher nichts vergessen. Werden in Zukunft KII-Systeme auf der Grundlage riesiger Datenberge, die in der Vergangenheit gesammelt worden sind, Regierungen beraten? Sie könnten „berechnen“, wie groß der Widerstand gegen bestimmte politische Maßnahmen sein wird und örtliche „Widerstandsherde“ identifizieren. Werden erstmal KII-Systeme und diese Datenberge miteinander verknüpft, dürften sich Diskussionen über den Schutz der Privatsphäre, Open Data und Open Government als überflüssig erweisen.

Gesetzliche Regulierung von KII-Systemen

Es ist deshalb kein Wunder, dass eine Debatte darüber entbrannt ist, wie KII-Systeme reguliert werden sollten. Dass sie reguliert werden müssen, ist mittlerweile unstrittig. Hier hat es in den letzten Jahren aufgrund der negativen Erfahrungen mit den diversen Facebook-Skandalen einen internationalen Meinungsumschwung gegeben. (30) Die verschiedenen Versuche, Ethik über freiwillige Selbstverpflichtung in die KII-Entwicklung zu integrieren, sind nicht wirklich überzeugend gewesen. (31)

Relativ moderat sind die „OECD-Grundsätze für künstliche Intelligenz“. (32) Es werden die zugrunde liegenden Werte und Prinzipien betont wie: Nachhaltigkeit, Inklusion, Lebensqualität, Rechtsstaatlichkeit, Vielfalt, Fairness, Gerechtigkeit und Transparenz. Interessanter ist schon folgende Formulierung: „KI-Systeme müssen über ihren gesamten Lebenszyklus robust und sicher funktionieren, und potenzielle Risiken sollten kontinuierlich beurteilt und kontrolliert werden. Die Organisationen und Personen, die KI-Systeme entwickeln, einführen oder betreiben, sollten für den einwandfreien Betrieb gemäß den oben aufgeführten Grundsätzen rechenschaftspflichtig sein.“

Hier wird zum einen die gesamte Lebensdauer der KII-Systeme ins Auge gefasst, und zum anderen wird die Verantwortung der Betreiber hervorgehoben. Die G20-Staaten haben sich bei ihrem Osaka-Treffen Mitte 2019 ebenfalls für ähnliche Regeln ausgespro- chen. Der Europarat (nicht zu verwechseln mit dem „Europäischen Rat“) hat einen Konsultationsprozess zu diesem Thema begonnen mit dem Ziel, in 2021 eine „Konvention zum Schutz vor Negativentwicklun- gen bei der Künstlichen Intelligenz“ zu verabschieden. Im Vorfeld wurde erkennbar, dass insbesondere die Gesichtserkennung einer dringenden Regulierung bedarf. (33) Und jüngst hat sich auch das EU-Parlament zu Wort gemeldet und eine Resolution verabschiedet. Darin fordern die Abgeordneten:

• Verpflichtung zum Einsatz von nachvollziehbaren und tendenzfreien Algorithmen

• Trainingsdaten von hoher Qualität, die bestehende Vorurteile nicht noch verstärken und Menschen diskriminieren könnten

• Einrichtung von Kontrollen, um Fehler bei der automatisierten Entscheidungsfindung korrigieren zu können

• Verbraucher sollen das Recht erhalten, dass automatisierte Entscheidungen von Menschen überprüft und aufgehoben werden können

• Befürwortung von „Explainable Artificial Intelligence“, um die algorithmischen Verfahren transparent zu machen

• Einrichtung eines Risikobewertungsschemas für KI

• Reform der EU-Sicherheits- und Haftungsregeln (34)

Das ist schon recht weitgehend und zeigt, dass zumindest ein Teil der Politik aufgewacht ist. Die KI-Industrie wird Mühe haben, diese Anforderungen zu erfüllen. Es ist deshalb zu erwarten, dass es entschiedene Versuche geben wird, diese Regeln aufzuweichen.

Die Öffentlichkeit und die Zivilgesellschaft müssen aber auf dieser strengen Regulierung bestehen, wenn ein Techno-Faschismus Orwell‘scher Prägung verhindert werden soll. Es geht darum, die Rahmenbedingungen für den Einsatz von KII-Systemen in der Gesellschaft verbindlich festzulegen. Darüber muss jetzt die Debatte geführt werden.

KII-gestützte Kriegführung mit „starker KI“?

Es versteht sich von selbst, dass die Militärs der Welt sich ebenfalls Gedanken machen, wie sich KII in ihre Waffensysteme implantieren ließe. Hierbei gibt es, grob gesagt, zwei Ansatzpunkte. Zum einen will man verstärkt autonome Systeme (Roboter und Drohnen) ins Kampffeld schicken, die dort Aufgaben erledigen wie: Aufklärungseinsätze sowie Bomben, Minen, chemische Kampfstoffe usw. beseitigen. Zum anderen soll die Ausrüstung der Kampfeinheiten mit KII-Systemen erweitert werden, sodass die Kampfeinheiten schneller mit detaillierteren Informationen versorgt werden und auch auf größere Entfernungen vernetzt agieren können.

Die entsprechenden Studien der Militärs richten sich natürlich nicht nur auf KII-Technologie, sondern beziehen verschiedene technische Entwicklungen der jüngeren Zeit mit ein. Dies kann hier im Einzelnen nicht untersucht werden. Interessant ist aber, dass eine Debatte entbrannt zu sein scheint, inwieweit man „starke KI“ bei diesen Studien einbeziehen oder außen vor lassen sollte.

In der aktuellen Studie der Bundeswehr „Künstliche Intelligenz in den Landstreitkräften“(35) wird „starke KI“ explizit von der Untersuchung ausgeschlossen.(36) Auch das Positionspapier des US Department on Defense „AI Principles: Recommendations on the Ethical Use of Artificial Intelligence“(37) ist in dieser Hinsicht zurückhaltend und definiert: „Artificial intelligence is … a variety of information proces- sing techniques and technologies used to perform a goal-oriented task and the means to reason in the pursuit of that task“ (S. 5). In beiden Positionspapieren wird betont,

• dass der Mensch die Letztentscheidung und die Verantwortlichkeit behalten muss und

• dass die Technik transparent, zuverlässig und beherrschbar sein muss.

Diese Positionspapiere sind aus länger dauernden Konsultationsprozessen mit der interessierten Fachöf- fentlichkeit hervorgegangen. Offensichtlich war dort die vorherrschende Einschätzung die, dass „starke KI“ entweder gar nicht kommen wird oder nicht in den nächsten 50 Jahren. (38) Autonom agierende Kampfmaschinen (sog. „Killerroboter“) stehen in den nächsten Jahren jedenfalls nicht auf der Einkaufsliste der Militärs.

Militärstrategisches „Decoupling“

Das soll nicht beruhigen. Es soll nur zeigen, dass man auch anderswo skeptisch ist, was die sog. „starke KI“ angeht. Beunruhigend genug ist es, wenn die US-Militärs KII-Technik als strategisch wichtig klassifizieren. Sobald das passiert, gilt alle Forschung in diesen Bereichen als militärisch relevant und unterliegt den Anforderungen der nationalen Sicherheit und muss vor potenziellen Kriegsgegnern (sprich: China) geschützt werden. Folgerichtig wird dann die internationale KI-Forschungsgemeinschaft zertrümmert und das sog. „Decoupling“ vorangetrieben. Das US-Militär will, dass militärisch relevante Technologie unter vollständiger und alleiniger Kontrolle der US-Regierung steht.

An dieser Stelle greift der Staat massiv ins Wirtschaftsleben ein und erzeugt eine Neuzonierung der Weltwirtschaft, rein aus militärstrategischen Gründen. Der Punkt, an dem dies ins Rollen kam, ohne dass das hier im Einzelnen nachgezeichnet werden kann, war tatsächlich die Ankündigung Chinas 2012, in 2025 führend im Bereich der KII-Technik sein zu wollen, was für das Sicherheitsgefühl in den USA inakzeptabel ist. Die Obama-Administration hatte deshalb schon Ansätze von Containment-Strategien gegenüber China entwickelt, und auch nach der Trump-Ära wird die Konkurrenz zwischen China und den USA nicht nur um den Spitzenplatz in der KI-Technik weitergehen.

Ergebnis

Es ist deutlich geworden, dass der Einsatz von KII-Systemen im Bereich von Politik, Staat und Militär zu ernsthaften Problemen führen wird. Staaten werden diese Systeme nutzen, um ihre Kontrolle über die Gesellschaft zu stärken. Das Entstehen solcher

Technologien ist praktisch nicht mehr zu verhindern, da alleine China hier ganz andere Kriterien für die Entwicklung und den Einsatz dieser Technik hat als Europa oder die USA. Aber auch westliche Sicherheitskreise forschen mit Sicherheit an Technologien zur kybernetischen Kontrolle ganzer Gesellschaften. Einmal in der Welt, werden sie überall zum Einsatz kommen, wo Regierungen meinen, ihre Bevölkerung kontrollieren und manipulieren zu müssen.

Gerade deshalb ist es wichtig, dass wir hier noch stärker in die Debatte einsteigen. Ähnlich wie schon beim Datenschutz kann eine mutige EU-Initiative für ethischen Umgang mit KI für Bürgerinnen und Bürger in anderen Weltteilen eine große Ermutigung sein, auch wenn die Umsetzung hinter einer solchen Entschließung zurückfallen wird. (39)

Stefan Padberg

Erschienen in: Sozialimpulse 1/2020 (Fortsetzung folgt)

Fußnoten Teil 4

26)  Es ist hier nicht der Ort, die im Internetzeitalter aufgetauchte Medienkrise zu untersuchen. Es sei hier nur der Hinweis angebracht, das wieder mehr zu würdigen, was Journalisten leisten. An der gegenwär- tigen Medienkrise zeigt sich überdeutlich, dass es nicht reicht, wenn alle „auf Sendung“ gehen. Die dadurch verursachte Arbeit des Nach- prüfens und Recherchierens werden uns durch guten Journalismus abgenommen, nicht aber durch noch so gut ausgeklügelte KII-Systeme.

27)  Weitere Maßnahmen, die den gesellschaftlichen Zusammenhalt fördern, sind die breite Einführung von Bürgerbeteiligung und direkter Demokratie. Hierzu findet man geeignete Anregungen unter

https:// www.mehr-demokratie.de und https://www.buergerrat.de.

28)  Siehe z.B. hier: „Wie gängige Methoden zur Anonymisierung von Daten versagen“, https://www.heise.de/newsticker/meldung/36C3 -Wie – gaengige – Methoden -zur- Anonymisierung -von – Daten – versagen-4624450.html, abgerufen am 1.3.2020

29)  „Wem gehört die Smart City? Toronto ringt mit dem Google-Konzern“, https://www.nzz.ch/international/wem-gehoert-die-smart-city-toronto-ringt-mit-dem-google-konzern-ld.1513002,   abgerufen   am 1.3.2020; „Social Scoring in China. Im Reich der überwachten Schritte“,

https://taz.de/Social-Scoring-in-China/ !5480926/, abgerufen am 1.3.2020

30)  Facebook selbst verlang nach einer    Regulierung: „Face- book-Kommunikationschef: Regierungen müssen soziale Netzwerke regulieren“, https://www.tagesspiegel.de/gesellschaft/medien/hilfe- ge gen – hatespeech – facebook- kommunikationschef- regierungen – muessen-soziale-netzwerke-regulieren/24490420.html,abgerufenam 29.02.2020. „Facebook will reguliert werden”, https://www.sued- deutsche.de/digital/facebook-regulierung-clegg-berlin-1.4498059, abgerufen 29.02.2020.

31)  Siehe z.B. die „KI-Leitsätze von Asilomar“ (https://futureoflife. org/ai-principles-german/, abgerufen am 1.3.2020), die auf einer großen Konferenz in Südkalifornien 2017 vorgestellt und dann von über 5000 KI-Entwicklern und Informatikern weltweit unterzeichnet wurden. Mittlerweile ist es aber wieder stiller um diesen Ansatz geworden.

32) https://www.oecd.org/berlin/presse/Flyer_AIPrinciples_FINAL_ GER.pdf, abgerufen am 29.02.2020

33)   „Künstliche Intelligenz 2020: Ethik für KI ist gut, Gesetze zur KI-Regulierung sind besser?“, https://www.heise.de/newsticker/meldung/ Kuenstliche-Intelligenz-2020-Ethik-fuer-KI-ist-gut-Gesetze-zur-KI-Regulierung-sind-besser-4623681.html, abgerufen am 29.02.2020

34)   Zitiert nach: „Künstliche Intelligenz: EU-Parlament will nachvollziehbare Algorithmen“, https://www.heise.de/newsticker/meldung/ Kuenstliche-Intelligenz-EU-Parlament-will-nachvollziehbare-Algorith- men-4659537.html, abgerufen am 29.02.2020

35) https://www.bundeswehr.de/resource/blob/140504/d757cf-dc2b1a467fb7d88544075da1d9/ft-he-data.pdf, abgerufen      am 1.3.2020

36)   Es heißt dort: „Mit starker KI werden KI-Systeme bezeichnet, welche umfänglich über die gleichen intellektuellen Leistungen des Menschen verfügen, oder diese sogar noch übertreffen. Starke KI ist heute noch nicht existent. Die Meinungen über eine mögliche zukünftige Umsetzung gehen auseinander. Die starke KI wird in der KI-Strategie der Bundesregierung, der KI-Konzeption der Bundeswehr und auch dem Positionspapier KI in den Landstreitkräften nicht betrachtet.“

37) Abgerufen am 1.3.2020: https://media.defense.gov/2019/ Oct/31/2002204458/-1/-1/0/DIB_ AI_PRINCIPLES_PRIMARY_DO- CUMENT.PDF

38) Wie KII-gestützte militärische Operationen aussehen könnten, beschreibt beispielsweise der folgende Artikel: „Militärforschung: KI hilft bei der militärischen Aufklärung“, https://www.heise.de/newsticker/meldung/Militaerforschung- KI -hilft-bei-der-militaerischen-Aufklaerung-4677135.html, abgerufen 6.3.2020

39) In dem Kriminalroman   „Drohnenland“   von Tom Hillenbrand (ISBN-13: 978-3462046625) spielt der Autor das Leben in der zweiten Jahrhunderthälfte in einer vollkommen durchdigitalisierten EU durch. Seine Annahmen beruhen auf heute schon in Ansätzen vorhandenen Technologien. Ein sehr realistisches Szenario.