Wie aktuelle Digitalisierungsdebatten den Neoreaktionären zuarbeiten

Jürgen „Tante“ Geuter hat in einem bemerkenswerten Blogpost „sechs Unwahrheiten über die digitale Sphäre“ aufgeschrieben, der Misskonzeptionen gerade rückt, denen ungefähr alle schon einmal aufgesessen sind, die sich an derlei Debatten beteiligen – mich eingeschlossen.

Kurz zusammengefasst sind das:

  1. Technische Entscheidungssysteme (manchmal auch Algorithmen oder künstliche Intelligenz genannt) würden ethisch entscheiden, wenn man ihnen die Ethik nur korrekt einprogrammiert.
  2. Daten würden automatisch Wahrheit erzeugen, und wenn nicht, würden mehr Daten gebraucht.
  3. In 20 Jahren hätten wir eine künstliche Intelligenz vergleichbar mit dem menschlichen Gehirn.
  4. Diskriminierung durch Maschinen ist schlimmer als durch Menschen.
  5. Verträge und Gesetze würden sich sich ohne weiteres in Programmcode umsetzen lassen.
  6. Volle individuelle Autonomie ist der Inbegriff von Freiheit.

Eines oder mehrere dieser Muster werden regelmäßig benutzt, etwa bei so genannter künstlicher Intelligenz (Punkte 1, 2 und 3), Blockchain-Anwendungen (Punkte 2, 5 und 6), in der Hacker- und Nerdkultur (Punkte 4 und 6) und Einsatz algorithmischer Systeme durch den Staat oder große Unternehmen und den Widerstand dagegen (Punkte 1, 2, 5, und 6).

Über jeden einzelnen dieser Punkte ließe sich streiten und ganze Bücher verfassen, aber ich bin überzeugt, dass Jürgen weitgehend recht hat, auch wenn ich nicht so weit gehen würde, von „Falsehood“ zu sprechen, das immer auch die Konnotation von Lüge in sich trägt. Ich glaube durchaus, dass viele dieser Ansichten Misskonzeptionen sind, die manche Leute mit besten Intentionen pflegen. Oft haben sie den Charakter von Lebenslügen.

Die Frage ist jedoch: Was bringt uns diese Erkenntnis – außer diese Argumente in Debatten künftig nicht mehr zu verwenden? Bemerkenswert ist, dass Jürgens sechs Punkte alle (nicht nur aber auch) einen gemeinsamen Fluchtpunkt haben: Die Ausübung von Macht mittels technologischer Systeme und die Verschleierung derselben.

Betrachten wir die Punkte im einzelnen. Sie transportieren in etwa folgende Botschaft: Macht euch keine Sorgen, wenn wir Entscheidungsgewalt an Maschinen abgeben, dann wird das ethisch korrekt passieren, weil wir Ethik einprogrammiert haben werden (Punkt 1) genauso wie Gesetze und Verträge und deren strikte Einhaltung (Punkt 5). Fehlentscheidungen sind nicht möglich, weil Daten nicht Lügen können, und wenn es doch zu Fehlentscheidungen kommt, hatten wir noch nicht genug Daten (Punkt 2). Entscheidungen werden in 20 Jahren nicht mehr von Menschen getroffen werden, sondern von intelligenten Maschinen. Sie werden die Macht haben und das ist eine unausweichliche Entwicklung. (Punkt 3). Du findest das alles dystopisch und willst dabei nicht mitmachen? Dann bist du selber schuld, dass du [hier „bösen Internet-Konzern deiner Wahl einsetzen] mit Daten fütterst statt eigene Server zu pflegen und deine eigene Software zu programmieren (Punkt 6).

In Punkt 4 steckt meiner Meinung nach der springende Punkt. Er beschreibt Angst davor, dass Maschinen Menschen diskriminieren könnten. Als ob ein rassistischer Richterspruch zu Bewährungsauflagen weniger ungerecht wäre, wenn er durch einen menschlichen Richter ausgesprochen wird als durch ein algorithmisches System oder das Opfer eines Verkehrsunfalls mit einem selbstlenkenden Fahrzeug irgendwie toter sei als bei einem Unfall mit einem menschlichen Fahrer. Punkt 4 verschleiert die bereits heute in unseren Systemen vorhandenen Biase und praktizierten Diskriminierungen.

Anders gesagt: Die bereits heute bestehenden Biase und Diskriminierungen können fortgeschrieben werden, allerdings ohne dass es dann noch jemanden gibt, der die Verantwortung dafür trägt, ohne jedes demokratische Korrektiv. Denn die Maschine kann nicht falsch liegen, da ja Ethik, Gesetze und Verträge tadellos in sie hinein programmiert wurden und wenn es doch einen Fehler gab, lag es daran, dass es nicht genug Daten gab. Das ist ungemein praktisch, weil am Ende niemand Verantwortung trägt, spätestens mit Punkt 3 und der religiösen Überhöhung „künstlicher Intelligenz“ ins Gottgleiche bei den Singularitanern.

Der Punkt ist nur: Es wird gar keine Macht an Maschinen übertragen sondern weiterhin von Menschen und ihren Organisationen ausgeübt. Sie betreiben all die algorithmischen Systeme. Sie haben die Systeme so programmiert und trainiert, dass sie Ergebnisse in ihrem Sinne liefern. Und sie werden sie ganz schnell abschalten, sollten sie Entscheidungen treffen, die nicht in ihrem Sinne sind.

Perspektivisch weisen diese Narrative der Digitalisierung, auch wenn sie vielfach von gänzlich unverdächtigen Leuten und mit gegenteiliger Intention vertreten werden,  nahtlos in Richtung der Neoreaktionären, einer Bewegung, die Herrschaft durch eine neue (Tech-)Elite proklamiert und eine Art Techno-Feudalismus anstrebt bis hin zur Übernahme der Staatsgewalt durch Tech-Unternehmen. Gepaart mit dem religiösen Überbau des Transhumanismus und einem Human Enhancement, das nicht Inklusion, Vielfalt und Selbstverwirklichung dient sondern in seiner gegenwärtigen Form fast immer darauf abzielt, wie sie sich der relativ wohlhabende, weiße Mittelstand für eine komfortable Teilhabe an dieser technofeudalistischen Welt optimieren könne, bilden diese sechs Punkte das Narrativ einer Herrschaftsideologie.

Es geht also letztlich nicht darum, ob Technik gut oder böse ist (sie ist sowieso da und allzu menschlich) und die Antwort steckt auch nicht darin, dass wir alle künftig als eine Art Cyber-Mad-Max unsere eigene Technik programmieren können müssen, sondern die Frage ist: Wie kriegen wir algorithmische Entscheidungssysteme demokratisiert?

Die im Dunkeln sieht man doch

Langsam ist die Gesichtserkennung im Alltag angekommen. Facebook hat sein seit Jahren existierendes entsprechendes Feature auch für europäische Nutzer freigeschaltet. Das derzeit neueste iPhone wird nicht mehr durch Fingerabdruck entsperrt, sondern per Blick aufs Display. Bei den olympischen Spielen 2020 in Tokio soll ein entsprech­endes System benutzt werden, um Athleten, Presseleute und Mitarbeiter zu identifizieren, die bestimmte Bereiche betreten dürfen. Das Medienunternehmen Live Nation, zu dem auch der Dienstleister Ticketmaster gehört, kaufte das auf Gesichtserkennung spezialisierte Unternehmen Blink Identity, um Konzertbesucher künftig beim Einlass anhand ihres Gesichts zu kontrollieren, statt mit Hilfe eines vorgezeigten Tickets.

Begehrlichkeiten weckt diese Technologie schon lange auch bei Ermittlungsbehörden zahlreicher Länder. So benutzte die US-Polizei nach dem Amoklauf in der Redaktion der Capital Gazette in Annapolis, Maryland, im Juni Gesichtserkennungssoftware, um den Todesschützen zu identifizieren. Das FBI soll Fotos von 117 Millionen US-Ame­rikanern gespeichert haben.

Weiterlesen in der Jungle World

Warum eine Kirche zur Anbetung künstlicher Intelligenz eine super Idee ist

Am Ende erwacht das ganze Universum zu einem erleuchteten Wesen, durchdrungen von Intelligenz. So steht es in Ray Kurzweils Buch „Menscheit 2.0“ von 2005 (Untertitel „Die Singularität ist nah“). Was Kurzweil, Chefentwickler bei Google, als das unausweichliche Schicksal des Universums sieht, ist der Endpunkt einer explosionsartigen Entwicklung, die wir gerade mit unseren Computern und der Entwicklung künstlicher Intelligenz in Gang setzen.

Anbeten lässt sich diese neue Gottheit schon heute. Dafür hat Anthony Levandowski eine neue Kirche gegründet. Levandowski ist kein Unbekannter: Unter anderem leitete er bei der Google-Tochter Waymo die Entwicklung autonomer Fahrzeuge. Wahrscheinlich denkt er schon lange darüber nach, wohin sich künstliche Intelligenz wohl entwickeln mag. Jedenfalls meldete er bereits vor mehr als zwei Jahren „Way of the Future“ als Non-Profit-Unternehmen zum Aufbau von Religionsgemeinschaft in Kalifornien an. Das Ziel: Eine künstliche Intelligenz erschaffen, diese dann als Gottheit anbeten und für Akzeptanz werben.

Weiterlesen bei t3n.

Kirche will Künstliche Intelligenz als Gott verehren

„Way of the Future“ heißt eine neue Kirche, in der eine künstliche Intelligenz (KI) die Gottheit sein soll. Ihr Gründer Anthony Levandowski entwickelte unter anderem bei Google selbstlenkende Autos, kennt sich also mit künstlicher Intelligenz aus. Er ist davon überzeugt, dass sich schon in naher Zukunft eine solche KI so weit entwickeln wird, dass sie als gottgleich anzusehen ist. Das zentrale Nervensystem dieser neuen Gottheit wird das Internet, als Sinnesorgane dienen die Sensoren und Smartphones dieser Welt. Dieser Gott hört den Menschen immer zu. Das sind in etwa die Kernaussagen der Kirche „Way of the Future“.

Weiterlesen/hören bei Deutschlandfunk Kultur