Wie aktuelle Digitalisierungsdebatten den Neoreaktionären zuarbeiten

Jürgen „Tante“ Geuter hat in einem bemerkenswerten Blogpost „sechs Unwahrheiten über die digitale Sphäre“ aufgeschrieben, der Misskonzeptionen gerade rückt, denen ungefähr alle schon einmal aufgesessen sind, die sich an derlei Debatten beteiligen – mich eingeschlossen.

Kurz zusammengefasst sind das:

  1. Technische Entscheidungssysteme (manchmal auch Algorithmen oder künstliche Intelligenz genannt) würden ethisch entscheiden, wenn man ihnen die Ethik nur korrekt einprogrammiert.
  2. Daten würden automatisch Wahrheit erzeugen, und wenn nicht, würden mehr Daten gebraucht.
  3. In 20 Jahren hätten wir eine künstliche Intelligenz vergleichbar mit dem menschlichen Gehirn.
  4. Diskriminierung durch Maschinen ist schlimmer als durch Menschen.
  5. Verträge und Gesetze würden sich sich ohne weiteres in Programmcode umsetzen lassen.
  6. Volle individuelle Autonomie ist der Inbegriff von Freiheit.

Eines oder mehrere dieser Muster werden regelmäßig benutzt, etwa bei so genannter künstlicher Intelligenz (Punkte 1, 2 und 3), Blockchain-Anwendungen (Punkte 2, 5 und 6), in der Hacker- und Nerdkultur (Punkte 4 und 6) und Einsatz algorithmischer Systeme durch den Staat oder große Unternehmen und den Widerstand dagegen (Punkte 1, 2, 5, und 6).

Über jeden einzelnen dieser Punkte ließe sich streiten und ganze Bücher verfassen, aber ich bin überzeugt, dass Jürgen weitgehend recht hat, auch wenn ich nicht so weit gehen würde, von „Falsehood“ zu sprechen, das immer auch die Konnotation von Lüge in sich trägt. Ich glaube durchaus, dass viele dieser Ansichten Misskonzeptionen sind, die manche Leute mit besten Intentionen pflegen. Oft haben sie den Charakter von Lebenslügen.

Die Frage ist jedoch: Was bringt uns diese Erkenntnis – außer diese Argumente in Debatten künftig nicht mehr zu verwenden? Bemerkenswert ist, dass Jürgens sechs Punkte alle (nicht nur aber auch) einen gemeinsamen Fluchtpunkt haben: Die Ausübung von Macht mittels technologischer Systeme und die Verschleierung derselben.

Betrachten wir die Punkte im einzelnen. Sie transportieren in etwa folgende Botschaft: Macht euch keine Sorgen, wenn wir Entscheidungsgewalt an Maschinen abgeben, dann wird das ethisch korrekt passieren, weil wir Ethik einprogrammiert haben werden (Punkt 1) genauso wie Gesetze und Verträge und deren strikte Einhaltung (Punkt 5). Fehlentscheidungen sind nicht möglich, weil Daten nicht Lügen können, und wenn es doch zu Fehlentscheidungen kommt, hatten wir noch nicht genug Daten (Punkt 2). Entscheidungen werden in 20 Jahren nicht mehr von Menschen getroffen werden, sondern von intelligenten Maschinen. Sie werden die Macht haben und das ist eine unausweichliche Entwicklung. (Punkt 3). Du findest das alles dystopisch und willst dabei nicht mitmachen? Dann bist du selber schuld, dass du [hier „bösen Internet-Konzern deiner Wahl einsetzen] mit Daten fütterst statt eigene Server zu pflegen und deine eigene Software zu programmieren (Punkt 6).

In Punkt 4 steckt meiner Meinung nach der springende Punkt. Er beschreibt Angst davor, dass Maschinen Menschen diskriminieren könnten. Als ob ein rassistischer Richterspruch zu Bewährungsauflagen weniger ungerecht wäre, wenn er durch einen menschlichen Richter ausgesprochen wird als durch ein algorithmisches System oder das Opfer eines Verkehrsunfalls mit einem selbstlenkenden Fahrzeug irgendwie toter sei als bei einem Unfall mit einem menschlichen Fahrer. Punkt 4 verschleiert die bereits heute in unseren Systemen vorhandenen Biase und praktizierten Diskriminierungen.

Anders gesagt: Die bereits heute bestehenden Biase und Diskriminierungen können fortgeschrieben werden, allerdings ohne dass es dann noch jemanden gibt, der die Verantwortung dafür trägt, ohne jedes demokratische Korrektiv. Denn die Maschine kann nicht falsch liegen, da ja Ethik, Gesetze und Verträge tadellos in sie hinein programmiert wurden und wenn es doch einen Fehler gab, lag es daran, dass es nicht genug Daten gab. Das ist ungemein praktisch, weil am Ende niemand Verantwortung trägt, spätestens mit Punkt 3 und der religiösen Überhöhung „künstlicher Intelligenz“ ins Gottgleiche bei den Singularitanern.

Der Punkt ist nur: Es wird gar keine Macht an Maschinen übertragen sondern weiterhin von Menschen und ihren Organisationen ausgeübt. Sie betreiben all die algorithmischen Systeme. Sie haben die Systeme so programmiert und trainiert, dass sie Ergebnisse in ihrem Sinne liefern. Und sie werden sie ganz schnell abschalten, sollten sie Entscheidungen treffen, die nicht in ihrem Sinne sind.

Perspektivisch weisen diese Narrative der Digitalisierung, auch wenn sie vielfach von gänzlich unverdächtigen Leuten und mit gegenteiliger Intention vertreten werden,  nahtlos in Richtung der Neoreaktionären, einer Bewegung, die Herrschaft durch eine neue (Tech-)Elite proklamiert und eine Art Techno-Feudalismus anstrebt bis hin zur Übernahme der Staatsgewalt durch Tech-Unternehmen. Gepaart mit dem religiösen Überbau des Transhumanismus und einem Human Enhancement, das nicht Inklusion, Vielfalt und Selbstverwirklichung dient sondern in seiner gegenwärtigen Form fast immer darauf abzielt, wie sie sich der relativ wohlhabende, weiße Mittelstand für eine komfortable Teilhabe an dieser technofeudalistischen Welt optimieren könne, bilden diese sechs Punkte das Narrativ einer Herrschaftsideologie.

Es geht also letztlich nicht darum, ob Technik gut oder böse ist (sie ist sowieso da und allzu menschlich) und die Antwort steckt auch nicht darin, dass wir alle künftig als eine Art Cyber-Mad-Max unsere eigene Technik programmieren können müssen, sondern die Frage ist: Wie kriegen wir algorithmische Entscheidungssysteme demokratisiert?

Die im Dunkeln sieht man doch

Langsam ist die Gesichtserkennung im Alltag angekommen. Facebook hat sein seit Jahren existierendes entsprechendes Feature auch für europäische Nutzer freigeschaltet. Das derzeit neueste iPhone wird nicht mehr durch Fingerabdruck entsperrt, sondern per Blick aufs Display. Bei den olympischen Spielen 2020 in Tokio soll ein entsprech­endes System benutzt werden, um Athleten, Presseleute und Mitarbeiter zu identifizieren, die bestimmte Bereiche betreten dürfen. Das Medienunternehmen Live Nation, zu dem auch der Dienstleister Ticketmaster gehört, kaufte das auf Gesichtserkennung spezialisierte Unternehmen Blink Identity, um Konzertbesucher künftig beim Einlass anhand ihres Gesichts zu kontrollieren, statt mit Hilfe eines vorgezeigten Tickets.

Begehrlichkeiten weckt diese Technologie schon lange auch bei Ermittlungsbehörden zahlreicher Länder. So benutzte die US-Polizei nach dem Amoklauf in der Redaktion der Capital Gazette in Annapolis, Maryland, im Juni Gesichtserkennungssoftware, um den Todesschützen zu identifizieren. Das FBI soll Fotos von 117 Millionen US-Ame­rikanern gespeichert haben.

Weiterlesen in der Jungle World

Die Macht der Algorithmen

»Algorithmus« ist das Gruselwort der vergangenen Jahre. Kaum jemand weiß, was genau das eigentlich ist – jedenfalls wenn es nach einer repräsentativen Umfrage der Bertelsmann-Stiftung im Frühjahr 2018 geht. Dort gaben fast drei Viertel der Befragten an, schon einmal den Begriff Algorithmus gehört zu haben, aber nur etwa zehn Prozent konnten erklären, was das ist. Für die anderen 90 Prozent muss die Welt eine gruselige sein, schließlich entscheiden diese ominösen Algorithmen über Kreditwürdigkeit, Partnerwahl und Polizeieinsätze.

Weiterlesen im Neuen Deutschland

Die Wahl-O-Matisierung der Demokratie

Der Wahl-O-Mat ist mittlerweile eine Institution. Wenn er für eine Bundestagswahl freigeschaltet wird, ist die Nachfrage so groß, dass schon einmal der eine oder andere Server kurzzeitig unter der Last zusammenbricht. Es ist ja auch verlockend: Beantworte eine Reihe von Fragen und ich sage dir, wen du wählen sollst.

Bei näherem Hinsehen ist dieses Versprechen unhaltbar, was die Bundeszentrale für politische Bildung – die Herausgeberin des Wahl-O-Mat – auch in ihren FAQ schreibt: Das Tool dient der Orientierung und der Auseinandersetzung mit den Inhalten der Parteien und dem Nachdenken über den eigenen Standpunkt. Besonders wird empfohlen, die Begründungen der jeweiligen Parteien zu lesen.

Aber auch dann gibt es einiges zu kritisieren. Zum Beispiel die Auswahl der Fragen. Man kann sich streiten, ob der Punkt „Der Völkermord an den europäischen Juden soll weiterhin zentraler Bestandteil der deutschen Erinnerungskultur sein“ ein unerträglicher Tabubruch war oder leider notwendig, um sichtbar zu machen, dass einige Parteien derlei vertreten.

Weiterlesen im t3n-Magazin