Schlagwort: Künstliche Intelligenz


  • Das Märchen vom Computer-Gott

    Als Ray Kurzweil, Chef-Entwickler bei Google, gefragt wurde, ob es einen Gott gibt, war seine Antwort kurz und knapp: „Noch nicht.“ Der Gott, den es noch nicht gibt, ist ein Computer und er soll schon in wenigen Jahrzehnten in Erscheinung treten.

    Die Idee dahinter ist simpel: Eine intelligente Maschine entwickelt eine noch intelligentere Maschine, die wiederum eine noch intelligentere Maschine entwickelt und immer so weiter. Das Ergebnis wäre eine Intelligenz-Explosion und das Entstehen einer gottgleichen Hyper-Intelligenz weit jenseits des menschlichen Fassungsvermögens. Je nachdem, wen man fragt, wird dieser Computer-Gott das Paradies auf Erden bringen oder aber den Untergang der Menschheit einläuten.

    Weiterlesen/hören bei Deutschlandfunk Kultur


  • Die frustrierend falsche Berichterstattung zu Implantaten, Prothetik und Wissenschaftsthemen

    Alle paar Tage das gleiche Spiel: Irgend eine Forschungsgruppe macht eine mehr oder weniger bahnbrechende Entdeckung, schreibt ein Paper und veröffentlicht es in einer renommierten Fachzeitschrift. Ist die Meldung sensationell genug, springen Publikumsmedien auf und berichten darüber. Leider in sehr vielen Fällen ohne das Paper verstanden oder überhaupt gelesen zu haben.

    Das passiert auch regelmäßig mit „Cyborg-Themen“, wie sehr schön folgende Meldung aus dem Bereich Hirnimplantate illustriert. Forscher:innen der New Yorker Columbia University ist es gelungen, mit einem Implantat zu messen, was im Hörzentrum des Gehirns passiert, wenn Menschen gesprochener Sprache zuhören. Mit Hilfe von Machine Learning schufen sie ein KI-System, dass aus diesen Hirn-Signalen die gehörten Wörter rekonstruiert und wieder hörbar macht.

    Das ist eine enorme wissenschaftliche Leistung. Allerdings sollte genau hingesehen werden, was dieses System kann und was nicht. Es kann gehörte Sprache während des Zuhörens aus dem Hörzentrum rekonstruieren. Was wir im Stillen für uns denken, kann das System hingegen nicht entschlüsseln. Das sagen die Forscher:innen in ihrem Paper auch ausdrücklich selbst, und diskutieren ausführlich, ob und wie auch nicht gerade gehörte Sprache aus dem Gehirn rekonstruiert werden könnte. Das Wort „Gedanke“ (thought) kommt im gesamtem Paper kein einziges mal vor.

    In Zukunft also. Vielleicht. Aber nicht hier und heute. Kein Gedankenlesen. Doch was schreiben deutsche und internationale Medien?

    _

    _

    _

    _

    _

    Manchmal sind die Artikel schlicht falsch, manchmal haben die Autor:innen völlig korrekt abgeliefert aber Redakteur:innen offenbar den Inhalt des Textes ignoriert und eine Clickbait-Überschrift drübergetackert. Der Verantwortung der Medien wird ein solches Vorgehen jedenfalls nicht gerecht, insbesondere auch, weil der weitaus größte Teil der Leser:innen Überschriften und Schlagzeilen scannt, ohne tiefer hineinzulesen. Eine vernünftige gesellschaftliche Debatte um technischen Fortschritt und seine Folgen für die Gesellschaft wird so unmöglich.

    Dieser Artikel erschien ursprünglich bei cyborgs.cc


  • Wie aktuelle Digitalisierungsdebatten den Neoreaktionären zuarbeiten

    Jürgen „Tante“ Geuter hat in einem bemerkenswerten Blogpost „sechs Unwahrheiten über die digitale Sphäre“ aufgeschrieben, der Misskonzeptionen gerade rückt, denen ungefähr alle schon einmal aufgesessen sind, die sich an derlei Debatten beteiligen – mich eingeschlossen.

    Kurz zusammengefasst sind das:

    1. Technische Entscheidungssysteme (manchmal auch Algorithmen oder künstliche Intelligenz genannt) würden ethisch entscheiden, wenn man ihnen die Ethik nur korrekt einprogrammiert.
    2. Daten würden automatisch Wahrheit erzeugen, und wenn nicht, würden mehr Daten gebraucht.
    3. In 20 Jahren hätten wir eine künstliche Intelligenz vergleichbar mit dem menschlichen Gehirn.
    4. Diskriminierung durch Maschinen ist schlimmer als durch Menschen.
    5. Verträge und Gesetze würden sich sich ohne weiteres in Programmcode umsetzen lassen.
    6. Volle individuelle Autonomie ist der Inbegriff von Freiheit.

    Eines oder mehrere dieser Muster werden regelmäßig benutzt, etwa bei so genannter künstlicher Intelligenz (Punkte 1, 2 und 3), Blockchain-Anwendungen (Punkte 2, 5 und 6), in der Hacker- und Nerdkultur (Punkte 4 und 6) und Einsatz algorithmischer Systeme durch den Staat oder große Unternehmen und den Widerstand dagegen (Punkte 1, 2, 5, und 6).

    Über jeden einzelnen dieser Punkte ließe sich streiten und ganze Bücher verfassen, aber ich bin überzeugt, dass Jürgen weitgehend recht hat, auch wenn ich nicht so weit gehen würde, von „Falsehood“ zu sprechen, das immer auch die Konnotation von Lüge in sich trägt. Ich glaube durchaus, dass viele dieser Ansichten Misskonzeptionen sind, die manche Leute mit besten Intentionen pflegen. Oft haben sie den Charakter von Lebenslügen.

    Die Frage ist jedoch: Was bringt uns diese Erkenntnis – außer diese Argumente in Debatten künftig nicht mehr zu verwenden? Bemerkenswert ist, dass Jürgens sechs Punkte alle (nicht nur aber auch) einen gemeinsamen Fluchtpunkt haben: Die Ausübung von Macht mittels technologischer Systeme und die Verschleierung derselben.

    Betrachten wir die Punkte im einzelnen. Sie transportieren in etwa folgende Botschaft: Macht euch keine Sorgen, wenn wir Entscheidungsgewalt an Maschinen abgeben, dann wird das ethisch korrekt passieren, weil wir Ethik einprogrammiert haben werden (Punkt 1) genauso wie Gesetze und Verträge und deren strikte Einhaltung (Punkt 5). Fehlentscheidungen sind nicht möglich, weil Daten nicht Lügen können, und wenn es doch zu Fehlentscheidungen kommt, hatten wir noch nicht genug Daten (Punkt 2). Entscheidungen werden in 20 Jahren nicht mehr von Menschen getroffen werden, sondern von intelligenten Maschinen. Sie werden die Macht haben und das ist eine unausweichliche Entwicklung. (Punkt 3). Du findest das alles dystopisch und willst dabei nicht mitmachen? Dann bist du selber schuld, dass du [hier „bösen Internet-Konzern deiner Wahl einsetzen] mit Daten fütterst statt eigene Server zu pflegen und deine eigene Software zu programmieren (Punkt 6).

    In Punkt 4 steckt meiner Meinung nach der springende Punkt. Er beschreibt Angst davor, dass Maschinen Menschen diskriminieren könnten. Als ob ein rassistischer Richterspruch zu Bewährungsauflagen weniger ungerecht wäre, wenn er durch einen menschlichen Richter ausgesprochen wird als durch ein algorithmisches System oder das Opfer eines Verkehrsunfalls mit einem selbstlenkenden Fahrzeug irgendwie toter sei als bei einem Unfall mit einem menschlichen Fahrer. Punkt 4 verschleiert die bereits heute in unseren Systemen vorhandenen Biase und praktizierten Diskriminierungen.

    Anders gesagt: Die bereits heute bestehenden Biase und Diskriminierungen können fortgeschrieben werden, allerdings ohne dass es dann noch jemanden gibt, der die Verantwortung dafür trägt, ohne jedes demokratische Korrektiv. Denn die Maschine kann nicht falsch liegen, da ja Ethik, Gesetze und Verträge tadellos in sie hinein programmiert wurden und wenn es doch einen Fehler gab, lag es daran, dass es nicht genug Daten gab. Das ist ungemein praktisch, weil am Ende niemand Verantwortung trägt, spätestens mit Punkt 3 und der religiösen Überhöhung „künstlicher Intelligenz“ ins Gottgleiche bei den Singularitanern.

    Der Punkt ist nur: Es wird gar keine Macht an Maschinen übertragen sondern weiterhin von Menschen und ihren Organisationen ausgeübt. Sie betreiben all die algorithmischen Systeme. Sie haben die Systeme so programmiert und trainiert, dass sie Ergebnisse in ihrem Sinne liefern. Und sie werden sie ganz schnell abschalten, sollten sie Entscheidungen treffen, die nicht in ihrem Sinne sind.

    Perspektivisch weisen diese Narrative der Digitalisierung, auch wenn sie vielfach von gänzlich unverdächtigen Leuten und mit gegenteiliger Intention vertreten werden,  nahtlos in Richtung der Neoreaktionären, einer Bewegung, die Herrschaft durch eine neue (Tech-)Elite proklamiert und eine Art Techno-Feudalismus anstrebt bis hin zur Übernahme der Staatsgewalt durch Tech-Unternehmen. Gepaart mit dem religiösen Überbau des Transhumanismus und einem Human Enhancement, das nicht Inklusion, Vielfalt und Selbstverwirklichung dient sondern in seiner gegenwärtigen Form fast immer darauf abzielt, wie sie sich der relativ wohlhabende, weiße Mittelstand für eine komfortable Teilhabe an dieser technofeudalistischen Welt optimieren könne, bilden diese sechs Punkte das Narrativ einer Herrschaftsideologie.

    Es geht also letztlich nicht darum, ob Technik gut oder böse ist (sie ist sowieso da und allzu menschlich) und die Antwort steckt auch nicht darin, dass wir alle künftig als eine Art Cyber-Mad-Max unsere eigene Technik programmieren können müssen, sondern die Frage ist: Wie kriegen wir algorithmische Entscheidungssysteme demokratisiert?


  • Die im Dunkeln sieht man doch

    Langsam ist die Gesichtserkennung im Alltag angekommen. Facebook hat sein seit Jahren existierendes entsprechendes Feature auch für europäische Nutzer freigeschaltet. Das derzeit neueste iPhone wird nicht mehr durch Fingerabdruck entsperrt, sondern per Blick aufs Display. Bei den olympischen Spielen 2020 in Tokio soll ein entsprech­endes System benutzt werden, um Athleten, Presseleute und Mitarbeiter zu identifizieren, die bestimmte Bereiche betreten dürfen. Das Medienunternehmen Live Nation, zu dem auch der Dienstleister Ticketmaster gehört, kaufte das auf Gesichtserkennung spezialisierte Unternehmen Blink Identity, um Konzertbesucher künftig beim Einlass anhand ihres Gesichts zu kontrollieren, statt mit Hilfe eines vorgezeigten Tickets.

    Begehrlichkeiten weckt diese Technologie schon lange auch bei Ermittlungsbehörden zahlreicher Länder. So benutzte die US-Polizei nach dem Amoklauf in der Redaktion der Capital Gazette in Annapolis, Maryland, im Juni Gesichtserkennungssoftware, um den Todesschützen zu identifizieren. Das FBI soll Fotos von 117 Millionen US-Ame­rikanern gespeichert haben.

    Weiterlesen in der Jungle World


  • Warum eine Kirche zur Anbetung künstlicher Intelligenz eine super Idee ist

    Am Ende erwacht das ganze Universum zu einem erleuchteten Wesen, durchdrungen von Intelligenz. So steht es in Ray Kurzweils Buch „Menscheit 2.0“ von 2005 (Untertitel „Die Singularität ist nah“). Was Kurzweil, Chefentwickler bei Google, als das unausweichliche Schicksal des Universums sieht, ist der Endpunkt einer explosionsartigen Entwicklung, die wir gerade mit unseren Computern und der Entwicklung künstlicher Intelligenz in Gang setzen.

    Anbeten lässt sich diese neue Gottheit schon heute. Dafür hat Anthony Levandowski eine neue Kirche gegründet. Levandowski ist kein Unbekannter: Unter anderem leitete er bei der Google-Tochter Waymo die Entwicklung autonomer Fahrzeuge. Wahrscheinlich denkt er schon lange darüber nach, wohin sich künstliche Intelligenz wohl entwickeln mag. Jedenfalls meldete er bereits vor mehr als zwei Jahren „Way of the Future“ als Non-Profit-Unternehmen zum Aufbau von Religionsgemeinschaft in Kalifornien an. Das Ziel: Eine künstliche Intelligenz erschaffen, diese dann als Gottheit anbeten und für Akzeptanz werben.

    Weiterlesen bei t3n.


  • Kirche will Künstliche Intelligenz als Gott verehren

    „Way of the Future“ heißt eine neue Kirche, in der eine künstliche Intelligenz (KI) die Gottheit sein soll. Ihr Gründer Anthony Levandowski entwickelte unter anderem bei Google selbstlenkende Autos, kennt sich also mit künstlicher Intelligenz aus. Er ist davon überzeugt, dass sich schon in naher Zukunft eine solche KI so weit entwickeln wird, dass sie als gottgleich anzusehen ist. Das zentrale Nervensystem dieser neuen Gottheit wird das Internet, als Sinnesorgane dienen die Sensoren und Smartphones dieser Welt. Dieser Gott hört den Menschen immer zu. Das sind in etwa die Kernaussagen der Kirche „Way of the Future“.

    Weiterlesen/hören bei Deutschlandfunk Kultur