Blog

  • Wie aktuelle Digitalisierungsdebatten den Neoreaktionären zuarbeiten

    Jürgen „Tante“ Geuter hat in einem bemerkenswerten Blogpost „sechs Unwahrheiten über die digitale Sphäre“ aufgeschrieben, der Misskonzeptionen gerade rückt, denen ungefähr alle schon einmal aufgesessen sind, die sich an derlei Debatten beteiligen – mich eingeschlossen.

    Kurz zusammengefasst sind das:

    1. Technische Entscheidungssysteme (manchmal auch Algorithmen oder künstliche Intelligenz genannt) würden ethisch entscheiden, wenn man ihnen die Ethik nur korrekt einprogrammiert.
    2. Daten würden automatisch Wahrheit erzeugen, und wenn nicht, würden mehr Daten gebraucht.
    3. In 20 Jahren hätten wir eine künstliche Intelligenz vergleichbar mit dem menschlichen Gehirn.
    4. Diskriminierung durch Maschinen ist schlimmer als durch Menschen.
    5. Verträge und Gesetze würden sich sich ohne weiteres in Programmcode umsetzen lassen.
    6. Volle individuelle Autonomie ist der Inbegriff von Freiheit.

    Eines oder mehrere dieser Muster werden regelmäßig benutzt, etwa bei so genannter künstlicher Intelligenz (Punkte 1, 2 und 3), Blockchain-Anwendungen (Punkte 2, 5 und 6), in der Hacker- und Nerdkultur (Punkte 4 und 6) und Einsatz algorithmischer Systeme durch den Staat oder große Unternehmen und den Widerstand dagegen (Punkte 1, 2, 5, und 6).

    Über jeden einzelnen dieser Punkte ließe sich streiten und ganze Bücher verfassen, aber ich bin überzeugt, dass Jürgen weitgehend recht hat, auch wenn ich nicht so weit gehen würde, von „Falsehood“ zu sprechen, das immer auch die Konnotation von Lüge in sich trägt. Ich glaube durchaus, dass viele dieser Ansichten Misskonzeptionen sind, die manche Leute mit besten Intentionen pflegen. Oft haben sie den Charakter von Lebenslügen.

    Die Frage ist jedoch: Was bringt uns diese Erkenntnis – außer diese Argumente in Debatten künftig nicht mehr zu verwenden? Bemerkenswert ist, dass Jürgens sechs Punkte alle (nicht nur aber auch) einen gemeinsamen Fluchtpunkt haben: Die Ausübung von Macht mittels technologischer Systeme und die Verschleierung derselben.

    Betrachten wir die Punkte im einzelnen. Sie transportieren in etwa folgende Botschaft: Macht euch keine Sorgen, wenn wir Entscheidungsgewalt an Maschinen abgeben, dann wird das ethisch korrekt passieren, weil wir Ethik einprogrammiert haben werden (Punkt 1) genauso wie Gesetze und Verträge und deren strikte Einhaltung (Punkt 5). Fehlentscheidungen sind nicht möglich, weil Daten nicht Lügen können, und wenn es doch zu Fehlentscheidungen kommt, hatten wir noch nicht genug Daten (Punkt 2). Entscheidungen werden in 20 Jahren nicht mehr von Menschen getroffen werden, sondern von intelligenten Maschinen. Sie werden die Macht haben und das ist eine unausweichliche Entwicklung. (Punkt 3). Du findest das alles dystopisch und willst dabei nicht mitmachen? Dann bist du selber schuld, dass du [hier „bösen Internet-Konzern deiner Wahl einsetzen] mit Daten fütterst statt eigene Server zu pflegen und deine eigene Software zu programmieren (Punkt 6).

    In Punkt 4 steckt meiner Meinung nach der springende Punkt. Er beschreibt Angst davor, dass Maschinen Menschen diskriminieren könnten. Als ob ein rassistischer Richterspruch zu Bewährungsauflagen weniger ungerecht wäre, wenn er durch einen menschlichen Richter ausgesprochen wird als durch ein algorithmisches System oder das Opfer eines Verkehrsunfalls mit einem selbstlenkenden Fahrzeug irgendwie toter sei als bei einem Unfall mit einem menschlichen Fahrer. Punkt 4 verschleiert die bereits heute in unseren Systemen vorhandenen Biase und praktizierten Diskriminierungen.

    Anders gesagt: Die bereits heute bestehenden Biase und Diskriminierungen können fortgeschrieben werden, allerdings ohne dass es dann noch jemanden gibt, der die Verantwortung dafür trägt, ohne jedes demokratische Korrektiv. Denn die Maschine kann nicht falsch liegen, da ja Ethik, Gesetze und Verträge tadellos in sie hinein programmiert wurden und wenn es doch einen Fehler gab, lag es daran, dass es nicht genug Daten gab. Das ist ungemein praktisch, weil am Ende niemand Verantwortung trägt, spätestens mit Punkt 3 und der religiösen Überhöhung „künstlicher Intelligenz“ ins Gottgleiche bei den Singularitanern.

    Der Punkt ist nur: Es wird gar keine Macht an Maschinen übertragen sondern weiterhin von Menschen und ihren Organisationen ausgeübt. Sie betreiben all die algorithmischen Systeme. Sie haben die Systeme so programmiert und trainiert, dass sie Ergebnisse in ihrem Sinne liefern. Und sie werden sie ganz schnell abschalten, sollten sie Entscheidungen treffen, die nicht in ihrem Sinne sind.

    Perspektivisch weisen diese Narrative der Digitalisierung, auch wenn sie vielfach von gänzlich unverdächtigen Leuten und mit gegenteiliger Intention vertreten werden,  nahtlos in Richtung der Neoreaktionären, einer Bewegung, die Herrschaft durch eine neue (Tech-)Elite proklamiert und eine Art Techno-Feudalismus anstrebt bis hin zur Übernahme der Staatsgewalt durch Tech-Unternehmen. Gepaart mit dem religiösen Überbau des Transhumanismus und einem Human Enhancement, das nicht Inklusion, Vielfalt und Selbstverwirklichung dient sondern in seiner gegenwärtigen Form fast immer darauf abzielt, wie sie sich der relativ wohlhabende, weiße Mittelstand für eine komfortable Teilhabe an dieser technofeudalistischen Welt optimieren könne, bilden diese sechs Punkte das Narrativ einer Herrschaftsideologie.

    Es geht also letztlich nicht darum, ob Technik gut oder böse ist (sie ist sowieso da und allzu menschlich) und die Antwort steckt auch nicht darin, dass wir alle künftig als eine Art Cyber-Mad-Max unsere eigene Technik programmieren können müssen, sondern die Frage ist: Wie kriegen wir algorithmische Entscheidungssysteme demokratisiert?

  • Hassobjekt Sprachnachrichten

    Wisst ihr noch? Als in den frühen 90er Jahren die Nase gerümpft wurde über Leute, die ein Mobiltelefon besaßen? Wie sie als Wichtigtuer galten und mobiles Telefonieren zu eher unfreundlichen wie witzlosen Rückschlüssen auf die Penisgröße führte? Und wie dann fast über Nacht alle ein Handy hatten, als sie einfach erschwinglich genug wurden? Das ist ein Schema, das sich regelmäßig wiederholt. Telefonate? Viel zu unpersönlich. Internet? Da sind doch nur pickelige Kellerkinder unterwegs. Blogs? Sind die Klowände des Internet. Twitter? Auch Klowände, aber (damals) mit nur 140 Zeichen. Youtube? Schminkvideos. Facebook? Sind doch gar keine richtigen Freundschaften.

    Es ist das ewig gleiche Spiel, vor dem keine technische Neuerung sicher ist. Derzeit befinden wir uns auf dem Peak der Smartphone-Kritik. Das Feuilleton empfiehlt Digital Detox und die ressentimentvollen Bücher eines Manfred Spitzer verkaufen sich wie geschnitten Brot. Doch jetzt, wo selbst in jeder Seniorenresidenz per Whatsapp gechattet wird, taucht ein neuer Star am Horizont der Technikfeindlichkeit auf: das Jammern über Sprachnachrichten.

    Weiterlesen bei t3n

  • Sprachassistenten unhörbare Botschaften unterjubeln

    Sprachassistenen lassen sich relativ einfach mit für Menschen unhörbaren Botschaften austricksen. Aber bedeutet der Hack eines Forscherteams an der Ruhr-Universität Bochum, dass bald Sprachassistenten verrückt spielen oder unbrauchbar werden? Zeit, sich den Stand der Dinge der Chancen und Gefahren von Alexa, Cortana, Siri & Co. anzusehen.

    Anhören bei Deutschlandfunk Kultur

  • Automatisches Exzerpieren

    Das ist die wohl unsexieste Überschrift für einen Blogpost aller Zeiten. Wer ernsthaft Literatur durcharbeitet, ist eigentlich ständig damit beschäftigt, Exzerpte zu schreiben, also beim Lesen einen Stapel Papier daneben zu legen und Zitate/Notizen mit Seitenzahl draufzuschreiben. Das geht natürlich auch wunderbar am Computer mit Copy&Paste. Und natürlich gibt es zu diesem Zweck die großen Literaturverwaltungen wie Citavi, Mendeley & Co. Einige von ihnen arbeiten sogar cloudbasiert, wenn auch die meisten noch klassische Programme sind, meistens für Windows. Für Mac-User wird da die Luft schon dünn. Für solche, die auch noch ein iPhone und ein iPad benutzen und ihre Exzerpte automatisch synchron halten wollen, wird die Luft noch dünner. Soweit ich sehen konnte, bieten die bekannten Literaturverwaltungen aber alle eines nicht: Eine ergonomische Reader-App mit automatischem Exzerpieren.

    Ich lese ein PDF oder ein ePub in einer Reader-App auf dem Tablet, Telefon oder am PC. Interessante Stellen markiere ich und versehe sie direkt in der Reader-App mit einem Kommentar. Im Hintergrund legt die Reader-App automatisch für jedes gelesene Buch ein Dokument an, in dem alle markierten Zitate und Notizen nebst bibliografischen Angaben des betreffenden Buches völlig automatisch gesammelt werden, ohne dass ich mich noch um etwas kümmern muss. Wer schonmal nachts im Bett beim Lesen auf dem Telefon oder offline im Flugzeug oder ICE beim Lesen auf dem Tablet über wichtige Textstellen gestolpert ist, weiß was ich meine.

    Es scheint genau einen Dienst zu geben, der das beherrscht: Google Play Books. (Hier steht, wie’s geht.) Der Google-Dienst hat eine Reihe von Vorteilen. Ich kann eigene ePubs hochladen und bin nicht auf das Google-eigene Angebot beschränkt. Die Arbeit ist fast vollkommen plattformunabhängig. Ich kann nahtlos zwischen Tablets, Telefonen und Computern wechseln. Es gibt Reader-Apps für Android und iOS und unter Windows/Linux/macOS kann ich im Browser arbeiten. Ich lande überall an der zuletzt gelesenen Stelle. Alle Exzerpte landen als Doc im Google Drive. Nur für PDFs ist Google Play Books noch kaum brauchbar, weil vielen PDFs die Meta-Angaben mit den bibliografischen Daten fehlen – von gescannten PDFs, wie sie typischerweise in Semesterapparaten vorliegen, ganz zu schweigen. Deshalb benutze ich Google Play Books nur für Bücher, die mir im Volltext als ePub vorliegen.

    Was ich mich jetzt frage ist: Warum gibt es das in dieser Form nur von Google? In Apple Books kann ich auch cloudbasiert synchronisiert lesen, markieren und kommentieren, aber nicht automatisch exzerpieren. Jedenfalls konnte ich die Funktion nicht finden. Amazon Kindle scheint das zu können. Als ich das letzte mal geguckt habe, landeten allerdings alle Textstellen in einer Datei namens clipping.txt, die aufwändig weiter bearbeitet werden muss. Und wenn ich die Wahl zwischen Amazon und Google habe, kann ich auch gleich bei Google bleiben.

    Mittlerweile gibt es dafür sogar einen offiziellen Standard namens Annotation, der hochgradig unterstützenswert aber noch noch nirgends für Endnutzer brauchbar implementiert zu sein scheint. Für Nextcloud gibt es einen Workflow für Notizen in GoodNotes. Das ist sehr interessant eben noch kein (automatisches) Exzerpieren wie oben beschrieben. Und die großen Literaturverwaltungen: Citavi kann Cloud hat aber keine Anbindung zu einem Reader und ist auf Windows beschränkt. Es ist stark beim Bilbiografieren, aber das Exzerpieren muss anderweitig stattfinden. Mendeley kann das hingegen und Cloud und und zig Plattformen, scheint aber offline nur sehr eingeschränkt nutzbar zu sein und nur mit Papers im PDF-Format aber nicht mit Bücher im ePub-Format umgehen zu können. Bei allen anderen sieht’s ähnlich aus, jedenfalls soweit ich sehen konnte.

    Im Moment werde ich für Bücher weiterhin Google in Kombination mit Calibre zum Konvertieren benutzen. Beim Umgang mit Papers und beim Bibliografieren habe ich noch immer händisches Chaos. Hatte früher mal Citavi, die mich aber als Nicht-Windows-Nutzer offenbar nicht wollen. Ich tendiere dazu, als nächstes mit Mendeley zu experimentieren und werde schauen, wie gut/schlecht sich das mit Google kombinieren lässt. Dass Google das mit Play Books als einziger Anbieter elegant und ohne lange Einarbeitung nutzbar hinbekommt, will mir aber nicht recht in den Kopf. Gibt es da wirklich nichts anderes? Was habe ich übersehen?

  • Ein düsterer Vorgeschmack auf die Upload-Filter der EU-Urheberrechtsreform

    Konservative Politiker rollen ja gerne mit den Augen, wenn das Wort „Upload-Filter“ fällt, denn davon stünde schließlich nichts im Gesetzesentwurf, der am 12. September im EU-Parlament verabschiedet wurde. Nach Artikel 13 werden alle größeren Internetplattformen in Zukunft dafür haften müssen, wenn ihre Nutzer urheberrechtlich geschütztes Material veröffentlichen. Anbieter, auf deren Websites sich täglich Tausende oder gar Millionen von Nutzern befinden, können dem Gesetz eigentlich nur dadurch genügen, dass sie Upload-Filter einrichten.

    Solche Filter gibt es schon seit längerer Zeit, etwa das von Youtube bekannte Content ID. Jedes hochgeladene Video wird per digitalem Fingerabdruck mit einer Datenbank abgeglichen und gesperrt, sobald es geschütztes Material zu enthalten scheint. Dabei geht schon lange allerlei schief. So wurde diesen Sommer erst der Youtuber Paul Davids gesperrt, obwohl es sein eigenes Material war, das er hochgeladen hatte. Content ID betrifft nur Videos und Musik auf Youtube, die Urheberrechtsreform allerdings auch Bilder, Text, Programmcode und alles, was sich urheberrechtlich schützen lässt.

    Kürzlich durfte ich einen kleinen Vorgeschmack davon erleben, wie sich ein Internet anfühlen könnte, in dem Upload-Filter allgegenwärtig sind.

    Weiterlesen bei t3n

  • Büro-Cyborgs: Warum implantierte RFID-Chips langweilig sind

    Implantierte RFID-Chips kennt man seit Jahrzehnten aus der Tierarzt-Praxis. Haustiere werden gechipt, um sie später per Lesegerät identifizieren zu können. Seit einiger Zeit implantieren sich auch Menschen solche Chips – zumeist in die Haut zwischen Daumen und Zeigefinger. Auch hier geht es um Identifikation: Die Chips werden benutzt, um Smartphones zu entsperren, Gebäude mit passender Schließanlage zu betreten und an Snackautomaten zu bezahlen.

    Weiterlesen bei t3n

  • Warum das Urteil des OLG München zur Meinungsfreiheit auf Facebook kein Gamechanger ist

    Die Geschichte wirkt recht übersichtlich: Eine AfD-Politikerin postet im Rahmen eines hitzigen Streites um Grenzkontrollen in Österreich eine ätzende Erwiderung. Facebook löscht diesen Post und sperrt die Politikerin für 30 Tage. Die Nutzerin wehrt sich und bekommt überraschenderweise in zweiter Instanz vor dem OLG München recht.

    So oder so ähnlich ist die Geschichte in zahlreichen Medien zu lesen gewesen und löste Diskussionen darüber aus, ob die Meinungsfreiheit nun schwerer wiege als die Community-Standards von Facebook. Manche freuten sich, dass die Meinungsfreiheit auch auf einer privaten und kommerziellen Plattform wie Facebook gelte. Andere warfen ein, dass sich Hatespeech künftig viel schwerer bekämpfen ließe, wenn Plattformen alles stehen lassen müssen, was von der Meinungsfreiheit gedeckt ist. Und Startups fragen sich, ab wann denn eine Plattform groß genug sei, damit die Meinungsfreiheit schwerer wiege als das virtuelle Hausrecht und in welchem Umfang andere Plattformen unliebsame Nutzer bei sich dulden müssen. Doch darum geht es eigentlich gar nicht, wie ein Blick in die einstweilige Verfügung zeigt.

    Weiterlesen bei t3n

  • Das Umfrage-Tool der „Aufstehen“-Bewegung ist eine Einladung für Botnetzwerke

    Prinzipiell ist es eine gute Idee: Regierungen, Parteien oder politische Bewegungen schaffen Plattformen, auf denen Jedermann sich in den den politischen Diskurs einbringen soll. Idealerweise im Internet, denn das gibt auch denjenigen die Chance auf Teilnahme, die aus beruflichen oder privaten Gründen keine Zeit haben, Stammtische und Veranstaltungen zu besuchen.

    Anläufe dazu gab es viele, vom virtuellen Ortsverein der SPD bis zur Liquid Democracy in der Piratenpartei. Viele Projekte scheiterten, aber gerade erst führte eine von der EU-Kommission durchgeführte Umfrage dazu, dass voraussichtlich die Zeitumstellung abgeschafft wird. Unabhängig vom politischen Inhalt wurde nicht weiter hinterfragt, wie wertvoll ein Abstimmungsergebnis ist, wenn rund 80 Prozent der Teilnehmer aus Deutschland stammen, obwohl nur etwa 16 Prozent der EU-Mitglieder Deutsche sind.

    Weiterlesen bei t3n

  • Gilt auch für Unternehmen: Haltung zeigen gegen Rechts

    Wenn es darum geht, sich dem Rechtsradikalismus entgegenzustellen, reicht es nicht, sich privat zu engagieren. Auch Unternehmen können und müssen Gesicht zeigen.

    Am 1. September kippte etwas. An dem Tag fand in Chemnitz ein sogenannter „Trauermarsch“ statt, doch von Trauer und Andenken an den eine Woche zuvor am gleichen Ort erstochenen Daniel H. blieb nicht viel übrig. Zu den Alt-Nazis, Pegida und den anderen rechtsradikalen Gruppen gesellte sich die von Wahlerfolg zu Wahlerfolg eilende AfD, die lange Zeit noch euphemistisch „rechtspopulistisch“ genannt wurde.

    Weiterlesen bei t3n

  • Die im Dunkeln sieht man doch

    Langsam ist die Gesichtserkennung im Alltag angekommen. Facebook hat sein seit Jahren existierendes entsprechendes Feature auch für europäische Nutzer freigeschaltet. Das derzeit neueste iPhone wird nicht mehr durch Fingerabdruck entsperrt, sondern per Blick aufs Display. Bei den olympischen Spielen 2020 in Tokio soll ein entsprech­endes System benutzt werden, um Athleten, Presseleute und Mitarbeiter zu identifizieren, die bestimmte Bereiche betreten dürfen. Das Medienunternehmen Live Nation, zu dem auch der Dienstleister Ticketmaster gehört, kaufte das auf Gesichtserkennung spezialisierte Unternehmen Blink Identity, um Konzertbesucher künftig beim Einlass anhand ihres Gesichts zu kontrollieren, statt mit Hilfe eines vorgezeigten Tickets.

    Begehrlichkeiten weckt diese Technologie schon lange auch bei Ermittlungsbehörden zahlreicher Länder. So benutzte die US-Polizei nach dem Amoklauf in der Redaktion der Capital Gazette in Annapolis, Maryland, im Juni Gesichtserkennungssoftware, um den Todesschützen zu identifizieren. Das FBI soll Fotos von 117 Millionen US-Ame­rikanern gespeichert haben.

    Weiterlesen in der Jungle World