•••BLÖÖK
14.1.2018


Facebook ist
die Regierung

Zuckerberg: "Wir sind mehr eine Regierung als ein gewöhnliches Unternehmen. Wir haben eine große Masse von Leuten, denen wir sagen, wo es langgeht." Die großen Tech-Firmen brauchen keine Regierungen, die nach freiem Willen der Leute gewählt wurden und die in deren Auftrag handeln. Sie scannen Bücher, nicht um die Intelligenz von Menschen zu steigern, sondern um die Intelligenz ihrer Maschinen zu trainieren. Mit der Macht "allgemein gültiger Antworten", die sie sich auf diese Weise angeeignet haben, höhlen Digitale Konzerne das Geistesleben aus, kritisches Denken, Bildung, Wissenschaft, Religion, Kultur. Und sie stellen damit die Aufklärung infrage, den Willen zur Vernunftorientierung des Menschen in der Gesellschaft.

###

Exzerpt des Artikels:
Digitales Geistesleben Vorgekautes Denken
Die Macht der allgemeingültigen Antworten: Wie digitale Konzerne das Geistesleben der Gegenwart aushöhlen und
das Zeitalter der Aufklärung infrage stellen.
Süddeutsche Zeitung, 7. Januar 2018
VON ADRIAN LOBE


Der Informatiker, David Clark, versprach (sich?) schon 1992, das Internet werde Staaten ohne Könige, Präsidenten und ohne Wahlen bringen. Die Ordnung des Gemeinwesens werde nicht mehr von Institutionen (Behörden, Gerichten, Schulen...), sondern durch Programmcodes informatisierter Prozesse (Computerprogramme) erstellt und kontrolliert. Er hoffte, das Internet werde zu weiteren politischen und geistigen Freiheiten führen, der Menschheit zu einem größeren interkulturellen Verständnisses verhelfen, Bildung für alle zugänglich machen und eine weltweite Demokratisierung bewirken.

Der Executive Chairman der Google-Holding Alphabet, Eric Schmidt, und Jared Cohen, ein Politologe aus dem US-Außenministerium, versprachen (sich?) in ihrem Buch "Die Vernetzung der Welt" noch 2013: Die Datenrevolution werde Staaten in eine neue Rechenschaftspflicht zwingen und "eine neue Ära des kritischen Denkens einläuten".

Nach mehr als einem Vierteljahrhundert ist keine dieser wohlklingend hochtrabenden Erwartungen auch nur in Ansätzen wahr geworden. Dafür ist eher Folgendes zu befürchten:

Wenn politische Wert-Entscheidungen durch Algorithmen getroffen werden, dann werden wir von den Firmenbossen regiert, die ihre Angestellten beauftragt haben, genau diese mathematischen Anweisungen zu programmieren. Wir leben dann in einer Algorithmokratie (Algokratie), in der sich die Herrscher über diese unkontrollierten Computerprogramme immer mehr Reichtum und immer mehr unautorisierte politische Macht aneignen.

Der Journalist Franklin Foer*) kritisiert,

*) Redakteur bei der US-Zeitschrift The Atlantic, kritisiert in seinem gerade erschienenen Buch "World Without Mind: The Existential Threat of Big Tech" („Welt ohne Geist: Die existenzielle Bedrohung durch große Technologien“, auf Englisch bei Penguin Press)

dass die voranschreitende Informationstechnologie zu einer Homogenisierung (Verschwinden lokaler Unterschiede und Einzigartigkeiten; Massenkonsum, Faast tu gou Fraß...) und Automatisierung (genormte, immer gleiche Quellen) des sozialen, politischen und intellektuellen Lebens führe. Globale Tech-Konzerne zertrampeln liberale Traditionen des Rechtsstaats wie die Privatsphäre oder geistiges Eigentum. Foer: "Unsere intellektuellen Gewohnheiten werden von den dominanten Firmen verrührt. So wie Nabisco und Kraft ändern wollten, wie wir essen und was wir essen, wollen uns Google, Amazon und Facebook vorschreiben, wie wir lesen und was wir lesen."

Die Tech-Konzerne sind für Foer "monopolists of mind", Monopolisten geistiger Inhalte, die diese in eigener Vollkommenheit als Herrschafts-Wissen ausgewählt und unter sich aufgeteilt haben. Mit Hilfe der Algorithmen ihrer Programmierer lassen sie dieses Wissen in kleinste Portionen zerlegen, um damit ihre Konsumenten/Juuser, in Form bequem konsumierbarer Tütensuppen neu verpackt, wie mit beliebig vorgefertigter Industrieware, zu entmündigen. Ist es doch das Ziel dieser Rechenanweisungen, „den Menschen“ aus Erkenntnisprozessen zu entfernen. „Das Denken“ soll automatisiert und von den Tech-Firmen übernommen werden (Wer kann das schließlich auch besser, als ebenso geld- wie geltungsgeile Peri-Pubertäre, die unbeherrschte Intelligenzquotienten Spazieren führen?!). Komplizierte Entscheidungen sollen nicht von den Konsumenten getroffen, hitzige Debatten sollen vermieden werden. (zu welchem und wessen Nutzen?)

Klammheimlich haben sich in den letzten Jahren algorithmische Entscheidungssysteme in unseren Alltag geschlichen, die als zentrale Steuerungsinstanzen fungieren. Sie entscheiden autoritativ (unkontrolliert  und eigenmächtig), ob wir bei der Bank einen Kredit bekommen und welche Informationen wir sehen. Die technischen Systeme entscheiden über ureigenste Rechte des Menschen - obwohl sie dazu nicht im Geringsten legitimiert sind.

Der Stanford-Soziologe A. Aneesh prägte den Begriff der "Algokratie" (Algorithmokratie ist weniger mit Algen zu verwechseln - zurück), eine Herrschaftsform, bei der Programmcodes eine politische Steuerung implementieren (Computerprogramme bewirken die Durchführung ihrer eigenen Vorschriften und Bestimmungen, wie Anweisungen und Gesetze des Parlaments durch eine Behörde ...). Durch die Abtretung von Wertentscheidungen an soziotechnische Systeme (etwa in der Frage, was unter Terrorismus zu verstehen ist, oder wo „die Grenzen“ der Meinungsfreiheit liegen) eignen sich Konzerne wie Google oder Facebook (zunehmend!) politische Macht an. Mit jeder Modifikation des Newsfeed-Algorithmus (jedem Juuser ungefragt und unaufgefordert präsentierte „Nachrichten“, mehr  oder weniger überprüfte „Informationen“ oder Meinungen) wird Herrschaft ausgeübt. Facebook-Chef Mark Zuckerberg gibt zu: "In vielerlei Hinsicht ist Facebook mehr eine Regierung als ein traditionelles Unternehmen. Wir haben eine große Community („Gemein“schaft) von Leuten, und mehr als jedes andere Technologieunternehmen legen wir die Policies (Regeln, Verhaltensvorschriften, Beurteilungsmuster...) fest." (???)

Der Angriff auf die „offene Gesellschaft“ besteht nicht allein darin, dass die große Masse aus politischen Entscheidungsprozessen ausgeschlossen wird, sondern, dass das Geschäftsmodell des Silicon Valley das Erbe der Aufklärung aufs Spiel setzt: Das vernunftgeleitete, für jeden nachvollziehbare Überprüfen und Hinterfragen von Quellen. Die algorithmischen Prozeduren, die unter Ausschluss der Öffentlichkeit stattfinden, sind eine Rückkehr zu jenen Praktiken, wie sie bereits in der mittelalterlichen Geistlichkeit verbreitet waren und leisten einer Refeudalisierung (Adelsherrschaft...) der Gesellschaft Vorschub.

Der Nutzer/Juuser, hat praktisch keine andere Wahl, als den Lehnsherren von Google, Facebook und Co. beim Betreten ihrer Territorien seine Daten zur Verfügung zu stellen. Algorithmen sind die neuen Autoritäten im Dataismus - Türhüter zum Wissen. Wie die Kirche im Mittelalter legen Tech-Konzerne heute das datenzentrische Weltbild fest, das in seiner Theorie zahlreiche blinde Flecken aufweist.

Der amerikanische Philosoph Michael Patrick Lynch beschreibt in seinem Buch "The Internet of Us: Knowing More and Understanding Less in the Age of Big Data" (mehr „wissen“ und weniger verstehen), wie wir Fakten durch eine Google-Suche kaum noch entdecken, sondern nur noch down- und uploaden. Es ist ein rein mechanischer und kein reflexiver (nachdenkender) Prozess mehr. Was uns Google als Faktum präsentiert, ist womöglich keines, doch die Nutzer haben die Funktion Suchmaschine bereits dermaßen verinnerlicht, dass sie Wissen und Googeln gleichsetzen. Google suggeriert eine Evidenz (Überzeugungskraft), die es in Wahrheit nicht hat. "Google-Knowing" nennt Lynch dieses Halbwissen, bei dem Nutzer Informationen nicht mehr auf ihre Herkunft überprüfen, sondern Suchmaschinentreffer für bare Münze nehmen. Der Konzern hat damit dem postfaktischen Zeitgeist den Boden bereitet.

Das Problem ist, dass die Undurchsichtigkeit algorithmischer Prozeduren einer der Grundvoraussetzungen für das Funktionieren der Informationsökonomie (das Geschäft mit Information Profit zu machen) ist. Google beruft sich auf die Schutzbehauptung, dass bei einer Offenlegung seines Algorithmus Spammer ihre Splitter in die oberen Suchränge platzieren könnten und die informationelle Architektur kollabieren würde. Es ist ein systemimmanenter Widerspruch, bei dem niemand weiß, wie er aufzulösen wäre. Oder, um mit dem Staatsrechtler Ernst-Wolfgang Böckenförde zu sprechen: Die Netzgesellschaft lebt von Voraussetzungen, die sie selbst nicht schaffen kann.

Bezeichnend ist der Satz, den der US-Wissenschafts-Historiker George Dyson, Autor des Buchs "Turings Kathedrale", bei einer Rede im Google-Hauptquartier formulierte: "Wir scannen nicht all die Bücher, damit sie von Menschen gelesen werden. Wir scannen die Bücher, damit sie von künstlicher Intelligenz gelesen werden."

Das heißt im Klartext: Der Wissenskanon, den die Tech-Giganten unter anderem durch die urheberrechtlich bedenkliche Digitalisierung von Büchern monopolisiert haben, ist nicht mehr ein kultureller Wert an sich, ein Bildungsgut, das man den Menschen angedeihen lässt, sondern lediglich ein Pool an Trainingsdaten für Maschinen.

Google-Entwickler Ray Kurzweil formulierte einen (Alb?)Traum:
"Man muss gar keine Fragen mehr stellen"

Darin lässt sich auch eine normative Setzung ablesen: Nicht menschliche, sondern künstliche Intelligenz soll intelligenter werden. Das ist der Glaubenssatz, dem sich alle Technologiekonzerne verschrieben haben. Suchanfragen, Sprachkommandos, unsere Sprachkultur - sie sind nur das Futter einer Datenmaschinerie.

Der langjährige Google-Chef Eric Schmidt formulierte 2005 das Ziel, für jede Suchanfrage nur noch einen Treffer anzuzeigen. "Wir sollten in der Lage sein, sofort die richtige Antwort zu geben. Wir sollten wissen, was jemand meint." Hinter dem kognitiven Kapitalismus, der Gedanken und Gefühle zu Geld macht, scheint die Dystopie (Utopie mit negativem Ausgang) einer Gedankenpolizei auf.

Google-Chefentwickler Ray Kurzweil entwarf die Utopie einer Suchmaschine, die wie ein "kybernetischer Freund" und Helfer operiere. "Ich strebe an, dass in ein paar Jahren die Mehrheit der Suchanfragen beantwortet werden können, ohne dass man danach fragt", sagte er. Man muss gar nicht mehr fragen, und man soll auch keine kritischen Fragen stellen ("Don't be evil") - die Daten sind aussagekräftig genug.

Die Automatisierung des Denkens, die zwischen jeder Programmierzeile zu lesen ist, ist nicht nur ein antiaufklärerisches Vorhaben, sondern auch ein Einfallstor für Autoritarismus (diktatorische Herrschaftsform zwischen Demokratie und Diktatur). Wo Antworten schon a priori feststehen, ist man von absoluten Wahrheiten nicht weit entfernt. Wenn Schmidt behauptet, Mehrfachantworten seien ein "Bug", also ein Fehler im System, ist das eine Absage an jede Form von Meinungspluralismus.

Im Google-Land besitzt nur eine Antwort Gültigkeit

Es bleibt die Frage, ob der neue Autoritarismus auf der Welt durch Algorithmen, die im Kern ein autoritärer Modus sind, verstärkt wird.

Fakt ist aber, dass die antipolitischen Unterströme aus dem Silicon Valley und die Aushöhlung des kritischen, reflektierenden Denkens autoritären Bewegungen in die Hände spielen.

nach oben

###

zu ...BLÖÖK

Titelseite, ganz oben


zurück zu ekdamerow