image

Thomas Christian Bächle

Digitales Wissen, Daten und Überwachung zur Einführung

image

Wissenschaftlicher Beirat

Michael Hagner, Zürich

Ina Kerner, Berlin

Dieter Thomä, St. Gallen

Junius Verlag GmbH

Stresemannstraße 375

22761 Hamburg

www.junius-verlag.de

© 2016 by Junius Verlag GmbH

Alle Rechte vorbehalten

Covergestaltung: Florian Zietz

Titelbild: Ramon Llull, ~ 1305

»secunda figura«, reproduziert aus:

Ars generalis et ultima (Lyon 1517).

E-Book-Ausgabe September 2019

ISBN 978-3-96060-099-2

Basierend auf Printausgabe

ISBN 978-3-88506-767-2

1. Auflage 2016

Bibliografische Information der Deutschen Nationalbibliothek

Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.dnb.de abrufbar.

Zur Einführung …

hat diese Taschenbuchreihe seit ihrer Gründung 1977 gedient. Zunächst als sozialistische Initiative gestartet, die philosophisches Wissen allgemein zugänglich machen und so den Marsch durch die Institutionen theoretisch ausrüsten sollte, wurden die Bände in den achtziger Jahren zu einem verlässlichen Leitfaden durch das Labyrinth der neuen Unübersichtlichkeit. Mit der Kombination von Wissensvermittlung und kritischer Analyse haben die Junius-Bände stilbildend gewirkt.

Seit den neunziger Jahren reformierten sich Teile der Geisteswissenschaften als Kulturwissenschaften und brachten neue Fächer und Schwerpunkte wie Medienwissenschaften, Wissenschaftsgeschichte oder Bildwissenschaften hervor. Auch im Verhältnis zu den Naturwissenschaften sahen sich die traditionellen Kernfächer der Geisteswissenschaften neuen Herausforderungen ausgesetzt. Diesen Veränderungen trug eine Neuausrichtung der Junius-Reihe Rechnung, die seit 2003 von der verstorbenen Cornelia Vismann und zwei der Unterzeichnenden (M.H. und D.T.) verantwortet wurde.

Ein Jahrzehnt später erweisen sich die Kulturwissenschaften eher als notwendige Erweiterung denn als Neubegründung der Geisteswissenschaften. In den Fokus sind neue, nicht zuletzt politik- und sozialwissenschaftliche Fragen gerückt, die sich produktiv mit den geistes- und kulturwissenschaftlichen Problemstellungen vermengt haben. So scheint eine erneute Inventur der Reihe sinnvoll, deren Aufgabe unverändert darin besteht, kompetent und anschaulich zu vermitteln, was kritisches Denken und Forschen jenseits naturwissenschaftlicher Zugänge heute zu leisten vermag.

Zur Einführung ist für Leute geschrieben, denen daran gelegen ist, sich über bekannte und manchmal weniger bekannte Autor(inn)en und Themen zu orientieren. Sie wollen klassische Fragen in neuem Licht und neue Forschungsfelder in gültiger Form dargestellt sehen.

Zur Einführung ist von Leuten geschrieben, die nicht nur einen souveränen Überblick geben, sondern ihren eigenen Standpunkt markieren. Vermittlung heißt nicht Verwässerung, Repräsentativität nicht Vollständigkeit. Die Autorinnen und Autoren der Reihe haben eine eigene Perspektive auf ihren Gegenstand, und ihre Handschrift ist in den einzelnen Bänden deutlich erkennbar.

Zur Einführung ist in der Hinsicht traditionell, dass es den Stärken des gedruckten Buchs – die Darstellung baut auf Übersichtlichkeit, Sorgfalt und reflexive Distanz, das Medium auf Handhabbarkeit und Haltbarkeit – auch in Zeiten liquider Netzpublikationen vertraut.

Zur Einführung bleibt seinem ursprünglichen Konzept treu, indem es die Zirkulation von Ideen, Erkenntnissen und Wissen befördert.

Michael Hagner
Ina Kerner
Dieter Thomä

Inhalt

Einleitung

1.Der Algorithmus –Kulturtechnik und Diskursfigur

1.1 Was ist ein Algorithmus?

1.2 Algorithmic Turn – Algorithmen als autonome Akteure?

1.3 Was kann ein Algorithmus – und was nicht?

2.Die Digitalisierung des Wissens

2.1 Zur Medialität des Wissens

2.2 Neue Medien, neue Erkenntnis?

2.3 Simuliertes und virtuelles (Nicht)-Wissen

2.4 »Digitales Denken«? – das Interface und seine Grenzen

3.Data Gone Big –zur Rhetorik der Daten

3.1 Big Data und die Datafizierung der Welt?

3.2 Daten, Rohdaten, Metadaten – und Fakten

3.3 Große Datenmengen = objektives Wissen? – der Mythos Big Data

3.4 Geodaten, die Annotation des Raums und die Kulturtechnik »Mapping«

4.Überwachung: Subjektivität und Macht

4.1 Überwachung als Kulturtechnik und Machtordnung

4.2 Von dataveillance zu lateral surveillance – digitale Medien und Überwachung

4.3 (Big) Data Subjects – (Big) Data Bodies

4.4 Profiling – Identitätsfiktionen einer wahrscheinlichen Zukunft

Schluss

Anmerkungen

Literatur

Über den Autor

Einleitung

Schon seit einigen Jahren werden digitale Technologien mit einschneidenden gesellschaftlichen, ökonomischen und politischen Veränderungen in Verbindung gebracht. Spätestens mit den kontroversen Debatten um Überwachung und Datensicherheit, digitale Identitäten, die Allwissenheit von Big Data oder autonom agierende Algorithmen ist das Bild der revolutionären Technologien zum zentralen Motiv sozialer, kultureller, ökonomischer und politischer Wandlungsprozesse geworden und bringt veränderte Wahrnehmungsmuster und Wirklichkeitsentwürfe hervor. Zahlreiche Veränderungen unterstreichen die Bedeutung dieses Wandels für alle Bereiche unseres alltäglichen Lebens. Dazu zählt unsere Arbeitswelt, wenn Robotik und zunehmende Automatisierung die Verhältnisse sowohl im Produktions- als auch im Dienstleistungssektor grundlegend verschieben. Der Medizin bieten sich neue Möglichkeiten durch immer stärker datenbasierte Verfahren, etwa die computergestützte Simulation neuartiger Medikamente oder das Zusammenwachsen von biologischen und informationstechnischen Modellen in der Bioinformatik. Hinzu kommen neue Präventionsansätze, die mit der Idee einer permanenten medizinischen Selbstüberwachung und der Errechnung von Krankheitsrisiken neue Formen der Diagnose und Therapie versprechen. Mobilität wird ergänzt um selbstfahrende Autos, Alltagsaufgaben sollen durch eine Vernetzung der uns umgebenen Technik – Internet der Dinge oder smart objects – erleichtert werden. Für demokratische Prozesse ergeben sich durch die vernetzten Kommunikationstechnologien erhebliche Potenziale, indem politische Partizipation gestärkt wird und Entscheidungsprozesse transparenter gemacht werden können. Veränderte Möglichkeiten der Informationssuche sowie Datenerhebungs- und Analyseverfahren versprechen ein neues Wissen, ein umfassenderes, »objektiveres« Abbild der Welt.

Wie jedoch für die Deutung von Technologie insgesamt sehr charakteristisch, bilden diese Aspekte einer politischen und sozialen Utopie (z.B. Schmidt/Cohen 2013) nur eine Seite der Zukunftsszenarien ab. Ihnen stehen die kontrovers diskutierten Themen Datensicherheit und Datenschutz, das Problem umfassender geheimdienstlicher Überwachung, die neue Macht wirtschaftlicher Akteure und Großkonzerne sowie das veränderte Verhältnis von Privatheit und Öffentlichkeit gegenüber. Dieser Gefahrendiskurs wird ergänzt um die Warnungen vor der völligen Autonomie künstlicher Intelligenzen, die den Menschen schließlich ganz infrage stelle, und mitunter von plakativen Thesen dominiert: »Sie wissen alles: Wie intelligente Maschinen in unser Leben eindringen und warum wir für unsere Freiheit kämpfen müssen« (Hofstetter 2014) oder »Sie kennen Dich! Sie haben Dich! Sie steuern Dich! Die wahre Macht der Datensammler« (Morgenroth 2014). Neben wissenschaftlich-kritischen Auseinandersetzungen mit diesen Themen (z.B. Reichert 2014a) prägen Angstszenarien die Deutung der neuen Technologien erheblich, die in diesen Lesarten eine unheimliche, eigenständige und bedrohliche Handlungsmacht erhalten. Zu den als destruktiv diagnostizierten Effekten der digitalen Kultur zählen etwa neue psychische Verfasstheiten, flüchtiger werdende soziale Beziehungen, die selbstverschuldete Preisgabe unserer Privatheit oder negative Effekte auf unser Denken (z.B. Lanier 2010; Keen 2015; Turkle 2012). Die Debatten und Problemfelder sind vielfältig, komplex und zeichnen sich durch eine hohe Dynamik aus. Die gesellschaftliche, wissenschaftliche, politische und gesetzliche Deutung bzw. Regulation der Phänomene steht dabei grundsätzlich vor der Herausforderung, mit den sich rasch verändernden technologischen Entwicklungen, Geschäftsmodellen oder Nutzungskulturen Schritt zu halten, und vollzieht sich zwangsläufig mit einer erheblichen zeitlichen Verzögerung. Diese – oft tagesaktuellen – Debatten und etwaige daraus abzuleitende gesellschaftliche Handlungsempfehlungen sollen nicht im Zentrum des vorliegenden Bandes stehen.

Ziel dieser Einführung ist es vielmehr, einige der diesen Debatten zugrunde liegenden Begriffe und Argumentationsmuster einer medienkulturwissenschaftlichen Betrachtung zu unterziehen. Es soll ein Beitrag dazu geleistet werden, deren vielfältige Vorannahmen kritisch einzuordnen. Entsprechend ist auch der auf den ersten Blick ungewöhnlich anmutende Titel zu verstehen, der eine Einführung in »Digitales Wissen, Daten und Überwachung« ankündigt. Wie nämlich kann man, so ließe sich einwenden, in »Wissen« oder »Daten« einführen? Müssten nicht vielmehr ein »Wissen über etwas« oder »Daten von etwas« die Gegenstände einer Einführung sein? Es ist jedoch genau diese Rhetorik vermeintlich selbstevidenter Begriffe wie »Algorithmus«, »digitales Wissen«, »Simulation«, »Daten«, »Metadaten«, »Informationen« oder »Überwachung«, die im Mittelpunkt der Betrachtung stehen soll. Dabei zeigt sich, dass in ihrem selbstverständlichen Gebrauch seinerseits ein Machtsystem zum Ausdruck kommt, das ihnen ihre spezifische Bedeutung erst zuschreibt. Zugleich wird jeweils deutlich, dass sich auch jenseits dieser diskursiven Begründungslogik aus veränderten Wissenstechniken und -praktiken eigene Wissenskulturen und Machtkomplexe entwickeln können.

Dieser Einführungsband konzentriert sich auf vier Themenkomplexe:

Kapitel 1: Algorithmen

Algorithmen werden häufig als dem Menschen autonom gegenübertretende Akteure entworfen, die ein undurchschaubares Eigenleben entwickeln und zudem in der Lage sind, sich der Kontrolle durch den Menschen zu entziehen. Welches aber ist die Funktionsweise eines Algorithmus, wo liegen seine Beschränkungen, und in welchen Praktiken entfaltet sich seine eigentliche Macht?

Kapitel 2: Digitales Wissen

Eines der Versprechen der Digitalisierung besteht darin, neue Formen des Wissens, neue Einsichten und neue Erklärungsmodelle hervorzubringen, die vor der Entwicklung digitaler Erkenntniswerkzeuge nicht möglich waren. Damit stellt sich die Frage nach einer spezifisch digitalen Medialität des Wissens und allgemeiner danach, welche Rolle Medien bei der Produktion von Wissen zukommt. Wo liegen die Möglichkeiten, wo die Grenzen von virtuellem Wissen und Simulationen, und welche kulturellen Projektionen schreiben diese Erkenntnistechnologien fort?

Kapitel 3: Die Rhetorik der Daten

Daten gelten als neutrale Repräsentationen der Welt. So erklärt sich auch das Verständnis von »Big Data«, das ein universelles Wissen bergen soll – ein Wissen, das sich von menschlicher Deutungshoheit emanzipiert hat und zugleich eine bisher ungekannte Wahrheit sichtbar macht. Eine genauere Betrachtung der Herstellungsweise von Daten und Datenwissen zeigt jedoch, dass deren vermeintliche Eigenschaften von Objektivität und Neutralität vor allem eine kulturelle Funktion erfüllen. Hinter der konstruierten Eigenevidenz der Daten verbergen sich erhebliche Gefahren.

Kapitel 4: Überwachung

Überwachung ist eine Organisations- und Machttechnik, die in modernen, nationalstaatlich strukturierten Gesellschaften üblich ist. Sie ist dabei nicht per se repressiv, sondern steht vielmehr in einem komplexen Verhältnis zu den Subjektentwürfen, die liberale Gesellschaften kennzeichnen. Selbstüberwachung und -kontrolle gehören zu den zentralen Techniken spätmoderner Gesellschaften bei der Herstellung einer von den Subjekten als sinnvoll erlebten Identität. Überwachungstechniken zeichnen sich folglich auch durch konstruktive Prozesse aus, und dennoch stehen sie mit der Herstellung datenbasierter Risikosubjekte im Zentrum einer effektiven und höchst problematischen Konstruktion einer wahrscheinlichen Realität.

1. Der Algorithmus –Kulturtechnik und Diskursfigur

Historisch als mathematisches Rechenverfahren begründet, wird der Algorithmus im 16. und 17. Jahrhundert zum Prinzip einer axiomatisch-deduktiv betriebenen Herstellung von Wissen, das logische Wahrheiten zu produzieren vermag. Mit der epistemischen Technik einer universellen Kalkülsprache (Leibniz 1960) setzt sich die Idee automatisch herstellbarer logischer Wahrheiten in der »Turing-Maschine« (Turing 1950) oder »symbolischen Maschinen« (Krämer 1988) fort und erreicht mit der Entwicklung des Mediums Computer den Status einer umfassenden Kulturtechnik (Bächle 2014a).

Im Anschluss an eine begriffliche Bestimmung (Kap. 1.1) sollen im Folgenden die Mechanismen herausgearbeitet werden, die den Algorithmus zu einer kulturellen Projektion machen: Die ihm zugeschriebene Macht und seine unbehagliche Handlungsautonomie werden diskursiv hergestellt und sind nicht allein durch seine Eigenschaften als Kulturtechnik begründbar, sondern auch vor dem Hintergrund bestehender Machtstrukturen zu erklären (Kap. 1.2). Abseits der kulturellen Projektionen nämlich erweisen sich Algorithmen – als mathematische Prozessvorschriften – im Unterschied zu den ihnen oft in großem Gestus zugeschriebenen Fähigkeiten als Gebilde von recht begrenzter Wirkmacht (Kap. 1.3).

1.1 Was ist ein Algorithmus?1

In einer ersten, einfachen Annäherung lässt sich ein Algorithmus2 zunächst als ein Berechnungsschema auffassen. Eine informationstechnische Definition beschreibt ihn als

»wohldefinierte Rechenvorschrift, die eine Größe oder eine Menge von Größen als Eingabe verwendet und eine Größe oder eine Menge von Größen als Ausgabe erzeugt. Somit ist der Algorithmus eine Folge von Rechenschritten, die die Eingabe in die Ausgabe umwandeln.« (Cormen/Leiserson/Rivest 2007, 5; Hervorhebung im Original)

Ein Algorithmus lässt sich auch als »Hilfsmittel betrachten, um ein genau festgelegtes Rechenproblem zu lösen«. Das ausformulierte Problem stellt eine Beziehung zwischen Eingabe und Ausgabe her, die der Algorithmus als Rechenvorschrift beschreibt (Cormen/Leiserson/Rivest 2007, 5). Die Rechenvorschrift umfasst Symbole und Operatoren und ist durch ihre lineare Abfolge determiniert und endlich. Entscheidend ist, dass die ermittelte Lösung nach dem Prozessieren der Rechenvorschrift korrekt ist. Sie bringt eine logische Wahrheit hervor.

Dieser Nimbus der Korrektheit, der dem mathematischen Verfahren anhaftet, ist jedoch keinesfalls eindeutig, wie sich am einfachen Beispiel der Errechnung der »besten Route« mithilfe eines Routenplaners veranschaulichen lässt (Cormen 2013, 2–4): Ist die beste Strecke gleichzusetzen mit der kürzesten, der schnellsten oder aber der kostensparendsten Route? Welcher Input von Daten steht für die Berechnungen zur Verfügung? Kann die Berechnung auf Grundlage sogenannter Echtzeit-Daten erfolgen? Berücksichtigt sie Staus und Baustellen? Bereits an diesem simplen Beispiel wird klar, dass die als korrekt definierte Berechnung in jedem Fall abhängig ist von der in den Eingaben abgebildeten Realität. Dieser Gedanke einer Brücke zwischen Daten und der durch sie konstruierten Realität stellt das wichtigste Problem für die in diesem Band behandelten Themen dar. Hinzu kommt die Abhängigkeit der berechneten Realität von den jeweils genutzten Ressourcen, also vor allem die Abhängigkeit des Algorithmus von der – materiell bedingten – Rechenleistung eines Computers und damit der für die Berechnung benötigten Zeit, dem zur Verfügung stehenden Speicherplatz bei Rechenoperationen oder der Anbindung an ein Netzwerk (mit der Möglichkeit, auf andere Daten oder externe Rechenleistung zurückzugreifen). Mit anderen Worten, und dies ist das zweite Problem, spielt das Medium eine große Rolle, in dem die berechnete Realität hergestellt und abgebildet wird.

Was hier zunächst trivial erscheinen mag, ist für das Verständnis dessen, was sich auf Grundlage von Daten als Realität errechnen und abbilden lässt, von entscheidender Bedeutung. In einer technischen Herangehensweise ist der Algorithmus zunächst ein neutrales Rechenverfahren, das, wenn es mit den ›richtigen‹ Daten gefüttert wird, die richtigen Ergebnisse liefert. Doch welche Entscheidungen werden als beste Optionen definiert – die schnelle, die kurze oder die günstige Route? Wie wird Realität in Form von Daten in eine berechenbare Repräsentation übersetzt, und welche Ausschnitte von Realität werden vernachlässigt? In einem größeren Kontext stellt sich bei einer vermeintlich neutralen Abbildung von Realität immer die Frage, welche Annahmen über Gesellschaft und soziale Gruppen in die Algorithmen bereits eingeschrieben sind, indem sie etwa – um beim Beispiel des Routenplaners zu bleiben – eine »Ghetto-Vermeidungsfunktion« (Kap. 3.4) anbieten, damit unerwünschte Gebiete weiträumig umfahren werden können. Wer definiert also bestimmte Stadtteile als gefährlich und auf Grundlage welcher Daten (Kriminalitätsstatistiken, große ethnische Heterogenität usw.)? Abseits der rein informationstechnisch-mathematischen Definition gilt folglich immer: Algorithmen sind stets geprägt von soziokulturellen Vorannahmen und Prägungen sowie materiell-technischen Rahmenbedingungen. Sie sind niemals neutral.

Blicken wir nun auf die zweite implizite Annahme, der zufolge Algorithmen als universelles Rechenverfahren unterschiedlichste Phänomenbereiche berechenbar und damit erklärbar machen können. Als Antwort auf die von ihnen selbst aufgeworfene Frage »Welche Art von Problemen werden durch Algorithmen gelöst?« nennen die Autoren der bereits zitierten Informatik-Einführung (Cormen/Leiserson/Rivest 2007) zunächst das – etwas unspektakuläre – Sortieren von Zahlenreihen. Beachtenswert hingegen ist, dass die Liste sogleich mit weit komplexeren durch Algorithmen lösbaren Aufgaben fortgesetzt wird. Dazu zählen die Verfasser an erster Stelle das Human Genome Project, das »große Fortschritte in Bezug auf das Ziel gemacht« hat, »alle 100 000 Gene der menschlichen DNA zu identifizieren, die Folge der 3 Milliarden chemischen Basenpaare […] zu bestimmen« und schließlich »diese Informationen in einer Datenbank zu speichern und Werkzeuge zur Datenanalyse zu entwickeln« (Cormen/Leiserson/Rivest 2007, 6). Als weitere Beispiele algorithmischer Problemlösung nennen die Autoren Suchmaschinen, E-Commerce-Anwendungen, Verschlüsselungstechnologien zum Schutz von Privatheit oder die Berechnung effizienter Ressourcenverwendung in der Wirtschaft. Diese Liste ist aufschlussreich, da sie vor allem dazu dient, die Universalität der algorithmenbasierten Problemlösung zu betonen.3

Dies entspricht einer gesamtkulturellen Wahrnehmung, die die Welt und ihre soziale, materielle oder biologische Realität als grundsätzlich algorithmisierbar betrachtet und gleichzeitig dafür sorgt, entsprechende Annahmen fortzuschreiben (Kap. 1.2). Die dabei aufgerufenen Themen entsprechen der Diskursivierung der Algorithmen in unterschiedlichen Feldern, von denen die Verschränkung und Verwandtschaft von Informationsverarbeitung und dem sogenannten genetischen Code (DNS) wohl als das eigentümlichste gelten kann. Der Mensch trägt, so die Annahme, Informationen in sich, die gleich einem Algorithmus prozessiert und gelesen werden können: einen »Code des Lebens« (kritisch dazu: Kay 2005). Die Annahme einer solchen Verwandtschaft findet sich auch in entgegengesetzter Richtung, denn nicht nur Algorithmen der Informatik erschließen ihr zufolge die Natur, sondern auch die Natur inspiriert das Design von Algorithmen:

»Die Natur hat im Laufe der Jahrmillionen auf der Erde eine große Vielfalt von Problemlösungsstrategien für die Aufgaben Überleben und Fortpflanzung entwickelt. Von diesen Techniken zu lernen heißt, biologische Konzepte in algorithmische Modelle zu übersetzen und auf diese Weise für Problemlösungsprozesse nutzbar zu machen. Interessanterweise sind viele Verfahren der Computational Intelligence an ein biologisches Vorbild angelehnt und bedienen sich der Sprache der Biologie … Viele Algorithmenrithmen verdanken ihre Entstehung einer Analyse biologischer Vorgänge.« (Kramer 2009, 6; Hervorhebung T.C.B.)

Evolutionäre Algorithmen, Schwarmintelligenz, künstliche Immunsysteme, Fuzzy-Logik (orientiert an menschlicher Kognition), reinforcement learning oder neuronale Netze (Kramer 2009, 9–10): Bei all diesen Klassen von Algorithmen gilt »die Natur« als Vorbild der Algorithmen und nicht etwa – wie man erkenntnistheoretisch zutreffender formulieren müsste – ein Modell der Natur.

Woher kommt diese erstaunliche Vorstellung, dass Algorithmen und Natur – Modellebene und Phänomen – eine Verwandtschaftsbeziehung unterhalten, indem beide scheinbar mit Daten oder Informationen als ihren jeweils elementaren Bestandteilen arbeiten? Besteht auch die Natur aus Informationen? Hinter dieser heute fast selbstverständlich gewordenen Annahme einer Verbindung zwischen der ›Welt als solcher‹ und ihrer Übertragung in mathematische Modelle sowie durch Rechenschritte lösbare Probleme steht der Glaube der Moderne, der grundsätzlich von der technisch gestützten Erschließung einer mechanisch und heute informationstechnisch funktionierenden Natur ausgeht und dem der Algorithmus als universelles Problemlösungs- und Analyseverfahren gilt. Die Ursprünge dieses Glaubens werden bei einer historischen Betrachtung der Algorithmus-Figur deutlich. Paradoxerweise geht eine immer exaktere Berechnung der Welt mit einer Loslösung dieser Berechnungsverfahren von den materiellen oder durch die Berechnungen beschriebenen Referenzobjekten einher. Mathematische Aussagen haben, mit anderen Worten, auch dort einen Anspruch auf Gültigkeit oder logische Wahrheit, wo sie sich auf nichts beziehen.

Historisch lassen sich zunächst zwei unterschiedliche Traditionslinien der Mathematik und des Wissens voneinander unterscheiden. Auf der einen Seite steht das altorientalische, von den Babyloniern und den Altägyptern geprägte Rechnen, das als ein Können begriffen wird, ein praktisches Wissen im Sinne eines Rezepts zur Problemlösung. Einzelne Schritte führen hier am Ende zum erwünschten Ergebnis, ohne ein Verstehen vorauszusetzen (Krämer 1988, 26). Zur gleichen Zeit jedoch (etwa im 2. Jahrtausend v. Chr.) vollzieht sich bereits ein wichtiger Schritt der Ablösung des Rechnens von einem Referenten. Rechnen ist nicht mehr länger auf die Hilfe von gegenständlichen Rechenhilfen wie Steinen, Stäbchen oder Muscheln angewiesen, sondern tritt als »symbolische Technik« in Erscheinung, vollzogen »als ein Formen und Umformen von schriftlichen Zeichen […], und zwar nach Regeln, die unmittelbar Bezug nehmen auf die Zeichen selbst und erst mittelbar auf die darin repräsentierten Zahlen« (Krämer 1988, 12). Dieses »Können« der Problemlösung bezieht sich allerdings weiterhin auf konkrete Einheiten, eine Referenz: Die Lösung der Rechenschritte bedeutet zugleich eine Neuordnung dieser Einheiten, seien es Rechensteine oder reelle Zahlen.

Von diesem praktischen Wissen unterscheidet sich andererseits das Verständnis von Wissenschaftlichkeit der griechischen Antike, dem zufolge »allein ein Wissen, welches das, was es weiß, zu begründen vermag kraft unanfechtbaren Beweises« (Krämer 1988, 26) als Wissen gelten kann. Während die Lösungsrezepte ein algorithmisch-kalkulatorisches und damit formalisiertes und formalisierendes Können sind (technē), versteht sich die axiomatisch-deduktive Variante der Mathematik als Durchführung eines »beweisenden Lehrstücks«, das einen Bezug zur logischen Wahrheit und zum Denken (epistēmē) herstellt (Krämer 1988, 27). Diese beiden Ausprägungen des Wissens werden schließlich im 16. und 17. Jahrhundert zusammengeführt, indem das algorithmisch-kalkulatorische Problemlösen mit der Idee einer Berechnung (logischer) Wahrheiten verbunden wird (Krämer 1988, 27). Vereinfacht gesagt erlangt der Algorithmus zu dieser Zeit den Stellenwert eines formelhaften Erkenntniswerkzeugs.

Der auf Mallorca geborene katalanische Mönch und Philosoph Ramon Llull (1232–1315, lat. Raimundus Lullus) gilt als jener Pionier, der die Idee des Algorithmus auf das Feld nicht-numerischer und nicht-geometrischer Figuren ausweitete (Glymour/Ford/Hayes 2006). Die Idee ist inspiriert durch die mathematische Kombinatorik, Llulls Motive waren jedoch rein religiösen Ursprungs, weil er sie als nützliches Instrument zur Missionierung einsetzen wollte. Nicht- oder Andersgläubige, unfähig das ganze Spektrum der Tugenden des christlichen Gottes zu erkennen und wertzuschätzen, sollten anhand von Kombinationen der Attribute Gottes dessen Größe erkennen und dadurch bekehrt werden. Erreicht werden sollte diese Erkenntnis mithilfe geeigneter Werkzeuge: Llulls logische Maschine besteht aus Drehscheiben, die auf eine Spindel aufgeschraubt und in Abschnitte aufgeteilt sind. Durch Drehen der Scheiben ergeben sich unterschiedliche Buchstabenkombinationen, aus denen religiöse und logische Attribute mit korrespondierenden Listen verknüpft werden können – beispielsweise bonitas (Güte) mit magnitudo (Größe) oder duratio (Ewigkeit).4 Dabei liegt die Idee zugrunde, dass auch nicht-mathematisches Argumentieren über Repräsentationen maschinell erfolgen kann, hinter denen sich die (Neu-)Kombination dieser Repräsentationen verbirgt (Glymour/Ford/Hayes 2006, 8). Durch die Verknüpfung sprachlicher Einheiten werden Prozesse des menschlichen Denkens vermittels Symbolen auf eine Maschine übertragen, die alle ›denk-baren‹ Kombinationen für den menschlichen Geist ausführt. Logische Deduktionen sind nicht länger auf mentales Prozessieren angewiesen, sondern können mechanisch erfolgen. Im Kern wird hier der Grundstein für die Annahme gelegt, »die Wahrheit« lasse sich vollständig in Zeichen repräsentieren und der Weg zu dieser Wahrheit – das Denken – könne instrumentell und maschinell mithilfe regelgeleiteter Operationen ausgedrückt werden. Die Maschine denkt, die Wahrheit besteht aus berechneten Daten.

Dieser Ansatz gilt als einflussreich im Hinblick auf die im 17. Jahrhundert erfolgende Umdeklaration der Funktion der Logik, die nun als wissenschaftliches Erkenntnisprogramm verstanden wird. Sie dient fortan »primär heuristischen Zwecken«, also nicht mehr der in griechischer Tradition stehenden Kunst, »vorgegebene Sätze zu beweisen, sondern neue wahre Sätze aufzufinden« (Krämer 1988, 87), wobei sich mit letzterer Technik vor allem der Name Leibniz und der Begriff des Kalküls verbindet (Krämer 1991). Für Leibniz entsprechen Naturgesetze mathematischen Relationen, so dass wissenschaftliches Wissen auch vollständig automatisch durch Algorithmen produziert werden kann, solange dafür geeignete Repräsentationen und automatisierbare Kombinationsmechanismen entwickelt werden (Glymour/Ford/Hayes 2006, 11). Die bei Llull angelegte maschinelle Kombination religiöser und philosophischer Elemente formuliert die aufgeklärtmoderne Wissenschaft zu ihrem Ziel und Anspruch: die Produktion logischer Wahrheiten.

Leibniz’ Idee der Kalkülisierung (Leibniz 1960) bringt Rechnen und Denken in ein äquivalentes Verhältnis: Eine universelle Kalkülsprache erlaubt die Berechnung neuer Erkenntnisse (Krämer 1988, 101). Der Begriff der Wahrheit wird auf diese Weise umgedeutet. Es zählt nun nicht mehr in erster Linie die Referentialität der symbolisch durchgeführten Rechenschritte auf ein Außerhalb, sondern ein in der Formalsprache errechneter Ausdruck erhält den Stellenwert einer Wahrheit. Wissenschaftlichen Erkenntnissen wird dadurch die Autorität der formelgeleiteten und damit neutralen Mathematik verliehen (Krämer 1988, 68). Die kalkulatorische Technik bedeutet deshalb, dass eine

»Problemstellung mit Hilfe einer künstlichen Zeichensprache formuliert wird und in dem Medium dieser künstlichen Sprache zugleich gelöst wird« (Krämer 1988, 72).

Die produktive Kraft des Kalküls wird an der »symbolischen Konstitution mathematischer Gegenstände« deutlich, wie es etwa das Objekt √-2 darstellt (Krämer 1988, 60). Dieser symbolische Ausdruck hat nur innerhalb der Formalsprache Bedeutung. Durch seine scheinbare Referenzlosigkeit jedoch bringt sich der Ausdruck quasi selbst als Objekt hervor. Ähnliches gilt für irreelle (»imaginäre«) Zahlen, negative Zahlen und die Null oder das Rechnen in fiktionalen Räumen mit mehr als drei Dimensionen. Mathematisch errechnete Wahrheiten lösen sich von einem Referenzbereich. Das Kalkül als »Herstellungsvorschrift, nach welcher aus einer begrenzten Menge von Zeichen unbegrenzt viele Zeichenkombinationen hergestellt werden können« (Krämer 1988, 59), trägt mit Leibniz’ Idee von der Universalwissenschaft und einer universellen Kalkülsprache einen Ganzheitsanspruch. Objekte und Bedeutungen, die benannt, errechnet und so überhaupt erst gedacht werden, werden in der Universalsprache produziert, wobei eine Referenz nicht nötig scheint.

Zu verstehen sind diese Operationen im Kontext des Glaubens an das Projekt der Moderne, das ein empirisch-technisches Vermessen, Quantifizieren, Berechnen, Vorhersagen und Planen der Welt zum Ziel hat. Die Wirklichkeit wird zu einer Kombination aus Variablen – Länge, Gewicht, Fläche, Volumen, Zeit, Distanz, Schall, Luftdruck, Temperatur –, die symbolvermittelt ausgedrückt werden können. Die Welt wird empirisch erfasst, und mit der Formalisierung wird auch das Denken scheinbar entsubjektiviert. Es gilt das Prinzip einer technisch-objektivierten Erschließbarkeit der Natur (Kap 2.3).

Zwar beschreibt (wie mit Krämer ausgeführt, in Leibniz’scher Tradition) der Algorithmus als symbolische Maschine algebraische Operationen, die logisch wahr sind, ohne dass sie sich auf eine Objektwelt außerhalb der algorithmischen Prozesslogik beziehen müssen. Doch wie zu Beginn dieses Abschnitts festgestellt, sind Algorithmen (oder Kalküle) stets eng verflochten mit soziokulturellen Vorannahmen und Prägungen sowie materiell-technischen Rahmenbedingungen. In besonderer Weise gilt dies für die Datenbank, die dem Algorithmus als Referenzsystem dient. Ihre Organisationsstruktur ordnet kulturelles Wissen (Kap. 2.2), erst in Verbindung mit ihr eröffnet sich der Analyse von Algorithmen das gesamte Bild ihrer soziokulturellen Relevanz. Dies liegt daran, dass für die algorithmenbasierten Prozesse Wissen als Informationen oder Daten im Hinblick auf den Algorithmus aufbereitet werden muss. Unser kulturelles Wissen folgt dieser Ordnungslogik in immer stärkerem Maße. Diesem Zusammenhang widmet sich der folgende Abschnitt. Das Wissen unserer Welt muss sich der Logik der Algorithmen anpassen, um an ihre Operationen anschlussfähig zu sein. Ein nicht-algorithmisierbares Wissen ist nun keines mehr. Müssen Algorithmen also als eine unsichtbare Macht unserer Kultur gelten?

1.2 Algorithmic Turn – Algorithmen als autonome Akteure?

Soll ein Wissen berechenbar sein, muss es sich der symbolischen Struktur der Algorithmen anpassen. Wie bereits angedeutet, scheint diese Logik der Formalisierung zu einer zunehmend stärker werdenden Determinante unserer Kultur zu werden, die in der umfassenden Digitalisierung ihren vorläufigen Höhepunkt erreicht hat. Der Algorithmus, so scheint es, wird ein autonomer Akteur, ein technologisch bedingtes »Unbewusstes« (Beer 2009), das unser Denken und Handeln steuert. Dieses Narrativ der allgewaltigen Algorithmen soll nun näher betrachtet werden. Welche Macht wird ihnen zugeschrieben, und in welchen diskursiven Mustern vollzieht sich diese Deutung?

Um diese Frage zu beantworten, lässt sich ein Band mit dem Titel »Die berechnete Welt. Leben unter dem Einfluss von Algorithmen« (Stampfl 2013) konsultieren, der mit Kapitelüberschriften wie »Algorithmen beherrschen die Welt«, »die totale Informatisierung des Alltags«, »Alles wird berechenbar«, »Der Mensch wird zum Datenprofil« und »Algorithmen als Gedankenleser« recht deutliche Wegmarken setzt, die beispielhaft für eine breit geführte Debatte stehen. Darin werden informationstechnische Praktiken im Lichte der möglichen sozialen Risiken häufig mit Projektionen des Machbaren vermischt. Eine der größten Sorgen gilt dem Verlust menschlicher Autonomie angesichts der massiven kommunikationstechnologischen Durchdringung und Computerisierung unseres Alltags: »Algorithmen übernehmen die Herrschaft, schränken die menschliche Willens- und Handlungsfreiheit ein, indem sie Verhalten auf vorbestimmte Bahnen zwingen.« (Stampfl 2013, 3) Sie bestimmen, welche Nachrichten und Informationen uns in personalisierter Form von Suchmaschinen und Nachrichtenportalen angezeigt werden, empfehlen uns Restaurants, lesenswerte Bücher, Musik oder sogar Lebenspartner. Sie regeln unseren Straßenverkehr, errechnen den Erfolg von Produkten oder unsere persönliche Kreditwürdigkeit – Algorithmen erscheinen hier als die »modernen Herrscher des Lebens« (Stampfl 2013, 5–6). Neben der Zuschreibung von Handlungsmacht ist für die unterstellte Universalität der Algorithmenherrschaft eine weitere Annahme charakteristisch: »Nichts scheint mehr unberechenbar – und bleibt unberechnet.« (Stampfl 2013, 5)

Die vermeintlich eigenständig handelnden Algorithmen, die ursprünglich dienenden Charakter hatten, erscheinen in diesem Gefahrendiskurs jedoch auch anfällig für die Nutzung durch fremde Zwecke. Es droht der Missbrauch durch »Regierungen, aufdringliche Unternehmen und Hacker«, und noch »viel akuter scheint das Szenario, dass Algorithmen außer Kontrolle geraten« (Stampfl 2013, 9). Die algorithmische Handlungsfähigkeit ist uns unheimlich, weil sie sich der Macht menschlicher Kontrolle zu entziehen scheint:

»Es werden Handlungsvorschriften geschrieben, die der Mensch nicht mehr lesen kann, deren Ergebnis kaum vorhersehbar ist, weil der Algorithmus eine unbeherrschbare Eigendynamik entwickelt.« (Stampfl 2013, 9)

Eine solche Eigendynamik ist etwa im automatisierten Börsenhandel bereits üblich – das sogenannte algorithmic trading erfolgt weitgehend autonom, so dass seine Prozesse von menschlichen Händlern kaum mehr nachvollzogen werden können (Lenglet 2011). Durch projizierte Zukunftstechnologien wie smart cars, smart homes oder social robots erhält dieser Gefährdungsdiskurs eine um ein Vielfaches vergrößerte Projektionsfläche. Autos, Häuser und Roboter, die selbständig lernen und sich der menschlichen Kontrolle entziehen, treten uns als scheinbar autonome Akteure gegenüber.

Das Deutungsmuster universeller Berechenbarkeit schließt den Menschen ausdrücklich mit ein, indem es in einer nicht fernen Zukunft gelingen soll, »digitale Abbilder von Menschen zu schaffen« – der Mensch wird ein »berechenbares Datenprofil«, Abbild seiner »Verhaltens-, Bewegungs- und Interessensmuster« (Stampfl 2013, 35). Die selbstverständliche Annahme einer Übersetzung des Menschen in computerisierbare Muster lässt ihn, sein Verhalten und seine Interessen »vorhersagbar« erscheinen, Kunden oder Bürger werden reduziert zu Elementen in einer durch soziale, kulturelle und politische Anreizsysteme »ferngesteuerten Gesellschaft« (Stampfl 2013, 50–55). Die Macht der Algorithmen und die Sammlung von Daten sind in dieser Lesart schließlich auch Ausdruck eines Machtgefälles – zwischen denjenigen, die Zugriff zu den Datensammlungen haben, auf der einen Seite und denjenigen, die Referenzobjekte der Datenprofile sind, auf der anderen (Staat vs. Bürger, Unternehmen vs. Kunde, Arbeitgeber vs. Arbeitnehmer).

In vielen dieser populären Deutungsmuster treten Algorithmen als mit eigenständiger Handlungsmacht ausgestattete Akteure (algorithmic agency) in Erscheinung, die in der Lage sind, zu lernen und sich eigenständig zu vermehren. Durch diese Autonomie entziehen sie sich menschlicher Kontrolle und dringen aufgrund ihres ubiquitären Vorkommens in alle Bereiche des Lebens vor, auch in solche, die zuvor als privat und intim galten. Zugleich stellt die Annahme einer universellen Berechenbarkeit von Identitäten, Kultur und sozialen Beziehungen die Handlungsfreiheit des als Konstrukt aus Datenprofilen und -mustern verstandenen Menschen infrage. Software-Code reguliert, was gefunden und gewusst werden kann, welche symbolischkommunikativen Prozesse überhaupt stattfinden können. Soziales, kommunikatives Handeln und die Organisation von wirtschaftlichen und politischen Prozessen sowie der Zugang zu Wissen sind durch ihn determiniert, der ungleiche Zugang zu diesem Wissen hat neue soziale und politische Hierarchien zur Konsequenz. Die Schlagwörter »Cyber-Kriege« und »Cyber-Terrorismus« versinnbildlichen die Störungen der auf Informationstechnologien angewiesenen sozialen Organisation. In diesem Szenario droht schließlich die völlige Zerstörung und Substitution menschlicher Identität durch die autonom agierenden Algorithmen, die umfassende Überantwortung menschlicher Handlungsfähigkeit an die Maschine.5

Mit diesen Diskursfiguren scheint ein starkes Argument für die Existenz einer universellen durch Algorithmen bedingten kulturellen Logik vorzuliegen: die Kulturtechnik des Algorithmus als zentrale Determinante des Wissens, menschlicher Identität, Kultur und Gesellschaft. Wenig überraschend, ist inzwischen auch innerhalb der Kulturtheorie ein algorithmic turn (Uricchio 2011) proklamiert worden, weil der Algorithmus als eigenständiger Akteur die Frage von Autorschaft und die nach dem Verhältnis von Subjekt und Objekt neu stelle (diese Fragen bestimmen die kultur- und medientheoretische Debatte allerdings schon seit Jahrzehnten, Kap. 2).

Woher also kommt die diskursiv hergestellte und gesamtgesellschaftlich geteilte Deutung der Algorithmen als besonders mächtiger Akteure? Ein Teil der Antwort lässt sich mit einem Verweis auf das vorangegangene Teilkapitel (1.1) geben: Wenn Gesellschaft, Kultur, Natur und mentale Prozesse prinzipiell als im Kalkül formalisierbar verstanden werden, wie es die aufgeklärte Naturdeutung uns lehrt, werden sie auch zu symbolisch verlustfrei repräsentierbaren Entitäten, die schließlich sogar künstlich hergestellt werden können. Erst die unterstellte universelle Berechenbarkeit des Denkens führt zu jenen Projektionen künstlicher Intelligenzen, die den Menschen zu überholen und zu substituieren scheinen. Der Algorithmus als Universalfunktion nimmt dabei eine mythische Qualität an (Bächle 2014a).

Doch auch die Behauptung, das Szenario algorithmischer agency sei allein der kulturellen Diskursivierung einer kulturellen Figur geschuldet, wäre zu einfach, denn die Leitbilder einer Technologie und die damit verbundenen Ängste und Hoffnungen lassen sich niemals eindeutig voneinander trennen (Macho/Wunschel 2004). Vielmehr ist durchaus davon auszugehen, dass durch Algorithmen eine neue Machtkonstellation entsteht. Diese darf jedoch nicht einseitig von den funktionellen Möglichkeiten der Technologie hergeleitet werden (Kap. 2.), sondern wird der Analyse nur durch die Einbettung der Technologie in soziokulturelle Bedeutungen und Praktiken zugänglich.

Eines der wichtigsten Felder bei der Frage nach dem Einfluss und der Macht der Algorithmen ist die Organisation des (digitalen) Wissens, die eng mit dem Gedanken der informationellen Selbstbestimmtheit und der Freiheit verbunden ist. Die Filteralgorithmen der Internetsuchmaschinen und die Empfehlungssysteme der Online-Händler personalisieren Inhalte in einer Weise, die den Blick auf (vermeintlich) irrelevantes Wissen erschwert. Menschliches Handeln wird in dieser Lesart reduziert auf eine Verlängerung technologischer, automatisch generierter Handlungsanreize für die Nutzerinnen und Nutzer, bei der ein amorphes technological unconscious (Beer 2009) am Werk ist – eine unbewusste technologische Macht. Das den Netzkulturen zugeschriebene Potenzial offener Partizipation sowie eines grenzenlosen und zensurfreien Informationsflusses erfährt durch den Fokus auf die unzugänglich und opak im Verborgenen arbeitende Software eine Umdeutung: Welches Wissen wird wem ermöglicht und anderen vorenthalten? Wem gehört dieses Wissen, zum Beispiel die über Nutzerinnen und Nutzer gesammelten Daten, und wer hat darauf Zugriff? Wer hat die Definitionsmacht über »relevantes Wissen«? Wer programmiert die Algorithmen?

Diese Wissens- und Machtstrukturen begünstigen eine obskure Eigenständigkeit der Daten. Soziale Netzwerke wie Facebook sammeln Unmengen persönlicher Information über soziale Beziehungen, Vorlieben und Abneigungen, erstellen Verhaltens- und Bewegungsprofile und legen die vollständige Lesbarkeit und Vorhersagbarkeit einer vermeintlich in Daten auslesbaren conditio humanaalgorithmic turnalgorithmic agency