#AlgorithmicGovernance

#BigData #QuantifiziertesSelbst

Unter »Governance« versteht man Steuerungs- und Regelungsprozesse – also die Art und Weise wie Normen, Gesetze und Maßnahmen strukturiert, aufrechterhalten und in einer Rechenschaftspflicht verankert werden, sei es durch den Staat, die Gesellschaft oder die freie Wirtschaft. Im Wesentlichen bezieht sich »Governance« auf die konkrete Vorgehensweise, mit der Gesellschaften organisiert werden, also auf die Logik oder Sprache von Steuerungsprozessen. »Governance« schließt somit auch die Machtausübung über jemanden oder etwas mit ein. [1] #AlgorithmicGovernance bezieht sich auf die Untersuchung expliziter und impliziter Regeln, mit denen die Lebenswelt durch Algorithmen (siehe #Algorithmus im Themenbereich #Codierung) organisiert wird. Sie bezieht sich auf eine Ausprägung von »Soft Power«, einer »sanften Macht«, mit der Gewohnheiten durchbrochen und Handlungspotenziale neu ausgerichtet werden. #AlgorithmicGovernance ist die Wirkmacht eines spezifischen Verhaltens, das erzielt werden soll; sie ist eine Kraft, die wirksam ist, bevor sie überhaupt erst sichtbar wird. [2] In diesem Sinne ermöglicht #AlgorithmicGovernance eine grundlegend neue Herangehensweise an die Steuerung aller Bereiche des Lebens, sowohl in der Sphäre der Gesellschaft, der Politik, der Wirtschaft oder auch im ökologischen Bereich. Damit geht notwendigerweise die Frage einher, wie algorithmische Verarbeitungsprozesse gesteuert und gesetzlich reguliert werden sollten.

Die Grundlage aktueller Steuerungs- und Regelungsprozesse bilden Verfahren zur Sammlung und Analyse von Daten, durch die Wertzuschreibungen vorgenommen werden. In den letzten zehn Jahren hat die Menge der Daten, die in Echtzeit erfasst und ausgewertet werden kann, explosionsartig zugenommen. Unsere Umwelt wird in zunehmendem Maße in Code umgewandelt (siehe Themenbereich #Codierung), somit maschinenlesbar und durch die ungeheure Zahl miteinander verbundener Endgeräte und Sensoren eindeutig zuordnungs- und identifizierbar gemacht. Unser tägliches Leben wird mehr und mehr von digitalen Geräten gestaltet und durch eine computerbasierte Infrastruktur erleichtert. #BigData zielt u. a. darauf ab, die Gesellschaft als Ganzes zu erfassen, die gesamte Bevölkerung und ihre Aktivitäten. [3] Hinter all den Anstrengungen, die zur Datensammlung und der Quantifizierung des Selbst (#QuantifiziertesSelbst) unternommen werden, steht das Ziel, avancierte statistische Modelle zu generieren, mit denen das Leben der Menschen beschrieben, simuliert und vorausgesagt werden kann. Um all diese Daten zusammenführen zu können, ist die Art und Weise, mit der Informationen zueinander in Beziehung gesetzt werden, entscheidend: Der Schlüssel liegt in der Verarbeitung von Daten durch statistische Analysen und Algorithmen aus dem Bereich des maschinellen Lernens (siehe Themenbereich #MaschinellesLernen), die Muster erkennen und zwischen den einzelnen Daten Beziehungen herstellen. Korrelationen von Daten werden zu Quellen der Erkenntnis bzw. zu Information.

Als Folge daraus scheint sich »Governance« in ein Ringen darum verwandelt zu haben, »wie« Daten ausgewertet werden und »von wem«. Im Wesentlichen lassen sich durch die Korrelation von Daten Profile von Individuen oder Gruppen erstellen, um sogenanntes normales Verhalten zu definieren und davon abweichende Verhaltensweisen zu bestimmen. Individuen werden so zu »Dividuen« – numerischen Datenkörpern, die aus gesammelten Informationen bestehen. [4] Ausgehend von diesen Profilen setzen Regierungen und Unternehmen ihre Ziele um. Während Letztere Strategien zur Kapitalbildung anwenden, die große Profite abwerfen, ist für Erstere der Schutz des Staates von Belang. Auf der einen Seite stehen die Unternehmen, die durch zunehmend invasivere Vorgehensweisen Nutzerprofile generieren und versuchen, das Kundenverhalten durch Mikromarketing immer weiter personalisiert zu kontrollieren. Auf der anderen Seite steht der Staat, der mit neuen Technologien Informationen sammelt, die zur Verhinderung von Straftaten beitragen bzw. durch Mikrotargeting das Wahlverhalten der BürgeInnen beeinflussen sollen. In beiden Fällen werden leistungsfähige Algorithmen zusammen mit prädikativen Analyseverfahren eingesetzt, um die Voraussetzungen zukünftiger Ereignisse zu ermitteln. Kontrolle wird fast unmerklich ausgeübt, sodass der Eindruck entsteht, das »Dividuum« würde autonom agieren, wobei es jedoch nicht über die Fähigkeit verfügt, Entscheidungen aus freien Stücken zu treffen.

Yasemin Keskintepe

 

[1] Vgl. Isabell Lorey, »States of Insecurity: Government of the Precarious«, Verso Futures, Verso, London, New York, 2015, S. 23ff.

[2] Vgl. Luciana Parisi, »Contagious Architecture: Computation, Aesthetics, and Space«, The MIT Press, Cambridge (MA), London, 2013, S. 169ff.

[3] Vgl. Rob Kitchin, »The Data Revolution: Big Data, Open Data, Data Infrastructures and Their Consequences«, Sage Publications, Los Angeles, London, 2014, S. 67ff.

[4] Vgl. Gilles Deleuze, »Postscript on the Societies of Control«, in: »October«, Bd. 59, Winter 1992, S. 3–7.