Datenübertragung ist ein unsichtbarer Vorgang. Und unsere Geräte sind leider bisher nicht so programmiert, dass sie uns darüber informieren würden, wie viel Information sie im Hintergrund weiterleiten.
Für dieses Buch habe ich mich gefragt: Wie viel kann ein Unternehmen wie Google in nur einem Tag über einen Konsumenten lernen? Nehmen wir an, Sie würden heute zum ersten Mal ein Smartphone mit Googles Betriebssystem Android aktivieren. Was könnte Google über Sie in einem Tag in Erfahrung bringen? Um das zu testen, habe ich mir ein gebrauchtes Android-Handy besorgt, die Daten darauf gelöscht, das Handy auf die Werkseinstellungen zurückgesetzt und mir eine neue SIM-Karte gekauft. Dann habe ich das Smartphone aktiviert, einen neuen Google-Account angelegt und die Standardeinstellungen des Dienstes akzeptiert.
Einen Tag lang nutzte ich das Handy, fuhr damit durch die Stadt, surfte durchs Netz. Und am Ende des Tages schaute ich auf der Webseite8 von Google nach, welche Werbeinteressen mir der Konzern zuordnete. Binnen eines Tages hatte mir Google 29 Interessen zugeschrieben, mit denen mich Werbekunden ansprechen konnten. Der Suchmaschinenriese ging davon aus, dass ich mich für „Kochen und Rezepte“, „Politik“, „Haustiere“, „Fernsehdramen“, „Flugreisen“, „Reisen“, „Gourmet- und Feinkost“, „Unterhaltungselektronik“, „Elektrozubehör“, „Computerhardware“, „Damenbekleidung“, „Fahrzeugkauf“ interessiere. Das stimmt tatsächlich. In ein paar Fällen lag Google falsch, etwa hielt es mich für einen Fan von „American Football“, aber in der überwiegenden Anzahl der Fälle stufte mich die Software richtig ein.
Wie ist es möglich, dass Google in so kurzer Zeit so viele Schlüsse über mich zieht? Die Antwort ist simpel – viele Smartphone-Nutzer hinterlassen eine beeindruckende Menge an Information im Netz. Wie an vielen anderen Tagen hatte ich auf Google nach Rezepten oder nach Produkten gesucht, konkret wollte ich zum Beispiel „batterien aa kaufen“. Kein Wunder, dass mich der Konzern rasch den Kategorien „Kochen und Rezepte“ oder „Elektrozubehör“ zuordnen konnte. Und häufig teilen Nutzer noch viel intimere Details mit der Suchmaschine: Wir googeln, was man gegen den Ausschlag am Hintern tun kann, einige suchen nach einem Partner oder Seitensprung im Web – und viele Menschen googeln Fragen wie: „Soll ich Schluss machen“ oder „Wie kann ich abnehmen“.
Aber es sind nicht nur die aktiven Anfragen, die wir bewusst eintippen, die einiges über uns aussagen: Es wird standardmäßig auch viel passive Information gespeichert – etwa der exakte Längen- und Breitengrad, an dem sich Ihr Handy befindet. In meinem Test sah ich: Der Standardmodus auf Android-Handys ist, dass solche Ortsdaten eifrig gesammelt werden. Dass Google ein großes Interesse an diesen Daten hat, das zeigt auch eine beeindruckende Untersuchung des amerikanischen Informatikers Douglas C. Schmidt: Er ließ ein Handy mit Googles Betriebssystem im Labor liegen, niemand griff es an, lediglich der Webbrowser Chrome lief im Hintergrund. Dann zeichnete der Forscher die passiven Datenströme auf. Das ist Information, „die im Hintergrund ausgetauscht wird, ohne irgendwelche offensichtlichen Mitteilungen für den Nutzer.“9 Ungefähr neunhundertmal liefen unsichtbare, passive Datenübertragungen an Google ab. Im Schnitt gab das Android-Handy vierzehnmal pro Stunde Google Bescheid, wo es sich gerade befand, also durchschnittlich einmal alle vier Minuten.10
Dieses Experiment verdeutlicht: Datenübertragung ist ein unsichtbarer Vorgang. Und unsere Geräte sind leider bisher auch nicht so programmiert, dass sie uns darüber informieren würden, wie viel Information sie im Hintergrund weiterleiten. Douglas Schmidt zeigte auch noch etwas anderes Interessantes auf: Nicht jeder Typ von Smartphone gibt dermaßen viele Ortsdaten weiter. Schmidt testete ebenfalls das iPhone, das im Schnitt nur ein Mal am Tag seinen Aufenthaltsort an Apple kommunizierte.
Den Kern des Problems stellt somit gar nicht die Technik dar. Es wäre absolut möglich, Geräte oder Software zu entwickeln, die möglichst wenig Daten über uns weitergeben, die diskret und verschwiegen sind. Nur baut das Geschäftsmodell einiger Anbieter genau auf dem Gegenteil auf: Von digitalen Riesen bis zu kleinen App-Entwicklern wird häufig damit Gewinn gemacht, die Welt in Daten umwandeln zu können. Denn solche Information lässt sich einerseits verkaufen – an „Data Broker“. Das sind Unternehmen, deren Geschäftsmodell es ist, riesige Datenbanken über möglichst jeden Konsumenten zu erstellen und Kunden besser durchleuchtbar zu machen. Andererseits machen die großen Plattformen Facebook und Google nicht ihren Profit damit, die gesammelte Information zu verkaufen – sondern sie horten diese wie einen Schatz und nutzen sie für präzisere Onlinewerbung oder die Entwicklung neuer Dienste. Die verschiedenen Geschäftsideen haben eines gemeinsam: Um zunehmend Geld damit zu machen, müssen auch wir Menschen zunehmend digital erfasst werden.
Dass „alle möglichen Dinge unter der Sonne“ in Daten umgewandelt werden, nennt man „Datafication“. Geprägt haben den Begriff der Rechtswissenschaftler Viktor Mayer-Schönberger und der Journalist Kenneth Cukier.11
In vielerlei Hinsicht bietet Datafication beeindruckende Möglichkeiten: In immer mehr Geräte werden Sensoren und auch Kameras eingebaut, die uns zum Beispiel helfen, technische Probleme frühzeitig zu erkennen. In der Nähe von München entwickelt Siemens Züge, die mit mehr als 260 Sensoren ausgestattet sind. Diese Sensoren messen Temperatur, Geschwindigkeit, Druck, Bremsverhalten in wichtigen Teilen der Lokomotive. Das Ziel ist, mit den Daten vorherzusagen, wann Reparaturen notwendig sind.12 Es geht also darum, den Ausfall eines Maschinenteils zu erkennen, noch bevor es kaputt wird. Als „Predictive Maintenance“, vorausschauende Wartung, bezeichnen Techniker so etwas.
Wichtig sind für solche Analysen nicht nur Daten, sondern auch Algorithmen, die Rückschlüsse daraus ziehen. Kurz zur Erklärung: Ein Algorithmus ist eine Handlungsanleitung zur Lösung eines Problems. Mathematiker lösen seit Jahrhunderten mit Algorithmen Rechenaufgaben – indem sie Schritt für Schritt die Lösungsmethode befolgen. Für uns jedoch ist die moderne Form von Algorithmen interessant: jene in der Informatik. Wenn ein Computer ein Problem lösen soll, tut er dies über einen Algorithmus. Wenn man auf dem eigenen Computer nach der Datei „Katzenfot0003.jpg“ sucht, kommt dabei ein Suchalgorithmus zur Anwendung. Dieser geht Dateiname für Dateiname durch und überprüft, ob einer davon mit dem Suchbegriff übereinstimmt. In den vergangenen Jahrzehnten wurden zunehmend komplexere Algorithmen entwickelt, die aus riesigen Datenmengen sogar selbst lernen können. Wenn in Medien oder der Politik vom Feld der „künstlichen Intelligenz“ die Rede ist, dann sind derartige Algorithmen gemeint. Bisher ist die künstliche Intelligenz weit von der menschlichen Intelligenz entfernt, kein Computer kann derzeit die Welt so eingehend erfassen wie ein Mensch. Aber moderne Software ist immerhin in dem Sinne intelligent, als dass sie zum Beispiel Gegenstände auf Bildern erkennen kann oder es vermag, Gesichter zu identifizieren.
Diese Mischung aus Datenmacht und potenter Software ermöglicht neue Geschäftsfelder. Massiv in dieses Feld der künstlichen Intelligenz investieren digitale Riesen wie Apple, Google, Amazon, Facebook, natürlich auch Microsoft.13 Es gibt die Auffassung, dass dies für uns Konsumenten keine gute Entwicklung ist – denn wir sind häufig nur ein passiver Teil des Geschäftsmodells. In vielen Fällen bedeutet Datafication, dass der Mensch in all seinen Facetten zur Datenressource wird. Längst werden nicht nur Züge vermessen, sondern auch wir selbst, wo wir uns mit dem Smartphone in der Tasche hinbegeben oder was wir im Netz anklicken.
Die emeritierte Harvard-Professorin Shoshana Zuboff bezeichnet diese Entwicklungen als „das Zeitalter des Überwachungskapitalismus“. Sie hat dazu ihr gleichnamiges Buch verfasst und beschreibt darin, wie menschliche Erfahrung zu einem Rohstoff wurde. Ähnlich wie Rohstoffe aus der Natur wird heute menschliches Verhalten als neue Ressource erfasst und gewinnbringend verwertet. In vielen Fällen werden die „Verhaltensdaten“ von Menschen genutzt, also welche Links man angeklickt oder welche Produkte man in seinen virtuellen Warenkorb gelegt hat. Solche Daten werden ausgewertet, um vorherzusagen, worauf man in Zukunft klicken oder welche Waren man kaufen wird. Derartige Vorhersagen dienen dazu, Menschen beispielsweise vor allem jene Werbung einzublenden, die mit höherer Wahrscheinlichkeit zum Verkaufsabschluss führt.14 Zuboff meint, das Problem sei nicht die Technik, sondern dass Technik zum jetzigen Zeitpunkt vor allem dafür eingesetzt wird, Menschen auszuspionieren und die daraus gewonnenen Erkenntnisse in ökonomisch verwertbare Geschäftsmodelle umzumünzen. Sie schreibt: „Der Überwachungskapitalismus ist kein Unfall übereifriger Technologen, sondern ein aus dem Ruder gelaufener Kapitalismus (…)“.15
Das Problem ist also nicht das Internet an sich, sondern dass die treibenden Kräfte der Digitalisierung oftmals Konzerne sind, die genau mit diesem Geschäftsmodell des Überwachungskapitalismus arbeiten.
Es ist wichtig zu verstehen, wie umfassend die Datenauswertung heutzutage geworden ist – wie viel zusätzlicher Nutzen aus harmlos wirkenden Klicks gezogen wird. Ich finde das Beispiel der CAPTCHAs faszinierend. Das sind diese Aufgaben im Internet, mit denen man belegen muss, dass man ein Mensch (und kein Spam-Account) ist. Seit einiger Zeit blendet einem der Google-Dienst reCAPTCHA dafür Bilder ein: Man sieht eine Reihe von Fotos und muss jene identifizieren, auf denen ein Bus oder ein Straßenschild abgebildet sind. Dieser Test dient der Sicherheit, so erkennt die Maschine, dass ein Mensch an der Tastatur oder dem Smartphone sitzt. Gleichzeitig werden diese Klicks von Google aber auch ausgewertet. Auf einer Webseite für Programmierer schreibt das Unternehmen: „Hunderte Millionen von CAPTCHAs werden jeden Tag von Menschen ausgefüllt. reCAPTCHA zieht einen positiven Nutzen aus diesem menschlichen Einsatz (…)“.16 Konkret sammelt Google die Information, auf welchen Bildern Straßenschilder oder Busse zu sehen sind, um damit die eigene Software zu trainieren. Das bedeutet also: Jedes Mal, wenn Sie eines dieser Bildrätsel ausfüllen, helfen Sie Googles Software, klüger zu werden.
Zwei Dinge erscheinen mir daran bemerkenswert. Erstens: Der Überwachungskapitalismus ist doch sehr komplex – uns ist womöglich gar nicht in allen Situationen bewusst, woraus ein Internetriese wie Google einen Mehrwert ziehen kann. Zweitens: Man kann durchaus sagen, wir arbeiten mit unseren Klicks gratis für Google. Aus Sicht dieses Konzerns ist es clever, wie aus einer Sicherheitsfunktion ein Zusatznutzen gezogen wird. Nur deutet das auf eines hin: Dienste wie Google sind nicht wirklich gratis. Sie argumentieren gern, dass sie „kostenfrei“ für Konsumenten wären. Okay, es fließt kein Geld. Aber es fließen sehr viele Daten. Wir müssen Werbung ansehen oder wir müssen Straßenschilder identifizieren, um manche Funktionen nutzen zu können. Wir zahlen also nicht mit Geld, sondern mit Aufmerksamkeit, mit Daten oder mit unserem Wissen. Ich würde das eher als Tauschhandel denn als Gratisangebot beschreiben.
Auch der Skandal um Cambridge Analytica lässt sich als Nebeneffekt des Überwachungskapitalismus einstufen: Wir wissen heute, dass das britische Beratungsunternehmen Cambridge Analytica Facebook-Information von Millionen von Nutzern weltweit abzapfte. Das Ziel war anscheinend, diese Verhaltensdaten zu nutzen, um die Einstellungen und psychologischen Eigenheiten von Menschen auszuwerten. So warb Cambridge Analytica damit, die Persönlichkeitsstruktur von Menschen basierend auf Likes erkennen zu können – etwa daraus schließen zu können, ob ein Mensch eher extrovertiert, aufgeschlossen, pflichtbewusst oder neurotisch ist. Derartige Dienste konnten auch politische Parteien und Privatunternehmen in Anspruch nehmen, um Wähler mit Themen und in einer Tonalität anzusprechen, die zu ihrer Persönlichkeit passen. Der berühmteste Kunde von Cambridge Analytica heißt Donald Trump. Das Unternehmen unterstützte ihn im Präsidentschaftswahlkampf 2016. Es ist durchaus umstritten, ob Cambridge Analytica wirklich so tief in die Seele von Menschen hineinblicken kann. Aber zumindest sieht man hier, dass es Versuche gibt, Wähler basierend auf ihren Klicks einzuordnen.
Noch problematischer war, wie Cambridge Analytica zu diesen Daten kam: Es nutzte eine unbedenklich wirkende App auf Facebook. Konkret war die App ein harmlos scheinender Persönlichkeitstest, den Menschen ausfüllen konnten. Was nicht dazugesagt wurde: Die Daten wurden auch für politische Zwecke eingesetzt. Zu dieser Zeit waren die technischen Vorgaben auf Facebook lax: Die App konnte nicht nur Informationen über ihre Nutzer absaugen, sondern auch über all deren Facebook-Freunde. Bis zu 87 Millionen Menschen weltweit sind womöglich von diesem Datenmissbrauch betroffen, gab Facebook 2018 bekannt.17 Das Unternehmen betont, dass diese App gegen die Regeln der Plattform verstieß – und dass die technischen Rahmenbedingungen bereits geändert wurden. Nur ist eines wichtig: Ohne Facebooks technische Infrastruktur und die laxen Regelungen wäre Cambridge Analytica nicht an all diese Daten herangekommen. Ohne Facebooks Datenmacht wäre ein solcher Vorfall nicht möglich gewesen. Cambridge Analytica führt vor: Es wirkt oft harmlos, wenn wir bei Seiten auf „Gefällt mir“ klicken oder andere Spuren im Web hinterlassen – nur können wir nicht abschätzen, welche Nebeneffekte diese Handlungen haben, etwa ob die daraus gewonnenen Einblicke für politische Wahlkämpfe genutzt werden.
Dass solche Datenskandale auffliegen, dass immer kritischer über die Geschäftspraktiken im Netz berichtet wird, stellt ein Imageproblem für die großen Digitalkonzerne dar. Unternehmen wie Facebook oder Google betonen nun, dass sie zunehmend auf „Privatsphäre“ setzen, dass sie Apps von Drittanbietern strenger behandeln und Nutzern mehr Möglichkeiten bieten, das Sammeln mancher Daten zu deaktivieren. Das stimmt, die vergangenen Jahre brachten manche Änderungen. Doch eines blieb gleich: das Geschäftsmodell von Google und Facebook. Zwar sprechen diese Unternehmen zunehmend von „privacy“, sie bringen aber zeitgleich eine Reihe neuer Produkte heraus, die Menschen in ihren eigenen vier Wänden digital erfassen. Google bietet nicht nur smarte Lautsprecher namens „Google Home“ an, die permanent darauf warten, dass man mit ihnen redet. In der Produktreihe „Nest“ liefert es außerdem Geräte wie Überwachungskameras, Thermometer, Rauchmelder, Alarmsysteme und ein smartes Display mit Gesichtserkennungsfunktion – die miteinander kommunizieren können. Das ist schon recht interessant: Google betont, es setze auf „Privatsphäre“ – nur gemeint ist offensichtlich nicht, dass wir Nutzer aufhören sollen, uns digital erfassen zu lassen. Gemeint ist wohl eher, dass wir einzelne Nachjustierungen beim Datensammeln machen dürfen. Eine wirkliche Kursumke...