1 Milliarden in Millisekunden
Ist die Künstliche Intelligenz schon schlauer als wir?
Was bei Big Data abgeht, ist schier unvorstellbar. Datenwolken beginnen jedes Handeln zu durchdringen und alle Entscheidungen zu konditionieren. Firmen wie Microsoft, Google und Facebook erzeugen cyber-physische Systeme. Dieses Kapitel erläutert die Datenwelt und verweist auf ihre großen Beweger und deren Technologien (Details auf der Webnseite). Es zeigt, wie verbreitet Big Data sind, wie sie als Künstliche Intellugenz das Handeln verändern und was das für uns bedeutet.
1.1 Die Entwicklung des Computers im Zeitraffer
1.2 Die großen Beweger – die Datenkraken
1.3 Der Weg zu Big Data
1.4 Internet und darknet
1.5 Das Internet der Dinge
1.6 Die Blockchain
1.7 Die Künstliche Intelligenz
1.1 Die Entwicklung des Computers im Zeitraffer
„Stell dir vor, es ist Revolution, und die Leute merken es kaum. Unterdessen ist der wahre Umsturz längst im Gange", schreibt der Computerexperte Martin-Jung (2018a) und erläutert: er verläuft exponentiell. Menschen erfassen das nur schwer. Daher gibt Martin-Jung ein Beispiel: Wenn in ein Fußballstadion alle zwei Sekunden Wasser getropft würde, erst ein Tropfen, dann zwei, dann vier, dann acht und immer so weiter die doppelte Menge - wie lange würde es dauern, bis die riesige Betonschüssel voll ist? Nicht einmal zehn Minuten (ibid.). Anfangs merkt man nicht, was da passiert. So ist oder war es zumindest auch mit der Welt der Computer. Es ist höchste Zeit, sich vorzubereiten (ibid.).
Computer, das Internet und Daten allerorten gehören inzwischen zu unserem Leben wie Wasser und Brot. 2,8 Milliarden Menschen sind mittlerweile online; das ist ein Zuwachs von 280 Prozent in nur zehn Jahren (Noska 2017). Was sich derzeit vollzieht, revolutioniert unseren Alltag von Grund auf. „Wir verarbeiten Daten nicht nur schneller und besser als zuvor. Wir tun Dinge, die wir zuvor nie tun konnten", sagt Jason Cornez, Chief Technology Officer der im Finanzmarkt tätigen Analysefirma RavenPack, und der Leiter des Bereichs Finance Product Management von MathWorks, Stuart Kozola, stimmt ihm ebenso zu wie Thani Sokka, der Technikchef des Datenhauses Dow Jones (RavenPack 2017b). Datenanalysen, die auf herkömmlichen Computersystemen noch vor Kurzem eineinhalb Monate dauerten, lassen sich in der cloud (was das ist, zeigen wir auf unserer Webseite) in Stunden erledigen. Die Auswertung aller Daten von Wetterstationen für eine Wettervorhersage, die vor einem Jahrzehnt noch 15 Minuten dauerte, ist jetzt in einer Sekunde erledigt. Eine nochmalige Beschleunigung um das 17.000-fache deutet sich an (näheres im Abschnitt über Quantencomputer). Entscheidungen sind also sofort möglich. Der Handel mit Aktien vollzieht sich bereits in 200 Millisekunden – wir kommen in Kapitel 3 darauf noch zu sprechen. Datenwolken umgeben uns seit wenigen Jahren so selbstverständlich, dass wir gut daran tun, uns zu erinnern, wie relativkurz die Geschichte der elektronischen, automatisierten Datenverarbeitung zurück reicht.
Die Herkunft der elektronischen Datenverarbeitung.
Die Idee, wir selbst seien so etwas wie biologische Automaten, eine Art natürlicher Computer, ist zwar schon recht alt. Im 17. Jahrhundert verstand der deutsche Philosoph und Mathematiker Leibniz die Welt als ein System aus Automaten, die er Monaden nannte – eine Weltsicht, die heute wieder aktuell ist (vgl. Mainzer/Chua 2011). Leibniz betrachtete alles, was lebt, als natürliche Monaden, als solche biologischen Automaten, die wesentlich besser funktionieren als von Menschen gebaute Automaten seiner Zeit. Und in der Tat: Der menschliche Körper atmet, verdaut und regeneriert sich schlafend automatengleich, ohne dass das Bewusstsein eingreifen muss. Leibniz zeigte sich überzeugt, dass eines Tages Automaten nicht nur menschliche Arbeit übernehmen und die Menschen damit für kreative Tätigkeiten frei machen könnten, sondern dass diese Automaten auch Entscheidungen zu treffen vermöchten. Er sollte Recht behalten.
Den ersten programmierbaren Automaten baute aber erst im im 19. Jahrhundert, im Zeitalter der Dampfmaschinen, der Brite Charles Babbage auf noch rein mechanischer Grundlage. Zur Steuerung benutzte er auswechselbare Lochkarten für damals schon teilautomatisch getaktete Webstühle. Elektromechanische Rechenmaschinen tauchten dann im ausgehenden 19. Jahrhundert auf. Erstmals verwendet wurden sie in den USA zur Volkszählung 1890 (Kurzweil 2012: 251). Trotz der Weite des Landes und der Einwandererströme war sie in sechs Wochen durchgeführt und nach zweieinhalb Jahren ausgewertet (Press 2013).
Leibniz' Vision wurde erst zur Mitte den 20. Jahrhunderts umgesetzt, als zelluläre Automaten konstruiert werden konnten. In ihnen lassen sich Arbeitsschritte beliebig zerlegen und in diesen kleinsten Schrittchen dann wie in den Zellen eines Gehirns arbeitsteilig und miteinander kombiniert erledigen. Computer sind solche zellulären Automaten. Ihr Kern ist ein Zentralprozessor, in dem Zellen mit Hilfe elektrischen Stroms zugleich rechnen und speichern. Er kann auf den ersten Blick wenig, nämlich „nur" die zwei unterschiedlichen elektrischen Spannungszustände an oder aus registrieren und verarbeiten. Das tut er aber erstens in maximal möglichem Tempo, nämlich mit Lichtgeschwindigkeit, zweitens auf kleinstem, mittlerweile molekular kleinem Raum und drittens parallel, das heißt: Seine Zellen erledigen eine Vielzahl von Registrierungs- und Verarbeitungs-, also Rechenaufgaben zur selben Zeit.
Computer sind der sichtbarste Teil einer technischen Revolution, die die Welt in den letzten fünfzig Jahren zunehmend umgekrempelt hat und weiter verwandelt. Ihr Kern ist die Elektronisierung zunehmend aller technischen Vorgänge und damit ihre Digitalisierung. Sie führt geradewegs in die Welt von Big Data.
Aus einer größeren Zahl kluger Köpfe, die sie vorangebracht haben, seien hier in der Reihenfolge ihrer Geburtstage drei genannt, die für die Digitalisierbarkeit der Welt besonders wichtig sind. Es sind erstens der ungarisch-amerikanische Mathematiker und Vater der Spieltheorie John von Neumann (1903-1957); er spielte in den Jahren des Zweiten Weltkriegs als Computerpionier im sogenannten Manhattan-Projekt zum Bau der ersten Atombombe eine tragende Rolle und präsentierte 1946 den ersten militärisch genutzten Computer ENIAC. Als zweiter ist der deutsche Erfinder Konrad Zuse (1910-1995) zu nennen; er beschäftigte sich schon seit 1935 mit programmierbaren Computern auf der Basis binärer Zeichen und präsentierte 1941 seinen ersten Computer, konnte ihn aber nicht mit Vakuumröhren ausstatten, weil das NS-Regime Computer nicht als kriegswichtig einschätzte (Kurzweil 2012: 189). Der dritte Pionier ist der britische Logiker und Mathematiker Alan Mathison Turing (1912-1954), dessen Arbeit sogar kriegsentscheidend war, mittlerweile verfilmt wurde und uns gleich noch etwas genauer beschäftigt.
1936, ein Jahr nach Zuses Innovation, schreibt dieses englische Computergenie Alan M. Turing seinen Aufsatz „on computable numbers". Im Jahr darauf erscheint sein Text auch gedruckt (Turing 1937). Darin entwickelt er das Konzept einer Turing machine. Es ist zunächst nur eine Idee. Aber sie definiert das Arbeitsprinzip aller späteren Computer, die als Universalmaschinen mehr oder weniger schnell und elegant jedes mathematische Problem lösen können, das sich mit Algorithmen bearbeiten lässt. Turings Geniestreich versetzt die Briten während des Zweiten Weltkriegs in die Lage, mit dem Rechnersystem Colossus im Forschungszentrum Bletchley Park bei London (Hinsley/Stripp 2005) das Verschlüsselungssystem Enigma der deutschen Marine und mit ihm deren Funksprüche zu knacken. Das war der „erste große Erfolg der Informatik" (brand eins 2016) und für den Sieg der Alliierten auf See der entscheidende Durchbruch. Nach den Worten des US-Oberbefehlshabers und späteren Präsidenten Eisenhower ist es sogar der „kriegsentscheidende" Schlüssel gewesen, um den U-Boot-Krieg zu gewinnen (Ulbricht 2005). Nach dem Krieg arbeitet dieser „überragende Theoretiker der Berechenbarkeit" (Mainzer 2014a) in Großbritannien am Projekt ACE (Automatic Computing Engine) und ab 1949 an der Universität Manchester an der software für den ersten zivilen Computer Manchester Mark 1 (ibid.).
1942 stellt der science fiction-Autor Isaac Asimov seine Roboter„gesetze" vor. Sie bestehen aus drei einfachen und klaren Forderungen: Erstens: Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen wissentlich Schaden zugefügt wird. Zweitens: Er muss menschlichen Befehlen gehorchen, es sei denn, der Befehl widerspricht Punkt 1. Und er muss drittens die Existenz der Menschen beschützen, solange das nicht mit Regel 1 oder 2 kollidiert.
1943 sagen Warren McCulloch und Walter Pitts erstmals künstliche Neuronen voraus (McCulloch/Pitts 1943). Im selben Jahr baut der deutsche Erfinder Konrad Zuse seinen ersten Computer mit dem Namen Zuse 3 und legt 1945 die weltweit erste Version einer höheren Programmiersprache namens Plankalkül vor. Praktisch verwendet wird diese Sprache allerdings nicht. 1969 beschreibt er in seinem Buch „Rechnender Raum" das Universum und seine physikalischen Zustände als einen gewaltigen zellulären Automaten.
1946 wird nach dem Konzept des Mathematikers John von Neumann der erste fast vollständig frei programmierbare Computer fertiggestellt, der amerikanische Electronic Numerator, Integrator and Computer (ENIAC). Nach seinen Prinzipien arbeiten seither alle Computer. Dieser erste ENIAC gehört damals dem Militär.
Was ist da Grundlegendes passiert? „Ein Computer verlangt, dass alles aus dem kontinuierlichen Fluss unserer Alltagswirklichkeit in ein Raster von Zahlen umgewandelt wird, das als eine Darstellung der Wirklichkeit abgespeichert werden kann, die sich dann mit Hilfe von Algorithmen manipulieren lässt" (Berry 2014: 48). Fairerweise ist zu sagen: Computer selbst verlangen gar nichts. Wir programmieren sie vielmehr auf bestimmte Leistungen.
Computer und die sie verbindenden Netze galten anfangs als bloße Hilfsmittel und die „Leistung der Maschine als Diener", nicht als „ihr Beteiligter, der eine kritische Betrachtung ermöglicht" (McCarty 2009). In den letzten zehn Jahren haben viele Menschen aber zu begreifen begonnen, dass aus dem Hilfsmittel Computer in hohem Tempo ein Mit-Arbeiter und zunehmend ein Vor-Arbeiter wird. Er kann nämlich vieles bereits schneller und besser als wir. Die Technik hat im Umgang mit Daten also neue Qualitäten erzeugt. Diese Leistung nennt man üblicherweise Künstliche Intelligenz.
Schon im ausgehenden 20. Jahrhundert erwies sich, dass sich mit Computerhilfe die gesamte Welt neu organisieren lässt. Nicht zufällig kommen im Wortschatz von Computerexperten die Begriffe global, Welt und Planet signifikant häufig vor, etwa in der IBM-Initiative smarter planet, im Google-Motto „organize the world's information" oder in Google-Papieren wie etwa „web search for a planet" (Barroso et al. 2003). Auch in Überlegungen zum Computerprogramm quantum relations ist dieses Vokabular immer wieder zu finden. Quantum relations werden uns im Kapitel 3 dieses Buchs noch detailliert beschäftigen.
Dass Google das Wort Information in seinem Motto verwendet, ist gewiss gut durchdacht. Denn mit „Information" ist nicht nur gemeint, dass wir „im Zeitalter digitaler Informationsverarbeitung durch Computer leben, sondern dass wir Information überall entdecken können: So werden aus Nullen und Einsen die Datenströme sozialer Netzwerke und aus Marktplätzen ,hochkomplexe Informationssysteme' – von der Quantenphysik bis zur Evolutionstheorie, vom algorithmischen und nachrichtentechnischen Begriff zur experimentellen Hirnforschung" (Mainzer 2016b).
1950 überlegt Alan Turing, wie man feststellen kann, ob eine Maschine selbstständig unterscheiden und damit denken kann. Seine Antwort gibt er in einem Bild: Kommuniziert eine Testperson mit zwei anonymen Gesprächspartnern ohne Blickkontakt nur via Tastatur und Bildschirm und kann sie dabei nicht unterscheiden, wer von den beiden Antwortenden Mensch oder Maschine ist, dann hat die Maschine diesen Test bestanden. Heute löst dieser berühmte Test nur noch wenig Begeisterung aus. Wissenschaftler finden, er gehe am inzwischen erreichten Forschungsstand vorbei. Experten wie Francesca Rossi, KI-Forscherin an der Universität Padua, jetzt bei IBM, fordern daher neue Teststandards (Henssler 2018).
1951 nehmen die ENIAC-Pioniere (vgl. 1946) John Mauchly und John Presper Eckert ihren ersten wohnzimmergroßen und 13 Tonnen schweren zivilen Computer mit 5.200 Röhren und 18.000 ...