von Wolfgang Brauer
Das IT-Wirtschaftsmagazin CIO informierte im Juli 2011, dass sich die Anzahl der weltweit erzeugten Datenmengen nach einer Studie der International Data Corporation (IDC) im Jahre 2011 um 1,8 Zettabyte, also 1,8 Billionen Gigabyte, erhöhen werde. Auch CIO hatte erhebliche Schwierigkeiten, seinen Lesern dieses Volumen einigermaßen begreifbar zu machen und suchte Vergleiche dergestalt, dass man 57,5 Milliarden Apple iPads mit jeweils 32 Gigabyte Speicher benötigen würde, um diese Daten abspeichern zu können. Wer das immer noch nicht versteht: Mit den Geräten könnte man, so das Magazin, eine 31 Meter hohe Mauer zwischen Lissabon und Moskau errichten. Damit nicht genug. Nach Einschätzung der IDC verdoppelt sich das weltweite Datenvolumen alle zwei Jahre. Die Analysten der Firma prognostizieren, dass bis 2020 das 50fache der gegenwärtigen Datenmengen verwaltet werden müsse und die Zahl der Dateien und Container für Informationen auf das 75fache anwachse, „weil immer mehr Embedded-Systeme wie zum Beispiel Sensoren in Kleidung, Brücken oder medizinischen Geräten Daten produzieren“.
Diese Embedded-Systeme – also Rechner, die in einem anderen technischen Kontext eingebunden sind, wie PKW, Flugzeug, MRT-Gerät oder Mobiltelefon – zeigen vortrefflich die Janusköpfigkeit der modernen IT-Systeme auf. Ich kann es als hilfreich empfinden, wenn mein Kühlschrank seinen Inhalt hinsichtlich des Zustandes der Nahrungsmittel selbst überwacht und mir auf dem iPhone mitteilt, dass die Tomaten anfangen zu vergammeln und die Butter alle ist. Denkbar ist inzwischen aber auch, dass diese Informationen von einem Dritten „gesammelt“ und aufbereitet für diverse Einkaufs-, Werbe- oder Logistikoperationen der Wirtschaft genutzt werden können. Gegen meinen Willen, wobei die angemessene Belieferung der Supermärkte – falsch: „meines“ Supermarktes, das Superhirn, das sich meiner Daten bedient, kennt sowohl diesen als auch mein Kaufverhalten… – mit der Frischware, die ich zu einem bestimmten Zeitpunkt benötige noch irgendwie argumentierbar wäre.
Diese gigantischen Datenmengen, die teilweise auf scheinbar banalste Art und Weise zusammenkommen – alles, aber auch alles kann und wird heute gespeichert – werden von den Fachleuten als „Big Data“ bezeichnet. Big Data hat ein Wesensmerkmal: Mit Hilfe von Standard-Datenbanken und den üblichen Datenmanagement-Tools sind seine gewaltigen Datenmengen nicht oder nur noch sehr unzureichend beherrsch- und verarbeitbar. Gefordert sind sehr komplexe Verarbeitungssysteme mit einer Software, die es ermöglicht, dass hunderte bis tausende Prozessoren beziehungsweise Server auf der Basis spezifisch entwickelter Algorithmen miteinander kommunizieren. Der österreichische Autor Rudi Klausnitzer beschreibt solche Systeme und den Weg, der zu ihrer Entwicklung führte, auf faszinierende Weise in seinem Buch „Das Ende des Zufalls. Wie Big Data uns und unser Leben vorhersehbar macht“.
Klausnitzers Ausgangsthese ist ein von ihm behauptetes sehr grundsätzliches menschliches Unbehagen: „Wir haben eine Aversion gegen das Überraschtwerden, gegen den unliebsamen Zufall.“ Diesen könne man, wenn schon nicht heute, so doch in nicht mehr allzu ferner Zeit ausschalten. „Wir befinden uns auf dem Weg von einer total vernetzten zu einer immer mehr vorausberechenbaren Gesellschaft. Immer mehr Systeme versuchen durch Prognosen und Analysen den Zufall als nicht vorhersehbaren Störfall auszuschalten.“ Rudi Klausnitzer findet schöne Beispiele, wie im Bereich der Gesundheitsvorsorge oder der Kriminaliätsbekämpfung durch solche Systeme statistische Erfolge vermeldet werden konnten. Im us-amerikanischen Memphis konnten zum Beispiel durch „Predictive Policing“ in den ersten drei Tagen nach der Einführung dieses einsatzsteuernden Modells 1.200 Verhaftungen, ein Vielfaches des sonst Üblichen, vorgenommen werden. Das hört sich auf den ersten Moment positiv an, die exorbitante Steigerung von Verhaftungen und sicherlich auch von nachfolgenden Verurteilungen beseitigt allerdings mitnichten die Wurzeln der Kriminalität.
Noch bedenklicher ist die inzwischen sehr reale Möglichkeit, über Smartphone-Sensoren mithilfe spezieller Apps individuelle Bewegungsprofile mit entsprechenden Prognosen zu erstellen. Missbrauchspotenziale sind diesen Systemen immanent: „Nach wie vor gibt es aber unzählige Apps, die Daten für ganz andere Zwecke nutzen, als für die sie eigentlich gegeben wurden“, räumt Klausnitzer im Zusammenhang mit der Beschreibung einer perversen App namens „Girls around me“ ein, die im Jahre 2012 für Unruhe sorgte. Diese App sorgte dafür, dass Männern die Fotos und Persönlichkeitsprofile von Frauen, die sich in ihrer Nähe aufhielten, auf einer Karte dargestellt wurden. Verwendet wurden dazu Daten aus Facebook und Foursquare. Auch wenn durch solche Systeme, deren genaue Algorithmen durch die Anbieter in den wenigstens Fällen zugänglich gemacht werden, schwer kontrollierbar in die Grauzone kriminellen Missbrauches vorgestoßen werden kann: Das ist nur die Spitze des Eisberges.
Klausnitzer widmet in seinem Buch relativ breiten Raum der Darstellung algorithmengestützter Wirtschaftstätigkeit – bis hin zum in Nanosekunden ablaufenden elektronischen Hochfrequenzhandel. Auf dessen Risiken weist er durch die Beschreibung des dramatischen Dow-Jones-Absturzes um fast 1.000 Punkte am 6. Mai 2010 hin. Durch „die verstärkende Wirkung des automatisierten Zusammenspiels der Algorithmen der unterschiedlichen Händler-Systeme“ wurde eine von diesen Algorithmen ausgelöste Abwärtsspirale der Kurse ausgelöst, die binnen weniger Minuten zur Vernichtung von Marktwerten im Umfange von einer Billion Dollar führte. Nun war dies der Extremfall einer Fehlerrechnung – das Beispiel macht aber auch deutlich, dass inzwischen globale Finanzentscheidungen in kürzester Zeit von maschinellen Systemen getroffen werden können, die durch menschliche Eingriffe kaum noch korrigierbar sind.
All das ist nicht besonders neu, und IT-Kundige ahnen schon seit längerem, was da auf uns zurollt. Die Dimensionen sind neu. Rudi Klausnitzer ist es zu danken, dass er in einem auch für weniger eingeweihte Leser gut nachvollziehbar geschriebenen Buch die entsprechenden Zusammenhänge aufbereitet. Über weite Abschnitte gerät er allerdings in regelrechte Verzückung über die technischen Möglichkeiten, die sich der Menschheit durch die Nutzung von Big Data auftun könnten – um wenig später vom Grusel geschüttelt zu werden angesichts sich heute schon abzeichnender Negativentwicklungen: „Wir haben in großen Teilen der Gesellschaft und auch der Politik noch nicht einmal das Verständnis dafür, was da technologisch überhaupt abläuft (…). Geschweige denn eine Vorstellung, wie wir das gesellschaftspolitisch regeln werden.“ Im Gesundheitswesen beträgt der Datenzuwachs 40 bis 50 Prozent pro Jahr. Diese Daten, mit einem entsprechenden Algorithmus aufbereitet, könnten meiner Krankenkasse die Möglichkeit geben, mir wirksamere Präventiv-Medikamente nahezulegen, als mein Arzt es vermag. Die Kasse könnte aber auch den Hinweis erhalten, dass es für sie lohnender wäre, das Vertragsverhältnis mit mir aufzukündigen. Aufgrund des von mir als „Kunden“ nicht beherrschbaren Eigenlebens meiner Daten in der „Cloud“ von Big Data wird mich aber keine andere Versicherung mehr aufnehmen und mir bliebe nichts anderes übrig, als mich langsam auf das Sterben vorzubereiten. Allerdings würde ich mit großer Sicherheit von diesem Zeitpunkt an diverse „helfende“ Angebote der Sterbeindustrie im realen oder virtuellen Briefkasten vorfinden.
„Big Data eröffnet Möglichkeiten des informationellen Machtmissbrauchs durch Manipulation, Diskriminierung und informationelle ökonomische Ausbeutung – verbunden mit der Verletzung der Grundrechte der Menschen“, so der schleswig-holsteinische Datenschutzbeauftragte Thilo Weichert am 19. März 2013 auf einer Veranstaltung der Initiative D21 und des Fraunhofer-Verbundes IuK-Technologie in Berlin. Weichert: „Die informationellen Schätze dürfen mit Big Data nur gehoben werden, wenn eine Technikfolgenabschätzung die Verträglichkeit mit Grundrechten und demokratischen Grundsätzen feststellt und ein gesellschaftlicher Konsens hierüber erreicht wird. In der Erforschung und Entwicklung dieser Rahmenbedingungen liegt eine große Chance für Deutschland, da alle Demokratien auf datenschutzgerechte Lösungen angewiesen sind.“
Für Rudi Klausnitzer steht fest, das es höchste Zeit ist, sich mit diesen Fragen auseinanderzusetzen: „Der Geist ist aus der Flasche!“ Und Aladin – das wäre hinzuzufügen – scheint immer noch nicht begriffen zu haben, was er da angerichtet hat…
Rudi Klausnitzer: Das Ende des Zufalls. Wie Big Data uns und unser Leben vorhersehbar macht, Ecowin Verlag, Salzburg 2013, 232 Seiten, 21,90 Euro.
Schlagwörter: Big Data, Datenschutz, IT, Rudi Klausnitzer, Wolfgang Brauer