Categories
Erfahrungsbericht Sachbuch

Katharina Nocun – Die Daten, die ich rief

Mein digitaler Zwilling ist mir in vielem vielleicht ähnlich – aber eineiig sind wir nicht. Der Mensch ist eben mehr als die Summe seiner Daten. Und das ist auch gut so.

Ich wollte neben Game of Thrones keinen anderen Roman mehr anfangen, es sind so schon zu viele Personen und Verbindungen, die ich mir zu merken versuche. Daher griff ich als Gegengewicht zu einem Thema, das mit der gerade vorbeigegangenen PrivacyWeek in Verbindung steht. Die Journalistin und Aktivistin Katharina Nocun hat im Selbstversuch herausgefunden, was alles über sie gespeichert wird und was ihre Daten über sie verraten. Sie erklärt umfassend, wie der Datenhandel funktioniert, warum er für die beteiligten Unternehmen so lukrativ ist und warum es wichtig ist, dass wir uns nach Möglichkeit dagegen schützen. Da ich mich im Rahmen der Mitorganisation der PrivacyWeek schon länger mit dem Thema Privatsphäre und wie wir sie schützen können beschäftige, konnte ich für mich selbst keine unmittelbaren Handlungsanleitungen ableiten. Das Buch bietet jedoch eine sehr gute Übersicht darüber, in welchen Bereichen des Lebens das Datensammeln unser Leben und unsere Entscheidungen beeinflussen kann. Ein paar Aspekte möchte ich herausheben:

Es heißt, die Tarife seien freiwillig. Niemand werde gezwungen, sich für einen günstigeren Tarif durchleuchten zu lassen. Doch gerade wenn es ums Geld geht, ist die Grenze zwischen Anreiz und Zwang fließend. […] Doch wie frei kann die Entscheidung für einen solchen Überwachungstarif sein, etwa in einem Land wie den USA, wo Millionen aus Geldnot ohne Krankenversicherung leben? Überwachung wird immer zunächst an denen ausprobiert, die sich nicht wehren können. Datenschutz droht in der Praxis vom Menschenrecht zum Luxusgut zu werden, das sich Milliarden schlichtweg nicht leisten können. Das ist das Gegenteil von gerecht.

Der obige Absatz bezieht sich auf Versicherungen, die ihren Kund*innen günstigere Prämien anbieten, wenn diese zum Beispiel mittels eines Fitnesstrackers ihre Gesundheitsdaten der Versicherung zur Verfügung stellen. Es mag aktuell noch so sein, dass dies eine Option darstellt, die die Kundin auch ablehnen kann. Wenn sich aber eine Mehrheit bildet, die dieser Überwachung zustimmt, werden automatisch jene verdächtig, die sich dieser Überwachung nicht aussetzen wollen. Sie haben möglicherweise nichts zu verbergen, können aber trotzdem aufgrund ihrer Entscheidung gegen Überwachung diskriminiert werden.

Der zweite Punkt im obigen Zitat ist die Argumentation der freien Entscheidung. Google wird nicht (nur) deshalb von so vielen Menschen genutzt, weil ihre Softwaredienste so gut funktionieren, sondern weil sie (scheinbar) gratis sind. Eine E-Mail-Adresse bei einem Anbieter, der seine Kund*innen nicht überwacht (zB Posteo oder mailbox.org), kostet hingegen offensichtlich zusätzliches Geld, das viele Menschen mit ihrem knappen Budget nicht aufbringen können.

Jedes Mal, wenn von Entscheidungsfreiheit gesprochen wird, stelle ich mir ebenfalls die Frage, wie frei eine Entscheidung sein kann, sobald es um Geld geht. Entscheidungsgrundlage ist hier oft eine simple Konsequenzenanalyse. Die (möglichen) Konsequenzen der Datensammlung sind schwer vorstellbar und liegen weit in der Zukunft. Es gibt kein Gefühl des Verlusts, wenn unsere Daten von Konzernen gesammelt und verwendet werden, denn wir selbst hatten diese Daten ohnehin vorher nicht (und hätten wir sie, fehlten uns immer noch die Möglichkeiten, um sie zu unserem finanziellen Vorteil zu nutzen). Eine Rechnung mit (vielleicht) einem Monat Zahlungsziel ist hingegen ein Teil unserer Gegenwart. Wenn du eine E-Mail-Adresse brauchst, um überhaupt an bestimmten Bereichen der Gesellschaft teilzunehmen, dann wirst du nicht erst große Recherchen anstellen oder vorab Geld ausgeben, sondern zum großen Billiganbieter gehen. Weil du andere Prioritäten in deinem Leben hast: Weil du diese E-Mail-Adresse brauchst, um dich für einen Job oder eine Ausbildung zu bewerben oder ein Konto bei einem Onlinehandel anzulegen, usw.

Weiter hinten im Buch folgt das Beispiel einer Lehrerin, deren Verbeamtung abgelehnt wurde, da ihr Vater an einer vererbbaren Krankheit litt. Mit einem Gentest hätte sie beweisen sollen, dass sie selbst das Gen für diese Krankheit nicht trägt. Wo bleibt die persönliche Freiheit, wenn davon der Job abhängt?

Aus der harmlosen Information, welche Schnuller Eltern gekauft haben, kann ein Jahrzehnt später ein Risikofaktor für Erkrankungen abgeleitet werden. Angereichert mit weiteren Einflussfaktoren könnten Daten, die wir heute als harmlos betrachten, in Zukunft vielleicht darüber entscheiden, ob wir oder unsere Kinder einen guten Krankenversicherungstarif bekommen.

Wir können nicht in die Zukunft sehen. Die Informationen, die heute über uns gesammelt werden, mögen uns harmlos erscheinen oder es aktuell tatsächlich sein. Wir können jedoch nicht wissen, was in Zukunft für Konsequenzen daraus entstehen können. Die Autorin hat mit einem willkürlichen Einkauf einen Test durchgeführt, um herauszufinden, welche Informationen sich aus dem Einkaufsverhalten über Einzelpersonen ableiten lassen. Dieses Beispiel fand ich sehr eindrucksvoll. Vielleicht fängt der Konzern mit den Daten über mein Einkaufsverhalten heute nichts weiter an, als mir personalisierte Gutscheine zu schicken. Wenn derselbe Konzern aber später mit einer Versicherung kooperiert, die aus den Daten ableitet, dass ich mehr Alkohol konsumiere, als die WHO für eine Frau meiner Statur empfiehlt und mir deshalb einen Risikoaufschlag verrechnet, dann sind dies schon deutlich andere Konsequenzen als das bißchen Werbung. Ja, das wird vielleicht niemals passieren. Aber wir können es heute noch nicht wissen, was später aus unseren Daten abgelesen wird.

Statt innerhalb der Behörden, die versagt haben, Konsequenzen zu ziehen, werden Grundrechte abgebaut.

Wie sich in Österreich nach dem Terroranschlag in Wien am 2. November 2020 gerade wieder beobachten lässt, führen derartige Ereignisse immer zur Forderung nach mehr Überwachung. Dass die vorhandenen juristischen Instrumente völlig ausgereicht hätten, um diesen Anschlag zu verhindern, wird von vielen Jurist*innen bestätigt. Politisch erwächst daraus aber die Forderung nach mehr Überwachung von sogenannten Gefährdern (bewusst kursiv und nicht gegendert, da der Begriff so allgemein in den Medien verwendet wird), inklusive der Möglichkeit, diese auf unbestimmte Zeit in Sicherheitsverwahrung zu behalten. Machen wir uns bewusst: Es geht hier um Menschen, die nichts verbrochen haben. Sie sollen eingesperrt werden, allein deshalb, weil sie möglicherweise ein Verbrechen geplant haben könnten. Wenn ich jedes Mal einen Strafzettel bekommen würde, wenn ich darüber nachdenke, ob ich über diese grün blinkende Ampel noch drüberfahren kann oder nicht (und meistens fährt das Auto hinter mir dann auch noch drüber), dann würde ich wohl kaum noch Auto fahren. Das Einsperren von Menschen auf Verdacht ist einfach nicht richtig. Es widerspricht dem Artikel 1 der Allgemeinen Erklärung der Menschenrechte:

Alle Menschen sind frei und gleich an Würde und Rechten geboren. Sie sind mit Vernunft und Gewissen begabt und sollen einander im Geiste der Brüderlichkeit begegnen.


Obwohl die Daten im Einzelfall eine Fehldiagnose provozieren können, gewinnen solche Datenauswertungen zunehmend an Bedeutung. Denn auch wenn die Datenvorhersagen im Einzelfall falsch sind, so sind sie im statistischen Mittel doch erfolgreich.

Algorithmen werden vielfach benutzt, um basierend auf der Aggregation von verschiedenen Faktoren Voraussagen zu treffen. Algorithmen neigen dabei jedoch dazu, bisherige Situationen nicht nur zu erhalten sondern sogar zu verstärken. Wenn beispielsweise ein Unternehmen Bewerber*innen danach beurteilt, wie sehr sie zu den bereits im Unternehmen befindlichen Mitarbeiter*innen passen, dann werden in einem Unternehmen, in dem ohnehin schon hauptsächlich weiße Männer arbeiten, Frauen oder Menschen mit nicht-weißer Hautfarbe kaum eine Chance haben. Näheres zum Thema Bias in Algorithmen hat pascoda in ihrem Talk bei der PrivacyWeek 2018 erzählt. Erst gestern wurde eine Studie des Instituts für Technikfolgen-Abschätzung (ITA) der Österreichischen Akademie der Wissenschaften und der TU Wien im Auftrag der Arbeiterkammer Oberösterreich (AK OÖ) veröffentlicht, die zum Ergebnis kommt, dass der AMS-Algorithmus soziale Ungleichheit fördert. Das Thema ist also nach wie vor aktuell.

Die Aufgabe der Politik müsste es sein, Grenzen für die Wirtschaft zu ziehen, statt sich von Unternehmen attestieren zu lassen, dass Grundrechte abträglich für den Unternehmensgewinn wären. Entscheidend ist nicht nur die Frage, wann unsere Daten wie verarbeitet werden dürfen, sondern auch, ob es nicht Bereiche gibt, in der die Verwertungslogik des Marktes grundsätzlich nichts verloren haben sollte. Vor allem gilt es zu hinterfragen, welche Entscheidungen anhand unserer Daten überhaupt getroffen werden dürfen. Denn auch ohne dass wir es merken, werden wir schon heute längst anhand unseres Datenschattens beurteilt.

Die Politik kümmert sich mehr (oder lieber) um die Wirtschaft als um die einzelnen Bürger*innen. Auch das können wir in der aktuellen Situation (Mitte November 2020, verschärfter Lockdown für die nächsten drei Wochen) bestens beobachten. Jedes Mal, wenn ich Forderungen der Wirtschaft nach Ersatz von durch Zwangsschließungen erlittenen Verlusten höre, denke ich daran, wer das in den nächsten Jahrzehnten bezahlen wird. Das werden nämlich die einzelnen Bürger*innen mit ihren Steuern sein.

Als winzige Kritik möchte ich anmerken, dass ich mir Quellenangaben gewünscht hätte, dort, so sie verwendet wurden. Eine alphabetische Aufzählung der verwendeten Quellen im Anhang hilft mir nicht weiter, wenn ich diese eine Studie finden möchte, die als Beleg für eine Behauptung zitiert wird.

Das Buch schließt mit einem Kapitel an Praxistipps, wie wir unsere Daten in einzelnen Bereichen besser schützen können. Wer dazu mehr lesen will, findet umfangreiche Praxistipps im Buch Na und‽ Dann haben die halt meine Daten. von Klaudia Zotzmann-Koch. (Disclaimer: Ich bin mit Klaudia privat befreundet und habe bei der Erstellung dieses Buches als Testleserin unentgeltlich mitgewirkt. An den Erlösen des Buches bin ich nicht beteiligt.)

Categories
Sachbuch

Felix Stalder – Kultur der Digitalisierung

In diesem Buch analysiert Felix Stalder, Professor für Digitale Kultur an der Zürcher Hochschule der Künste, gesellschafliche Veränderungen, die ihren Ursprung in einer Erweiterung des kulturellen Lebens auf der Basis technologischer Veränderungen haben. Eine Folge der Digitalisierung ist eine Vervielfältigung der kulturellen Möglichkeiten. Immer mehr Menschen haben nun die Möglichkeiten, sich an kulturellen Prozessen zu beteiligen; dadurch erweitert sich auch das Themenspektrum, das in kulturellen Auseinandersetzungen verhandelt wird.

Als Kultur werden im Folgenden all jene Prozesse bezeichnet, in denen soziale Bedeutung, also die normative Definition der Existenz, durch singuläre und kollektive Handlungen explizit oder implizit verhandelt und realisiert wird.

Kultur ist heterogen, hybrid und nicht statisch. Kultur ist kein symbolisches Beiwerk, sondern handlungsleitend und gesellschaftsformend. Sie gibt uns einen Referenzrahmen, an dem sich unser Handeln orientiert. Dieser Referenzrahmen ist einerseits historisch gewachsen und andererseits wandelbar. Veränderungen, die sich aufgrund wachsender technologischer Möglichkeiten in kulturellen Prozessen entwickeln, sind das Thema dieses Buchs. Als wesentliche Ausdrucksformen der Kultur der Digitalität nennt der Autor Referentialität, Gemeinschaftlichkeit und Algorithmizität.

Referentialität beschreibt die vielfältigen Verbindungen, die im digitalen Raum zwischen unterschiedlichen Inhalten gezogen werden. Digitale Güter können kopiert und verändert werden ohne das Original dadurch zu entwerten oder zu zerstören. Dadurch ergeben sich neue Möglichkeiten, kulturelle Güter zu erschaffen und zu verändern.

Bedeutung wie auch Handlungsfähigkeit können nur im Austausch mit anderen stehen, sich festigen und wandeln.

Unter dem Begriff Gemeinschaftlichkeit werden viele Formen der Kommunikation verstanden, die erst durch technologische Unterstützung möglich werden. Die Kultur der Digitalität manifestiert sich zu einem wesentlichen Teil in digitaler Kommunikation. Kommunikation ist ein konstitutives Element der sozialen Existenz. Bedeutung kann von einzelnen Personen zwar behauptet werden; damit sie aber Kultur werden kann, muss sie von anderen bestätigt werden. Als Paradebeispiel wird die Enzyklopädie Wikipedia genannt. Das gemeinschaftliche Arbeiten an einem Projekt dieser Größenordnung ist erst durch die weltweite Vernetzung mittels Internet möglich geworden. Der Autor sieht aber auch eine Gemeinsamkeit der Kultur der Digitalität mit der traditionellen Volkskultur:

Die aktive Teilnahme verlangt zwar eine gewisse Fertigkeit, ein gewisses Interesse und Engagement, meist aber kein außergewöhnliches Talent.

Algorithmizität beschreibt die Tatsache, dass viele dieser kulturellen Prozesse überhaupt nur möglich werden, weil Daten durch Algorithmen analysiert werden. Menschen sind dazu entweder nicht in der Lage oder es würde viel zu lange dauern, die wesentlichen Informationen aus den angehäuften Datenbergen zu extrahieren. Die Rolle der Algorithmen hat eine helle und eine dunkle Seite (und ein unendliches Spektrum an Grautönen dazwischen). Algorithmen helfen uns, wesentliche Informationen zu extrahieren und diese weiterzuverarbeiten; sie können aber auch zu Benachteiligungen führen, die kaum noch nachvollziehbar sind (Einen interessanten Talk dazu gab es bei der Privacyweek 2018: Bias in Algorithmen von pascoda).

Für jede Person wird eine andere Ordnung erstellt und nicht mehr nur ein Ausschnitt einer vorgängig bestehenden Ordnung angezeigt.

Als Beispiel dafür wird im Buch der Google-Suchalgorithmus und seine Veränderungen seit der Entwicklung besprochen. Der aktuelle Suchalgorithmus stützt sich auf die analysierten Präferenzen der Nutzer*innen, die aus vorherigen Suchanfragen abgespeichert wurden. Das „verbessert“ einerseits subjektiv gesehen die Ergebnisse, schließt aber andererseits Ergebnisse aus, die ebenfalls interessant sein könnten, aber nicht zu den bisher gesuchten Dingen passen. Daraus entsteht ein Tunnelblick, der die Nutzer*innen in ihrer eigenen Welt einsperrt und den Blick über den Tellerrand unmöglich macht. Für jede*n individuelle*n Nutzer*in wird eine eigene, singulare Welt erschaffen.

Die Welt wird nicht mehr repräsentiert; sie wird für jeden User eigens generiert und anschließend präsentiert.

Dieses Phänomen bezeichnet Stalder als „Daten-Behaviorismus“. Algorithmen erfassen Menschen rein aufgrund ihrer messbaren Reiz-Reaktions-Beziehungen (damit ist das Online-Verhalten gemeint). Der Mensch selbst ist dabei eine Black Box im Sinne des klassischen Behaviorismus. Bewusstsein, Wahrnehmung oder Intention spielen für Algorithmen keine Rolle. Diese Theorie lässt sich auch auf die gesamte Gesellschaft ausweiten, die somit zu einer „Black-Box-Gesellschaft“ wird:

Immer mehr soziale Prozesse werden mithilfe von Algorithmen gesteuert, deren Funktionsweise nicht nachvollziehbar ist, weil sie systematisch von der Außenwelt und damit von demokratischer Kontrolle abgeschirmt werden.

Einerseits können wir also zunehmend von den vielfältigen Möglichkeiten der digitalen Kultur profitieren. Andererseits sollten wir uns aber nicht von der Netzwerkmacht dazu zwingen lassen, Dinge zu tun, die wir eigentlich nicht tun wollen. Die Open-Source-Bewegungen gehen dabei seit Langem ihren eigenen Weg. Nur wenn Algorithmen öffentlich einsehbar sind, können sie auch einer demokratischen Kontrolle unterzogen werden. Einen wichtigen Beitrag leisten auch die Open-Access-Angebote. Nur, wenn wir auch Zugriff auf Daten und Informationen haben, können wir informierte Entscheidungen treffen und uns als mündige Menschen in der Kultur der Digitalität bewegen:

[…] der freie Zugang zu Daten ist eine notwendige Bedingung für autonomes Handeln in der Kultur der Digitalität.

Fun Fact: Ich hätte das aus meinem Erststudium wissen können, kann mich aber nicht erinnern, vorher jemals gehört oder gelesen zu haben, woher der Begriff „Algorithmus“ stammt:

Der Begriff »Algorithmus« geht auf den im heutigen Usbekistan geborenen Mathematiker, Astronomen und Geografen Muhammad Ibn-Mūsā al Ḥwārizmī zurück. Sein um 825 in Bagdad verfasstes Lehrbuch Über das Rechnen mit indischen Ziffern wurde in lateinischen Übersetzungen im Mittelalter breit rezipiert […]. Das Buch beginnt mit der Formel dixit algorizmi … (»Algorismi hat gesagt …«). Im Mittelalter wurde algorizmi oder algorithmi bald zu einem allgemeinen Begriff für avancierte Rechenoperationen.

Categories
Sachbuch

Hannah Fry – Hello World

Understanding our own flaws and weaknesses – as well as those of the machine – is the key to remaining in control.

Dieses Buch sammelt den aktuellen Stand der algorithmischen Technik und Forschung. An unzähligen Beispielen aus verschiedenen Bereichen erklärt die Autorin, wie Algorithmen funktionieren, wo sie gute Resultate liefern können, woran sie in der Vergangenheit gescheitert sind und woran sie in der Zukunft vermutlich auch noch scheitern werden. Eines der wichtigsten Themen ist jedoch das Verhältnis zwischen Mensch und Computer. Die Ergebnisse, die uns ein Computer (und der dahinterstehende Algorithmus) liefert, werden von Menschen kaum hinterfragt. Zitiert werden dazu etwa Forschungsergebnisse, die zeigen, wie durch gezielte Anordnung von Suchmaschinenergebnissen Wahlentscheidungen beeinflusst werden konnten.

It’s just this bias we all have for computerized results – we don’t question them.

Die erste Supermarkt-Kundenkarte hat Tesco erfunden. Damals wurde nicht gesammelt, WAS die Kunden einkaufen, sondern nur wann sie einkaufen und wieviel Geld sie dabei ausgeben. Allein daraus konnte Tesco schon so viele Schlüsse ziehen, dass sie mit gezielter Werbung ihre Kunden dazu verleiten konnten, noch mehr Geld auszugeben. Kein Wunder, dass heutzutage keine Einzelhandelskette mehr ohne Kundenkarte auskommen will.

Look carefully enough at someone’s shopping habits and they’ll often reveal all kinds of detail about who they are as a person.

Auch das Surfverhalten von Personen wird von unzähligen Trackern überwacht und aufgezeichnet (um dem entgegenzuwirken empfehlen sich Ad- und Tracking-Blocker wie zum Beispiel Ghostery). Die Autorin erklärt an einem sehr anschaulichen Beispiel, dass Surfverhalten und Browser Histories sehr einfach de-anonymisiert werden können. Es reicht eine einzige Webseite mit einem Login in einer Browser History, um die gesamte History einer Person zuordnen zu können.

That was the deal that we made. Free technology in return for our data and the ability to use it to influence and profit from you.

Ausführlich erklärt wird auch eine Studie, in der Forscher*innen aus einer Kombination von (freiwilligen) Persönlichkeitstests auf Facebook und der Auswertung von Likes ein Modell entwickelt haben, indem sie aus den Facebook-Likes auf die Persönlichkeit einer Person schließen können. Eine ausreichend große initiale Menge von Personen (Stichprobe), die ihre Daten freiwillig hergeben, genügt, um daraus Regeln abzuleiten und Schlüsse auf andere Personen, die ihre Daten nicht in dieser Form freigegeben haben, ziehen zu können.

The entire history and practice of modern medicine is built on the finding of patterns in data.

Im medizinischen Bereich werden Algorithmen schon seit Längerem genutzt, um etwa Zellbiopsien auf krankhafte Veränderungen zu untersuchen. Die Debatte um selbstfahrende Autos und wie diese entscheiden (sollen), wenn es darum geht, welche Menschenleben gerettet werden sollen, wurde in den Medien vergleichsweise ausführlich geführt. Und auch im Bereich der Verbrechensprävention werden Algorithmen eingesetzt. Die ursprüngliche Idee bestand darin, Verbrechen auf Karten zu vermerken und dadurch Orte zu finden, an denen sich Verbrechen häufen. Dort können dann durch stärkere Polizeipräsenz entweder Verbrechen verhindert werden oder durch schnelle Reaktion die Täter gefasst werden. Im Podcast Reply All wurde darüber auch in einer Doppelfolge berichtet.

How good is good enough? Once you’ve built a flawed algorithm that can calculate something, should you let it?

Bei all diesen Anwendungsbereichen stellt sich jedoch die Frage: wie gut kann und muss ein Algorithmus sein, um bessere Entscheidungen zu treffen, als Menschen sie treffen würden? Wieviel Fehler ist akzeptabel? Was sind die Konsequenzen? Wie viele unnötige Mastektomien werden gemacht, weil ein Algorithmus Krebszellen diagnostiziert hat, die eigentlich gesund waren? Welche Folgen ergeben sich daraus, dass Menschen sich auf den Autopilot ihres Fahrzeugs verlassen? Wie viele unschuldige Leben sind es wert, dass mehr Schuldige gefasst werden?

What about innocent until proven guilty?

Alle diese Fragen werden aktuell zu wenig bedacht, es wird geforscht und umgesetzt, was technisch möglich ist und womit sich Geld verdienen lässt. Die Entscheidung, welche Daten wir preisgeben, kann nicht allein den Konsumenten überlassen werden. So lange Algorithmen als Betriebsgeheimnis gelten und nicht nachvollzogen werden kann, wie Algorithmen tatsächlich Daten verarbeiten und Entscheidungen treffen, ist eine informierte Entscheidung von Einzelpersonen gar nicht möglich. Wir brauchen gesetzliche Regulierungen und Kontrollmechanismen, die den Missbrauch von Daten verhindern (und damit meine ich nicht etwas so Lästiges und Ineffektives wie Cookie-Warnungen). Vor allem aber brauchen wir das Bewusstsein, dass Computer und Algorithmen nicht allmächtig sind, dass sie fehlerhaft sind und dass ihre Entscheidungen daher auch fehlerhaft sein können.

But how do you decide on that trade-off between privacy and protection, fairness and safety? […] Is that a price we’re willing to pay to reduce crime?

Einen interessanten Vortrag zum Thema Bias in Algorithmen gab es von pascoda im Rahmen der PrivacyWeek 2018.