Categories
Erfahrungsbericht Sachbuch

Katharina Nocun – Die Daten, die ich rief

Mein digitaler Zwilling ist mir in vielem vielleicht ähnlich – aber eineiig sind wir nicht. Der Mensch ist eben mehr als die Summe seiner Daten. Und das ist auch gut so.

Ich wollte neben Game of Thrones keinen anderen Roman mehr anfangen, es sind so schon zu viele Personen und Verbindungen, die ich mir zu merken versuche. Daher griff ich als Gegengewicht zu einem Thema, das mit der gerade vorbeigegangenen PrivacyWeek in Verbindung steht. Die Journalistin und Aktivistin Katharina Nocun hat im Selbstversuch herausgefunden, was alles über sie gespeichert wird und was ihre Daten über sie verraten. Sie erklärt umfassend, wie der Datenhandel funktioniert, warum er für die beteiligten Unternehmen so lukrativ ist und warum es wichtig ist, dass wir uns nach Möglichkeit dagegen schützen. Da ich mich im Rahmen der Mitorganisation der PrivacyWeek schon länger mit dem Thema Privatsphäre und wie wir sie schützen können beschäftige, konnte ich für mich selbst keine unmittelbaren Handlungsanleitungen ableiten. Das Buch bietet jedoch eine sehr gute Übersicht darüber, in welchen Bereichen des Lebens das Datensammeln unser Leben und unsere Entscheidungen beeinflussen kann. Ein paar Aspekte möchte ich herausheben:

Es heißt, die Tarife seien freiwillig. Niemand werde gezwungen, sich für einen günstigeren Tarif durchleuchten zu lassen. Doch gerade wenn es ums Geld geht, ist die Grenze zwischen Anreiz und Zwang fließend. […] Doch wie frei kann die Entscheidung für einen solchen Überwachungstarif sein, etwa in einem Land wie den USA, wo Millionen aus Geldnot ohne Krankenversicherung leben? Überwachung wird immer zunächst an denen ausprobiert, die sich nicht wehren können. Datenschutz droht in der Praxis vom Menschenrecht zum Luxusgut zu werden, das sich Milliarden schlichtweg nicht leisten können. Das ist das Gegenteil von gerecht.

Der obige Absatz bezieht sich auf Versicherungen, die ihren Kund*innen günstigere Prämien anbieten, wenn diese zum Beispiel mittels eines Fitnesstrackers ihre Gesundheitsdaten der Versicherung zur Verfügung stellen. Es mag aktuell noch so sein, dass dies eine Option darstellt, die die Kundin auch ablehnen kann. Wenn sich aber eine Mehrheit bildet, die dieser Überwachung zustimmt, werden automatisch jene verdächtig, die sich dieser Überwachung nicht aussetzen wollen. Sie haben möglicherweise nichts zu verbergen, können aber trotzdem aufgrund ihrer Entscheidung gegen Überwachung diskriminiert werden.

Der zweite Punkt im obigen Zitat ist die Argumentation der freien Entscheidung. Google wird nicht (nur) deshalb von so vielen Menschen genutzt, weil ihre Softwaredienste so gut funktionieren, sondern weil sie (scheinbar) gratis sind. Eine E-Mail-Adresse bei einem Anbieter, der seine Kund*innen nicht überwacht (zB Posteo oder mailbox.org), kostet hingegen offensichtlich zusätzliches Geld, das viele Menschen mit ihrem knappen Budget nicht aufbringen können.

Jedes Mal, wenn von Entscheidungsfreiheit gesprochen wird, stelle ich mir ebenfalls die Frage, wie frei eine Entscheidung sein kann, sobald es um Geld geht. Entscheidungsgrundlage ist hier oft eine simple Konsequenzenanalyse. Die (möglichen) Konsequenzen der Datensammlung sind schwer vorstellbar und liegen weit in der Zukunft. Es gibt kein Gefühl des Verlusts, wenn unsere Daten von Konzernen gesammelt und verwendet werden, denn wir selbst hatten diese Daten ohnehin vorher nicht (und hätten wir sie, fehlten uns immer noch die Möglichkeiten, um sie zu unserem finanziellen Vorteil zu nutzen). Eine Rechnung mit (vielleicht) einem Monat Zahlungsziel ist hingegen ein Teil unserer Gegenwart. Wenn du eine E-Mail-Adresse brauchst, um überhaupt an bestimmten Bereichen der Gesellschaft teilzunehmen, dann wirst du nicht erst große Recherchen anstellen oder vorab Geld ausgeben, sondern zum großen Billiganbieter gehen. Weil du andere Prioritäten in deinem Leben hast: Weil du diese E-Mail-Adresse brauchst, um dich für einen Job oder eine Ausbildung zu bewerben oder ein Konto bei einem Onlinehandel anzulegen, usw.

Weiter hinten im Buch folgt das Beispiel einer Lehrerin, deren Verbeamtung abgelehnt wurde, da ihr Vater an einer vererbbaren Krankheit litt. Mit einem Gentest hätte sie beweisen sollen, dass sie selbst das Gen für diese Krankheit nicht trägt. Wo bleibt die persönliche Freiheit, wenn davon der Job abhängt?

Aus der harmlosen Information, welche Schnuller Eltern gekauft haben, kann ein Jahrzehnt später ein Risikofaktor für Erkrankungen abgeleitet werden. Angereichert mit weiteren Einflussfaktoren könnten Daten, die wir heute als harmlos betrachten, in Zukunft vielleicht darüber entscheiden, ob wir oder unsere Kinder einen guten Krankenversicherungstarif bekommen.

Wir können nicht in die Zukunft sehen. Die Informationen, die heute über uns gesammelt werden, mögen uns harmlos erscheinen oder es aktuell tatsächlich sein. Wir können jedoch nicht wissen, was in Zukunft für Konsequenzen daraus entstehen können. Die Autorin hat mit einem willkürlichen Einkauf einen Test durchgeführt, um herauszufinden, welche Informationen sich aus dem Einkaufsverhalten über Einzelpersonen ableiten lassen. Dieses Beispiel fand ich sehr eindrucksvoll. Vielleicht fängt der Konzern mit den Daten über mein Einkaufsverhalten heute nichts weiter an, als mir personalisierte Gutscheine zu schicken. Wenn derselbe Konzern aber später mit einer Versicherung kooperiert, die aus den Daten ableitet, dass ich mehr Alkohol konsumiere, als die WHO für eine Frau meiner Statur empfiehlt und mir deshalb einen Risikoaufschlag verrechnet, dann sind dies schon deutlich andere Konsequenzen als das bißchen Werbung. Ja, das wird vielleicht niemals passieren. Aber wir können es heute noch nicht wissen, was später aus unseren Daten abgelesen wird.

Statt innerhalb der Behörden, die versagt haben, Konsequenzen zu ziehen, werden Grundrechte abgebaut.

Wie sich in Österreich nach dem Terroranschlag in Wien am 2. November 2020 gerade wieder beobachten lässt, führen derartige Ereignisse immer zur Forderung nach mehr Überwachung. Dass die vorhandenen juristischen Instrumente völlig ausgereicht hätten, um diesen Anschlag zu verhindern, wird von vielen Jurist*innen bestätigt. Politisch erwächst daraus aber die Forderung nach mehr Überwachung von sogenannten Gefährdern (bewusst kursiv und nicht gegendert, da der Begriff so allgemein in den Medien verwendet wird), inklusive der Möglichkeit, diese auf unbestimmte Zeit in Sicherheitsverwahrung zu behalten. Machen wir uns bewusst: Es geht hier um Menschen, die nichts verbrochen haben. Sie sollen eingesperrt werden, allein deshalb, weil sie möglicherweise ein Verbrechen geplant haben könnten. Wenn ich jedes Mal einen Strafzettel bekommen würde, wenn ich darüber nachdenke, ob ich über diese grün blinkende Ampel noch drüberfahren kann oder nicht (und meistens fährt das Auto hinter mir dann auch noch drüber), dann würde ich wohl kaum noch Auto fahren. Das Einsperren von Menschen auf Verdacht ist einfach nicht richtig. Es widerspricht dem Artikel 1 der Allgemeinen Erklärung der Menschenrechte:

Alle Menschen sind frei und gleich an Würde und Rechten geboren. Sie sind mit Vernunft und Gewissen begabt und sollen einander im Geiste der Brüderlichkeit begegnen.


Obwohl die Daten im Einzelfall eine Fehldiagnose provozieren können, gewinnen solche Datenauswertungen zunehmend an Bedeutung. Denn auch wenn die Datenvorhersagen im Einzelfall falsch sind, so sind sie im statistischen Mittel doch erfolgreich.

Algorithmen werden vielfach benutzt, um basierend auf der Aggregation von verschiedenen Faktoren Voraussagen zu treffen. Algorithmen neigen dabei jedoch dazu, bisherige Situationen nicht nur zu erhalten sondern sogar zu verstärken. Wenn beispielsweise ein Unternehmen Bewerber*innen danach beurteilt, wie sehr sie zu den bereits im Unternehmen befindlichen Mitarbeiter*innen passen, dann werden in einem Unternehmen, in dem ohnehin schon hauptsächlich weiße Männer arbeiten, Frauen oder Menschen mit nicht-weißer Hautfarbe kaum eine Chance haben. Näheres zum Thema Bias in Algorithmen hat pascoda in ihrem Talk bei der PrivacyWeek 2018 erzählt. Erst gestern wurde eine Studie des Instituts für Technikfolgen-Abschätzung (ITA) der Österreichischen Akademie der Wissenschaften und der TU Wien im Auftrag der Arbeiterkammer Oberösterreich (AK OÖ) veröffentlicht, die zum Ergebnis kommt, dass der AMS-Algorithmus soziale Ungleichheit fördert. Das Thema ist also nach wie vor aktuell.

Die Aufgabe der Politik müsste es sein, Grenzen für die Wirtschaft zu ziehen, statt sich von Unternehmen attestieren zu lassen, dass Grundrechte abträglich für den Unternehmensgewinn wären. Entscheidend ist nicht nur die Frage, wann unsere Daten wie verarbeitet werden dürfen, sondern auch, ob es nicht Bereiche gibt, in der die Verwertungslogik des Marktes grundsätzlich nichts verloren haben sollte. Vor allem gilt es zu hinterfragen, welche Entscheidungen anhand unserer Daten überhaupt getroffen werden dürfen. Denn auch ohne dass wir es merken, werden wir schon heute längst anhand unseres Datenschattens beurteilt.

Die Politik kümmert sich mehr (oder lieber) um die Wirtschaft als um die einzelnen Bürger*innen. Auch das können wir in der aktuellen Situation (Mitte November 2020, verschärfter Lockdown für die nächsten drei Wochen) bestens beobachten. Jedes Mal, wenn ich Forderungen der Wirtschaft nach Ersatz von durch Zwangsschließungen erlittenen Verlusten höre, denke ich daran, wer das in den nächsten Jahrzehnten bezahlen wird. Das werden nämlich die einzelnen Bürger*innen mit ihren Steuern sein.

Als winzige Kritik möchte ich anmerken, dass ich mir Quellenangaben gewünscht hätte, dort, so sie verwendet wurden. Eine alphabetische Aufzählung der verwendeten Quellen im Anhang hilft mir nicht weiter, wenn ich diese eine Studie finden möchte, die als Beleg für eine Behauptung zitiert wird.

Das Buch schließt mit einem Kapitel an Praxistipps, wie wir unsere Daten in einzelnen Bereichen besser schützen können. Wer dazu mehr lesen will, findet umfangreiche Praxistipps im Buch Na und‽ Dann haben die halt meine Daten. von Klaudia Zotzmann-Koch. (Disclaimer: Ich bin mit Klaudia privat befreundet und habe bei der Erstellung dieses Buches als Testleserin unentgeltlich mitgewirkt. An den Erlösen des Buches bin ich nicht beteiligt.)