Categories
Roman Science Fiction

Philip K. Dick – Blade Runner

CN dieses Buch: Mord, Gewalt gegen Menschen und Tiere, Depression
CN dieser Post: Depression


Empathie existierte offenbar nur in der menschlichen Rasse, während man Intelligenz bis zu einem gewissen Grad bei jeder Art und jedem Stamm von Lebewesen bis hinunter zu den Spinnen antraf.

Meine Erinnerung an die Verfilmung mit Harrison Ford und Rutger Hauer aus dem Jahr 1982 ist mangelhaft. Mehr in Erinnerung ist mir der Blog Post von Typeset in the future, der sich intensiv mit der verwendeten Typographie, aber auch mit einigen anderen Unklarheiten des Films befasst.

Das Buch selbst befasst sich im Prinzip mit der Frage, was einen Menschen eigentlich menschlich macht. Androiden, also humanoide Roboter, werden einem Empathietest unterzogen. Sie sollen als moderne Sklaven dienen; wenn sie entkommen, werden sie von Prämienjägern gejagt. Der Empathietest ist neben einer Knochenmarksanalyse die einzige Methode, um mit relativer Sicherheit einen Androiden von einem Menschen unterscheiden zu können. Der Empathietest beinhaltet hauptsächlich Fragen zu Tieren, die rar und teuer sind in dieser Zukunftswelt, die durch Kriege gezeichnet sind. Was unterscheidet den Menschen vom Tier? Was unterscheidet den humanoiden Roboter vom Menschen? Ist ein Mensch, der seine Gefühlswelt von einer Einswerdungsbox (der unklar ausgearbeitete religiöse Teil scheint in der Verfilmung nicht vorzukommen, jedenfalls kommt die Person Mercer in der Cast-Liste nicht vor) oder einer Stimmungsorgel steuern lässt, tatsächlich noch menschlicher als ein Roboter?

Bis jetzt hatte er noch nie über die Ähnlichkeit zwischen einem elektrischen Schaf und einem Androiden nachgedacht. Das elektrische Tier, überlegte er, konnte als unterentwickelte Form des andern betrachtet werden, als eine Art minderwertiger Roboter.

Das Ende des Buchs betrachtend kann ich mir nicht vorstellen, dass in der Verfilmung nicht einiges geändert wurde. In dieser Form, die ich hier gelesen habe, scheint das Buch eher komplett unverfilmbar zu sein. Vielleicht werde ich mir den Film bei Gelegenheit nochmal ansehen.

Vielleicht könnte daraus eine Depression werden wie bei dir. Ich kann verstehen, wie du unter dem Gefühl leidest. Ich habe immer geglaubt, das mache dir Spaß, und du könntest dieses Gefühl nach Belieben abstellen, wenn schon nicht aus eigener Kraft, dann doch zumindest mit Hilfe der Stimmungsorgel. Aber wenn man so bedrückt ist, dann wird einem alles gleichgültig, weil man keinen Wertmaßstab mehr hat.

Nochmal kurz zurück zum Thema Stimmungsorgel und mentale/psychische Gesundheit: Nein, ein Depressionsgefühl lässt sich nicht beliebig abstellen. Nein, es macht keinen Spaß. Es ist nicht mal ein richtiges Gefühl, das sich beschrieben ließe, es ist mehr wie Eifersucht, die sich in unterschiedlichen Gefühlen (Verlustangst, Ärger, Minderwertigkeit, etc.) äußern kann. Die Gleichgültigkeit, dieses Gefühl, nichts zu wollen und nichts zu können, lässt sich nicht abstellen, Betroffene sind mehr oder weniger hilflos. Wer sich darüber informieren möchte, der*dem empfehle ich das Buch Der Schwarze Hund von Matthew Johnstone.

Categories
Sachbuch

Hannah Fry – Hello World

Understanding our own flaws and weaknesses – as well as those of the machine – is the key to remaining in control.

Dieses Buch sammelt den aktuellen Stand der algorithmischen Technik und Forschung. An unzähligen Beispielen aus verschiedenen Bereichen erklärt die Autorin, wie Algorithmen funktionieren, wo sie gute Resultate liefern können, woran sie in der Vergangenheit gescheitert sind und woran sie in der Zukunft vermutlich auch noch scheitern werden. Eines der wichtigsten Themen ist jedoch das Verhältnis zwischen Mensch und Computer. Die Ergebnisse, die uns ein Computer (und der dahinterstehende Algorithmus) liefert, werden von Menschen kaum hinterfragt. Zitiert werden dazu etwa Forschungsergebnisse, die zeigen, wie durch gezielte Anordnung von Suchmaschinenergebnissen Wahlentscheidungen beeinflusst werden konnten.

It’s just this bias we all have for computerized results – we don’t question them.

Die erste Supermarkt-Kundenkarte hat Tesco erfunden. Damals wurde nicht gesammelt, WAS die Kunden einkaufen, sondern nur wann sie einkaufen und wieviel Geld sie dabei ausgeben. Allein daraus konnte Tesco schon so viele Schlüsse ziehen, dass sie mit gezielter Werbung ihre Kunden dazu verleiten konnten, noch mehr Geld auszugeben. Kein Wunder, dass heutzutage keine Einzelhandelskette mehr ohne Kundenkarte auskommen will.

Look carefully enough at someone’s shopping habits and they’ll often reveal all kinds of detail about who they are as a person.

Auch das Surfverhalten von Personen wird von unzähligen Trackern überwacht und aufgezeichnet (um dem entgegenzuwirken empfehlen sich Ad- und Tracking-Blocker wie zum Beispiel Ghostery). Die Autorin erklärt an einem sehr anschaulichen Beispiel, dass Surfverhalten und Browser Histories sehr einfach de-anonymisiert werden können. Es reicht eine einzige Webseite mit einem Login in einer Browser History, um die gesamte History einer Person zuordnen zu können.

That was the deal that we made. Free technology in return for our data and the ability to use it to influence and profit from you.

Ausführlich erklärt wird auch eine Studie, in der Forscher*innen aus einer Kombination von (freiwilligen) Persönlichkeitstests auf Facebook und der Auswertung von Likes ein Modell entwickelt haben, indem sie aus den Facebook-Likes auf die Persönlichkeit einer Person schließen können. Eine ausreichend große initiale Menge von Personen (Stichprobe), die ihre Daten freiwillig hergeben, genügt, um daraus Regeln abzuleiten und Schlüsse auf andere Personen, die ihre Daten nicht in dieser Form freigegeben haben, ziehen zu können.

The entire history and practice of modern medicine is built on the finding of patterns in data.

Im medizinischen Bereich werden Algorithmen schon seit Längerem genutzt, um etwa Zellbiopsien auf krankhafte Veränderungen zu untersuchen. Die Debatte um selbstfahrende Autos und wie diese entscheiden (sollen), wenn es darum geht, welche Menschenleben gerettet werden sollen, wurde in den Medien vergleichsweise ausführlich geführt. Und auch im Bereich der Verbrechensprävention werden Algorithmen eingesetzt. Die ursprüngliche Idee bestand darin, Verbrechen auf Karten zu vermerken und dadurch Orte zu finden, an denen sich Verbrechen häufen. Dort können dann durch stärkere Polizeipräsenz entweder Verbrechen verhindert werden oder durch schnelle Reaktion die Täter gefasst werden. Im Podcast Reply All wurde darüber auch in einer Doppelfolge berichtet.

How good is good enough? Once you’ve built a flawed algorithm that can calculate something, should you let it?

Bei all diesen Anwendungsbereichen stellt sich jedoch die Frage: wie gut kann und muss ein Algorithmus sein, um bessere Entscheidungen zu treffen, als Menschen sie treffen würden? Wieviel Fehler ist akzeptabel? Was sind die Konsequenzen? Wie viele unnötige Mastektomien werden gemacht, weil ein Algorithmus Krebszellen diagnostiziert hat, die eigentlich gesund waren? Welche Folgen ergeben sich daraus, dass Menschen sich auf den Autopilot ihres Fahrzeugs verlassen? Wie viele unschuldige Leben sind es wert, dass mehr Schuldige gefasst werden?

What about innocent until proven guilty?

Alle diese Fragen werden aktuell zu wenig bedacht, es wird geforscht und umgesetzt, was technisch möglich ist und womit sich Geld verdienen lässt. Die Entscheidung, welche Daten wir preisgeben, kann nicht allein den Konsumenten überlassen werden. So lange Algorithmen als Betriebsgeheimnis gelten und nicht nachvollzogen werden kann, wie Algorithmen tatsächlich Daten verarbeiten und Entscheidungen treffen, ist eine informierte Entscheidung von Einzelpersonen gar nicht möglich. Wir brauchen gesetzliche Regulierungen und Kontrollmechanismen, die den Missbrauch von Daten verhindern (und damit meine ich nicht etwas so Lästiges und Ineffektives wie Cookie-Warnungen). Vor allem aber brauchen wir das Bewusstsein, dass Computer und Algorithmen nicht allmächtig sind, dass sie fehlerhaft sind und dass ihre Entscheidungen daher auch fehlerhaft sein können.

But how do you decide on that trade-off between privacy and protection, fairness and safety? […] Is that a price we’re willing to pay to reduce crime?

Einen interessanten Vortrag zum Thema Bias in Algorithmen gab es von pascoda im Rahmen der PrivacyWeek 2018.

 

 

Categories
Kurzgeschichten

Barbara Wimmer, Günther Friesinger (Hg.) – Smart Lies – Alles smart?

Diese Kurzgeschichtensammlung habe ich nun seit Weihnachten herumliegen. Die ersten Geschichten hatte ich bald gelesen, aber wie so oft habe ich an Kurzgeschichten, die vollkommen unzusammenhängend sind, irgendwann das Interesse verloren.

Die Herausgeber Barbara Wimmer und Günther Friesinger haben in diesem Sammelband Geschichten zum Thema smarte Technologie versammelt. Die Beiträge beschäftigen sich mit virtuellen Realitäten, Assistenzsystemen wie Amazon Alexa, Überwachungstechnologien und der Frage, ob wirklich jedes Gerät über das Internet fernsteuerbar sein sollte. Besonders gefallen hat mir die Geschichte über den Gefühlszwist eines Roboters, die sich mit Asimovs Gesetzen der Robotik auseinandersetzt.

Dieser Artikel auf Lithub beschäftigt sich mit der Wertigkeit und Schwierigkeit der Zusammenstellung von Kurzgeschichtensammlungen, das folgende Zitat ist mir dabei besonders ins Auge gefallen:

A good anthology becomes more than the sum of its parts. The stories talk to each other: augment and contradict each other. As the editor, you try to curate the contents in ways that will allow for such conversations to occur. 

Der überspannende Bogen ist hier natürlich die Technologie und die Gefahren, die mit ihrer nahezu grenzenlosen Nutzung verbunden sind. Die Herausgeber schreiben in ihrer Einleitung, dass neue Technologien an sich nicht schlecht sind, dass es jedoch jeder Person selbst überlassen bleibt, wie sie oder er damit umgeht. In meinen Augen darf die Verantwortung jedoch nicht vollständig auf den Konsumenten abgewälzt werden. Die Herstellerfirmen sind in die Pflicht zu nehmen, ihre Produkte so zu gestalten, dass sie möglichst wenig Sicherheitslücken haben und dass diese auch durch Updates behoben werden können, sollte dies notwendig sein. In vielen Bereichen (zB digitale Kommunikation über Smartphone) ist die Entscheidungsfreiheit der NutzerInnen und Nutzer nämlich bereits eingeschränkt. Natürlich können wir uns entscheiden, Facebook oder Whatsapp (oder jeglichen anderen Dienst) nicht zu nutzen. Wenn dieser Dienst jedoch eine Marktmacht erreicht, kann die Nicht-Nutzung durchaus zum faktischen Ausschluss aus bestimmten sozialen Zirkeln führt. Wer ein Smartphone benutzen möchte, kann sich im Großen und Ganzen zwischen zwei Betriebssystemen entscheiden (förderungswerte Alternativen wie zum Beispiel Fairphone erreichen leider bis heute noch keine ausreichende Massenkompatibilität). Damit ist auch die Entscheidung verbunden, welchem Konzern wir unsere Daten anvertrauen wollen. Der Umgang mit neuen Technologien kann also nicht von der Einzelnen allein für sich selbst gelöst werden, sondern erfordert strukturelle Veränderungen, die für alle Menschen bessere Voraussetzungen für sicheren Umgang mit Technologie ermöglichen.

Disclaimer: Ich bin mit der Herausgeberin und mehreren Autorinnen bekannt bzw. befreundet und habe das Buch geschenkt bekommen. Dass meine Meinung davon komplett unbeeinflusst bleibt, kann ich nicht garantieren. Wie meine anderen Posts ist dies jedoch keine Werbung, sondern meine subjektive in Worte gefasste Meinung.