Datenethik im Todesfall

Big Data für das ewige Leben

Start-ups bieten bereits seit einiger Zeit an, verstorbene Menschen via Machine Learning als digitale Avatare für die Nachwelt am Leben zu erhalten. Eine Praxis, die nicht nur extrem datenhungrig ist, sondern auch ethische Fragen aufwirft.

Visualisiertes Gehirn aus Datenströmen

Während es für den Umgang mit den sterblichen Überresten eines Menschen klare Regeln gibt, ist ein ethischer Rahmen für die Beziehung zu digitalen Hinterlassenschaften im Grunde nicht existent.

Gut 80 Gigabyte an Daten sollen jeden Monat durch einen durchschnittlichen Breitbandanschluss in Deutschland gehen. Für die kommenden Jahre erwartet der Breko Verband einen rapiden Anstieg dieser Verbrauchswerte, die demnach schon bald auf mehrere hundert Gigabyte im Monat hoch klettern sollen. Wer sich diese Prognosen vor Augen führt, kann nur erahnen, wieviel Daten ein Mensch im Laufe seines gesamten Lebens erzeugt. Im Todesfall bleibt dementsprechend nicht nur eine ganze Reihe an physischen Besitztümern zurück, sondern auch ein gigantischer Fundus an persönlichen Daten.

Es gibt zahlreiche Tipps und Ratgeber im Netz, die dabei helfen sollen, mit dem digitalen Nachlass von verstorbenen Angehörigen umzugehen. Das Thema ist inzwischen so gewöhnlich, dass sogar die Verbraucherzentrale oder die Bundesregierung routiniert Hilfestellung im Netz bieten. Das dürfte nicht zuletzt auch damit zu tun haben, dass solche Angelegenheiten in juristischer Hinsicht noch viel Unklarheit mit sich bringen. Während die einen mit aller Kraft versuchen, die digitalen Spuren ihrer dahingeschiedenen Angehörigen zu tilgen, schlagen andere schon zu Lebzeiten die komplett entgegengesetzte Richtung ein. Darunter fallen etwa Menschen, die spezielle Dienste mit einer Vielzahl von privaten Daten versorgen, um nach ihrem Ableben ein möglichst authentisches Abbild ihrer selbst zu hinterlassen. Dabei soll es sich im besten Fall nicht nur um eine statische Gedenkstätte, sondern um ein aktives Profil handeln, das Nachrichten schreibt, Bilder postet und auf Tweets versendet – alles in der Tonalität der verstorbenen Person.

Zwischen Esoterik und Innovation

So funktioniert etwa „Eternime”, ein US-amerikanisches Start-up, das aus persönlichen Daten digitale Avatare erstellt. Diese Profile werden über Machine-Learning-Algorithmen so lange mit persönlichen Informationen trainiert, bis sie sich ihrem realen Vorbild entsprechend verhalten. Das Angebot befindet sich aktuell noch in der Beta-Phase und wird bisher nur von wenigen aktiven Nutzern getestet. Der Dienst soll allerdings auch mit der Veröffentlichung für eine breitere Öffentlichkeit umsonst bleiben, wie der Gründer Marius Ursache dem „Business Insider” verriet – Geld wolle man lediglich über spezielle Premium-Funktionalitäten einnehmen. Dabei ist der Preis für das digitale „Ich” auch so schon hoch genug. Das Ganze funktioniert nämlich nur, wenn auf täglicher Basis so ziemlich alles an Daten gesammelt wird, was der Nutzer erzeugt – Standorte, Nachrichten, Fotos, Social-Media-Aktivitäten. Mehr noch: Eternime erfragt darüber hinaus auch immer wieder spezielle Infos, die für die Verewigung im Netz besonders wichtig sein sollen.

Ähnlich funktioniert auch „Eter9”, ein soziales Netzwerk aus Portugal, auf dem durch eigene Aktivität ein digitales Äquivalent trainiert wird. Hier lässt sich schon zu Lebzeiten ausprobieren, wie sich das artifizielle Abbild im Alltag schlägt. Über einen Schieberegler kann der Nutzer definieren, wie aktiv der sogenannte „Counterpart” sein soll. Zieht man den Regler auf 100 Prozent, sieht das eigene Profil schnell wie bei Henrique Jorge aus. Der Gründer und CEO von „Eter9” lässt fast nur noch die KI posten. Dass das nicht immer völlig organisch anmutet, wird dabei schnell ersichtlich. So verbreitet der „Counterpart” etwa innerhalb kurzer Zeit gleich zweimal ein und denselben Song von Genesis in seinem Feed – etwas, das ein Mensch vermutlich eher nicht machen würde.

Der US-Dienst „Lifenaut” geht noch einen Schritt weiter als die genannten Angebote und lässt Menschen nicht nur persönliche Daten (Im „Lifenaut”-Jargon: „Mind File”), sondern auch eine DNA-Probe („Bio File”) einlagern. Die kühne Hoffnung: durch die Kombination beider Proben ließe sich das digitalisierte Bewusstsein vielleicht in einer fernen Zukunft in einen neu gezüchteten Körper herunterladen. Spätestens hier wird klar, dass die Grenzen zwischen Esoterik und technologischer Innovation in diesem Segment fließend sind.

Menschenwürde im digitalen Jenseits

Während es für den Umgang mit den sterblichen Überresten und dem physischen Nachlass eines Menschen klare und fest in der Kultur verankerte Regeln und Werte gibt, ist ein ethischer Rahmen für die Beziehung zu den digitalen Hinterlassenschaften der Toten im Grunde nicht existent. Ohne diesen Kontext lässt sich allerdings auch das Handeln von den Diensten wie „Eternimi” kaum sinnvoll beurteilen. Carl Öhmann vom Oxford Internet Institute plädiert in diesem Zusammenhang dafür, die digitalen Spuren eines verstorbenen Menschen als Überreste eines informationellen Leichnams zu interpretieren. Die Menschenwürde verlange dementsprechend, dass diese Daten nicht für niedere Zwecke wie etwa Gewinnmaximierung genutzt werden dürften, so Öhmanns Einschätzung. Der Wissenschaftler führt die ethischen Richtlinien für Museen als Modell ins Feld, auf dessen Basis sich auch Vorgaben für die „Digital Afterlife Industry” ableiten lassen könnten. Dieser vom International Council of Museums (ICOM) herausgegebene Leitfaden regelt unter anderem auch den Umgang mit menschlichen Überresten im öffentlichen Kontext einer Ausstellung.

Wer sich für eine KI-gestützte Verewigung im Netz entscheidet, muss aber noch weitaus mehr berücksichtigen, als die datenschutzrechtlichen und ethischen Fallstricke. So muss man sich vergegenwärtigen, dass man hier im Zweifel wirklich eine Entscheidung für die Ewigkeit trifft – die besagten Dienste tragen nicht umsonst das „eternal” im Namen. Menschen neigen allerdings dazu, ihre Entscheidungen nach einem Softwareupdate, kritischen Medienberichten oder der Anpassung der allgemeinen Geschäftsbedingungen zu hinterfragen. Das wäre in diesem Fall nicht mehr möglich. Egal wie verwerflich sich das Unternehmen hinter dem entsprechenden Angebot auch plötzlich verhalten mag, die meisten „Nutzer” müssten es hinnehmen und würden im schlimmsten Fall mit dem negativen Ruf assoziiert werden.

Darüber hinaus steckt die Technologie an dieser Stelle noch viel zu sehr in den Kinderschuhen, als dass hier ein würdevoller Umgang garantiert werden könnte. Was passiert, wenn der Algorithmus eine alte Nachricht oder eine ironische Äußerung falsch interpretiert und der eigene Avatar plötzlich zum fluchenden Choleriker wird? Alleine die Möglichkeit solcher Fehler dürfte es vielen schwer machen, auch nur daran zu denken, den eigenen Angehörigen so etwas zuzumuten.

Bildquelle: Thinkstock/iStock

©2019Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok