Kommentar: Beispiel für Googles Allmacht

KI-Tool sagt den Tod vorher

Vergangene Woche sorgte eine Pressemitteilung über ein neues Google-Tool für Künstliche Intelligenz (KI) für ordentlich Diskussionsstoff: Ein neuer Algorithmus soll das Sterberisiko von Patienten im Krankenhaus ermitteln und so deren Tod zuverlässig vorhersagen.

Google-Algorithmus sagt den Tod voraus

Ein neuer Google-Algorithmus soll das Sterberisiko von Patienten im Krankenhaus ermitteln und so deren Tod zuverlässig vorhersagen.

Die Google-Ingenieure haben ein neues KI-Tool entwickelt, mit dem sich eigenen Angaben nach genau vorhersagen lässt, ob ein ins Krankenhaus eingelieferter Patient innerhalb der nächsten 24 Stunden stirbt. Der neue Algorithmus nimmt dafür die verfügbaren Daten verschiedener Krankenhäuser und Ärzte auf und führt damit selbst Berechnungen durch.

Die Zuverlässigkeit des Systems hat Google bereits in mehreren Fällen getestet und gegen bestehende Methoden beweisen können, heißt es in einer Pressemeldung. Als etwa eine Frau mit Brustkrebs im letzten Stadium in ein Krankenhaus eingeliefert wurde, führten die Ärzte mehrere Tests an ihr durch. Die Computer des Krankenhauses errechneten, dass sie eine Überlebenschance von 91 Prozent habe. Die KI-Software hingegen prognostizierte im direkten Vergleich jedoch, dass die Wahrscheinlichkeit, die Frau könne sterben, schon bei rund 20 Prozent liege. Die Frau starb nach ein paar Tagen. Wohl jeder findet ein solches Rechenbeispiel zum Sterbezeitpunkt „echter“ Menschen höchst makaber.

Generell soll das KI-Tool einen Zugriff auf über 175.000 Datenpunkte ermöglichen. Es durchforstet PDFs und Notizen zu alten Diagrammen in Patientenakten, um dann eigene Vorhersage zu generieren. Der nächste Schritt für Google besteht den Ingenieuren zufolge darin, das KI-System in Kliniken einzusetzen, um Ärzten bei Diagnosen zu helfen. Die Algorithmen könnten sowohl bei der Diagnose als auch bei der Behandlung helfen, indem sie große Datenmengen in leicht konsumierbarem Format erstellen, heißt es.

Dabei stehen Datenschützer dem Tool skeptisch gegenüber, denn der Anbieter nimmt sich bei der Anwendung das Recht heraus, sämtliche Patientenakten einer Person zu durchforsten. Bereits 2017 kam es in Großbritannien zu einem Verfahren, nachdem Google Deep Mind echte Patientendaten zum Test seiner App „Streams“ genutzt hatte. Der Anbieter verlor den Prozess.

Auch könnte die Nutzung von KI-Tools zur Ermittlung des Sterbezeitpunkts dazu führen, eingelieferte Patienten unterschiedlich zu behandeln. Frei nach dem Motto: „Wir kümmern uns zuerst um diejenigen Patienten, die eine höhere Überlebenschance haben.“ Somit gäbe es Patienten erster und zweiter Klasse.

Prinzipiell stellt sich die Frage, wozu man ein solches KI-Tool überhaupt braucht. Denn, was bringt es zu wissen, dass ein Patient morgen, übermorgen oder nächste Woche sterben wird. Egal, was der Algorithmus berechnet – Ärzte müssen in jedem Moment stets zum Wohle des Patienten handeln.

Mord durch Algorithmen?

Eine Klassifizierung von kranken Menschen wäre in höchstem Maße unethisch: Einerseits kann auch Software irren, dann wären die Patienten gar nicht so „totgeglaubt“ wie der Algorithmus ursprünglich angenommen hätte. Würde man in solchen Fällen die betroffenen Patienten später oder gar nicht behandeln, inwieweit wäre es dann gar Mord – durch einen Algorithmus?

Andererseits verpflichtet sich jeder Arzt dem Genfer Ärztegelöbnis (Neuverfassung des Hippokratischen Eides), welches die grundlegende Formulierung der ärztlichen Ethik darstellt. Hier heißt es unter anderem: „Die Gesundheit und das Wohlergehen meiner Patienten sei meine erste Absicht ... Ich werde nicht zulassen, dass Erwägungen über Alter, Krankheit oder Gebrechlichkeit, Glaube, ethnische Herkunft, Geschlecht, Nationalität, politische Zugehörigkeit, Rasse, sexuelle Orientierung, sozialer Status oder irgendwelche anderen Faktoren mich in meiner Pflicht gegenüber meinen Patienten beeinflussen.“

Vor diesem Hintergrund muss grundsätzlich geregelt sein, inwieweit Künstliche Intelligenz über die Arbeit, das Wissen und die Meinung von Ärzten gestellt werden kann. Zudem müssen klare Grenzen für den Einsatz und die Auswirkungen von Künstlicher Intelligenz gezogen werden. Denn kein Algorithmus sollte „Gott spielen“ und über Leben und Tod entscheiden können.

Bildquelle: Thinkstock/iStock

©2018Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok