+++ 04.12.2019 | 14:07
Snapchat-Gründer kommt zur Münchner DLD-Konferenz
+++ 03.12.2019 | 16:47
Facebook muss Profil entsperren
+++ 28.11.2019 | 10:17
Apple zeigt Krim nun als russisches Staatsgebiet
+++ 27.11.2019 | 11:05
Twitter will Accounts wieder freigeben
+++ 21.11.2019 | 14:24
Apple in der Klemme zwischen China und Trump
Max Tegmark, Unterzeichner des Abkommens und Physik-Professor am MIT, vergleicht autonom tötende Angriffssysteme mit dem Einsatz von biologischen Massenvernichtungswaffen.
Die Rolle von Künstlicher Intelligenz (KI) nimmt in nahezu allen Lebensbereichen eine immer größere Rolle ein. Dass sich auch die militärische Forschung intensiv mit dem Thema auseinandersetzt, dürfte dementsprechend niemanden überraschen. Doch während der Einsatz von eigenständig denkenden Maschinen in Bereichen wie Fertigung oder Kundenservice (siehe Chatbots) nur wenige Fragen offen lässt, birgt die tödliche Anwendung in Kampfgebieten viele ethische Fallstricke.
Zu diesem Schluss sind auch viele Teilnehmer der „International Joint Conference on Artificial Intelligence“ gekommen, die nun ein Abkommen unterzeichnet haben, mit dem sich darauf geeinigt wurde, sich nicht an der Entwicklung solcher Waffensysteme zu beteiligen. Zu den Unterzeichnern gehören unter anderem Tesla-Chef Elon Musk, die Deepmind-Mitgründer Shane Legg, Mustafa Suleyman und Demis Hassabis, Skype-Erfinder Jaan Tallinn und viele andere namhafte Wissenschaftler aus dem Bereich der KI-Forschung.
Die Entscheidung, ein Menschenleben zu nehmen, dürfe niemals an eine Maschine delegiert werden, heißt es unter anderem in dem Abkommen. Darüber hinaus sei der Einsatz solcher Technik für jede Region extrem destabilisierend. Max Tegmark, Unterzeichner des Abkommens und Physik-Professor am MIT, verglich autonom tötende Angriffssysteme mit dem Einsatz von biologischen Massenvernichtungswaffen und riet dazu, diese auch genauso zu behandeln.
Bildquelle: Thinkstock/iStock