Datenanalysen

Gute KI, böse KI

Wann bewegen sich Datenanalysen und im nächsten Schritt Künstliche Intelligenz und Machine Learning im moralisch akzeptablen Rahmen? Und wann gehen sie eindeutig zu weit?

  • Anfang September kam die von der Bundesregierung ins Leben gerufene Datenethikkommission das erste Mal zusammen. ((Bildquelle: Thinkstock/iStock))

  • Gute KI, böse KI

    „Nicht alles, was technisch möglich ist, sollte auch erlaubt sein“, fordert Dinko Eror, Managing Director von Dell EMC in Deutschland.

  • Gute KI, böse KI

    Marco Junk, Geschäftsführer beim Bundesverband Digitale Wirtschaft e.V.

Eine immer breitere Datenbasis stellt die wichtigste Grundlage für den professionellen Einsatz von Künstlicher Intelligenz und Machine Learning (ML) dar. Denn nur, wenn Algorithmen regelmäßig mit immer mehr schlüssigen Informationen gefüttert werden, werden sie „intelligent“ und entwickeln sich selbstständig weiter, um schließlich bestenfalls ähnlich den Menschen reagieren können.

Das mit zunehmender Digitalisierung und Vernetzung exorbitante Datenwachstum lässt demnach die Herzen von KI-Spezialisten und „Data Scientists“ höher schlagen. Gehen damit doch schier unbegrenzte Analysemöglichkeiten einher. Dass in den Unternehmen nicht jeder Mitarbeiter sensible Daten einsehen oder auswerten darf, regelt zum einen der Gesetzgeber beispielsweise mit der EU-Datenschutz-Grundverordnung. Diese gibt klare Regeln vor, wie der Umgang mit personenbezogenen Daten zu handhaben ist. Zum anderen stehen die Unternehmen selbst in der Pflicht, möglichen Datenmissbrauch auszuschließen. Letzteres wird häufig unter dem Schlagwort „Datenethik“ zusammenfasst, in dessen Rahmen sich aktuell immer mehr Unternehmen dazu verpflichten, nicht gegen gesellschaftlich anerkannte Werte zu verstoßen.

 Dies ist ein Artikel aus unserer Print-Ausgabe 11/2018. Bestellen Sie ein kostenfreies Probe-Abo.

Doch genau hier liegt die Crux: Die Grundsätze für moralisches Handeln sehen in Asien anders aus als in Afrika, Europa oder Amerika. Selbst innerhalb einer politischen Gemeinschaft wie der Europäischen Union gibt es zahlreichen kulturelle Unterschiede zwischen einzelnen Ländern, die sich wiederum in unterschiedlichen Moralvorstellungen widerspiegeln. Zudem ist bei einer selbst auferlegten Digitalethik der Unternehmen nicht klar, wer eigentlich den Rahmen dafür schafft und welche Strafen nach einem Verstoß tatsächlich drohen. So wird sich wohl kein Unternehmen selbst Schaden zufügen. Nicht zuletzt könnte es sein, dass zunächst strikte ethische und moralische Vorgaben flexibel aufgeweicht werden, wenn diese dem betroffenen Unternehmen nützlich wären und etwa große Gewinnsteigerungen versprechen.

Hehre Ziele, schwierige Umsetzung

Solche Einschätzungen machen klar, dass die Forderung nach digitaler Ethik und mehr Verantwortung bei der Nutzung von Künstlicher Intelligenz viele offene Fragen impliziert. Eine wichtige Frage lautet, wer den Rahmen für Datenethik überhaupt vorgibt. Momentan wird darüber nicht nur hierzulande heißt diskutiert, vielmehr beschäftigen sich weltweit sämtliche Eliten, Wissenschaftler und Politiker mit diesem Thema.

Häufig zeichnen sich solche Debatten durch leere Phrasen und heiße Luft aus. Doch die eine oder andere Absichtserklärung macht Hoffnung für die Zukunft. So haben sich etwa auf der „International Joint Conference on Artificial Intelligence“ (IJCAI) Mitte Juli 2018 in Stockholm mehrere Größen der Tech-Branche darauf geeinigt, sich nicht an der Entwicklung von tödlichen KI-Waffen zu beteiligen. Zum Hintergrund: Die Rolle von Künstlicher Intelligenz nimmt in nahezu allen Lebensbereichen eine immer größere Rolle ein. Dass sich auch die militärische Forschung intensiv mit dem Thema auseinandersetzt, dürfte dementsprechend niemanden überraschen. Doch während der Einsatz von eigenständig denkenden Maschinen in Bereichen wie Fertigung oder Kundenservice (z. B. Chatbots) nicht ganz so viele Fragen offen lässt, birgt die tödliche Anwendung in Kampfgebieten viele ethische Fallstricke. 

Zu diesem Schluss sind auch die IJCAI-Teilnehmer gekommen, die sich mittels eines Abkommens darauf einigten, sich nicht an der Entwicklung solcher Waffensysteme zu beteiligen. Zu den Unterzeichnern gehören u. a. Tesla-Chef Elon Musk, die Deepmind-Mitgründer Shane Legg, Mustafa Suleyman und Demis Hassabis, Skype-Erfinder Jaan Tallinn und andere Wissenschaftler aus dem Bereich der KI-Forschung. Dabei heißt es in dem Abkommen, dass die Entscheidung, ein Menschenleben zu vernichten, niemals an eine Maschine delegiert werden dürfe. Darüber hinaus sei der Einsatz solcher Technik für jede Region extrem destabilisierend. Max Tegmark, Unterzeichner des Abkommens und Physik-Professor am MIT, verglich autonom tötende Angriffssysteme gar mit dem Einsatz von biologischen Massenvernichtungswaffen und riet dazu, diese auch genauso zu behandeln.

Neben globalen Diskussionen hat sich auch auf nationaler Bühne einiges getan: So hat sich diesen Sommer die Bundesregierung selbst der ethischen Nutzung von Datenanalysen und Künstlicher Intelligenz angenommen und das Thema offiziell zur Chefsache erklärt. Die im Juli offiziell ins Leben gerufene Datenethikkommission kam dabei Anfang September das erste Mal zusammen. Zu ihren wichtigsten Zielen gehört die Entwicklung ethischer Leitlinien für eine sich digitalisierende Gesellschaft. Dabei will man die Ergebnisse der Datenethikkommission bei der Ausarbeitung der ebenfalls im Juli angekündigten Strategie für Künstliche Intelligenz einbeziehen.

Viel Licht und Schatten

Die Vorgehensweise der Bundesregierung erntete einerseits großes Lob, andererseits zog sie jedoch auch Kritik nach sich. Denn ob in einigen wenigen Treffen die komplexe Themenvielfalt von KI und Analytics abgehandelt werden kann, bleibt fraglich. Alles in allem sei es jedoch ein großer Erfolg, dass im Jahr 2018 überhaupt eine Datenethikkommission tagt, betont Marco Junk, Geschäftsführer beim Bundesverband Digitale Wirtschaft (BVDW). Diese Feststellung mag leicht sarkastisch klingen, insbesondere wenn man bedenkt, dass die Politik das Internet noch vor wenigen Jahren als „Neuland“ bewertete. Beim künftigen Vorgehen der Kommission, rät Junk weiter, sollte die Diskussion um Datenethik geltende ethische Grundsätze nicht in Frage stellen. „Vielmehr sollten wir uns damit als Gesellschaft der Herausforderung stellen, das bestehende ethische Verständnis ins digitale Zeitalter zu übertragen“, betont Marco Junk.

Dinko Eror, Managing Director von Dell EMC in Deutschland, befürwortet generell die Bestrebungen: „Innovation ist wichtig, aber kein Selbstzweck. Deshalb sollten sich Unternehmen und Wissenschaftler ethische Grenzen setzen. Notfalls müssen die Gesetzgeber nachhelfen.“ Seiner Ansicht nach sollte nicht alles, was technisch möglich ist, auch erlaubt sein.

Neben dem großen, allumspannenden – und damit recht allgemein ausgelegten – Vorstoß der Bundesregierung rücken immer mehr Teildisziplinen das Thema in den Vordergrund. Auf Initiative Verbands der Elektrotechnik (VDE) und dem Institute of Electrical and Electronics Engineers (IEEE) gründeten etwa im Sommer acht internationale Standardisierungsorganisationen die Open Community for Ethics in Autonomous and Intelligent Systems (Oceanis) in Wien. „Die Entwicklung von KI in autonomen Systemen geht mit großen Schritten voran. Genau deswegen müssen wir jetzt ethische Aspekte in der Normung von autonomen und intelligenten Systemen transparent verankern“, erklärt Michael Teigeler, Geschäftsführer im VDE, die Gründung des globalen Forums.

Im Rahmen von Oceanis wollen die Standardisierungsgremien weltweit eng zusammenarbeiten, um technische Lösungen zu entwickeln, die sich lokal wie auch global anwenden lassen und Wirtschaft, Politik und Gesellschaft Orientierung bieten. „Der Gründungsgedanke des VDE gilt heute mehr denn je: Mit Normung und Standardisierung, mit wissenschaftlicher Expertise und einem breiten gesellschaftlichen Dialog die Gesellschaft nicht nur über den Einsatz von Künstlicher Intelligenz aufzuklären, sondern sie bei der Überwindung von Ängsten zu unterstützen“, erklärt Hinz das Engagement des Verbands.

Daneben hat sich unlängst das Cologne Center for Ethics, Rights, Economics and Social Sciences of Health (Ceres) der Universität zu Köln die digitale Medizinethik auf die Fahne geschrieben. Denn die allgegenwärtige Digitale Transformation betrifft den Gesundheitssektor in besonderem Maße. „Die digitalisierte Medizin eröffnet vielversprechende Möglichkeiten in Forschung, Therapie, Prävention und Pflege. Dabei birgt der Umgang mit sensiblen Gesundheitsdaten, die Nutzung Künstlicher Intelligenz und der Einsatz von Apps als digitale Assistenz- und Überwachungssysteme jedoch auch Risiken“, erklärt Professorin Dr. Christiane Woopen, Geschäftsführende Direktorin von Ceres und Co-Sprecherin der erwähnten Datenethikkommission der Bundesregierung.

Bedrohung der Menschenrechte?

Neben den Säulen aus Politik und Gesellschaft beschäftigen sich immer mehr Unternehmen mit Fragen rund um Digitale Ethik. Für großes Medienecho sorgte etwa nach der IJCAI-Konferenz auch die Bekanntmachung von Google, dass sich die Mitarbeiter gegen den Einsatz von KI-Technologien im Rüstungssektor ausgesprochen hätten. Zuvor war bekannt geworden, dass das Pentagon unter anderem Drohnen und andere Waffen mit KI versehen will, damit sie Ziele eigens identifizieren und Entscheidungen selbst treffen können. „Viele KI-Forscher betrachten solche Entwicklungen mit besonderer Skepsis – wenn nicht sogar mit Abscheu. Dabei haben Tausende von ihnen bereits eine freiwillige Selbstverpflichtung unterschrieben, nicht an autonomen Waffensystemen zu forschen. Aber wie stehen die übrigen tausenden zu solchen Einsätzen“, fragt Dink Eror.

Aufgrund der rasanten Weiterentwicklung von KI-Technologien könnte es nicht nur bei Waffensystemen, sondern in vielen weiteren Bereichen – wie Autonomes Fahren, Virtual Reality oder E-Commerce – passieren, dass die Kontrolle darüber verlorengeht. Mittlerweile kommen sogar IT-Unternehmen, die als Vorreiter in Sachen KI gelten, ins Grübeln, gibt Eror zu bedenken. So betrachtet etwa Microsoft KI-basierte Gesichtserkennung als Bedrohung der fundamentalen Menschenrechte wie Privatsphäre und Meinungsfreiheit. Die schrieb zumindest President Brad Smith vor einiger Zeit offiziell in seinem Blog.

Vor dem Hintergrund dieser Entwicklungen bezweifelt der Dell-EMC-Deutschland-Chef, dass die Selbstverpflichtung von Industrie und Forschung allein der richtige Weg wäre, um ethische Innovationen sicherzustellen. „Vielmehr hat die Wirtschaftsgeschichte gezeigt, dass die Selbstverpflichtung von Industrie und Forschung nicht zu ethischen Innovationen führt“, erklärt Eror. „Sei es beim Rauchverbot, der Frauenquote oder der Nahrungsmitteltransparenz: Mögliche Absatzvorteile haben Unternehmen immer höher bewertet als ethisches Handeln. Ich bin mir sehr sicher, dass das auch in Zukunft so bleiben wird.“

Die Black Box der KI öffnen

Die Schwierigkeit wird künftig darin liegen, sämtliche KI-Initiativen dahingehend zu überprüfen, ob sie ethisch und moralisch einwandfrei arbeiten. In diesem Zusammenhang brachte bereits im Juli 2018 die Unternehmensberatung Accenture das sogenannte „AI Fairness Tool“ heraus. Die Software soll sowohl Staat als auch Unternehmen dabei helfen, von ihnen eingesetzte KI-Systeme daraufhin zu überprüfen, ob sie alle Menschen fair und vorurteilsfrei behandeln. Denn bislang könne kaum ausgeschlossen werden, dass intelligente Algorithmen Menschen fair und neutral gemäß ihrer Herkunft, Alter, Geschlecht, Einkommen oder Wohnort behandeln.

Damit KI-Systeme neutral und vorurteilsfrei sind, bietet das Tool laut Anbieter einen schnellen Überblick darüber, ob und welche Daten (und Features) einen diskriminierenden Effekt haben und wie stark deren Einfluss auf die Aussagekraft des verwendeten Modells ist. Dabei funktioniere die Lösung ähnlich einem Frühwarnsystem und richte sich vor allem an Anwender, die keinen technischen Hintergrund haben, aber dennoch die Funktion eines KI-Modells sowie eine mögliche Diskriminierung auf Grund der genutzten Datensätze besser verstehen wollen.

Sicherheit soll eine dreistufige Überprüfung der Vorgehensweise bringen. Eine davon betrifft die Bewertung und Nachjustierung von KI-Algorithmen, was an folgendem Beispiel erklärt wird: Bei der Entwicklung des Tools wurde u. a. ein Datensatz für die Bestimmung von Kreditrisiken deutscher Verbraucher genutzt. Dabei stellte sich heraus, dass die Nationalität eines Kreditnehmers im verwendeten Modell großen Einfluss auf das Ergebnis hatte und insbesondere nichtdeutsche Staatsbürger benachteiligte. Mit Hilfe des Tools konnte laut Hersteller gezeigt werden, dass die Vorhersagekraft des Modells auch ohne ‚Nationalität‘ signifikante Ergebnisse liefert und die Erhebung dieses Merkmals daher unerheblich für die Berechnung des Kreditausfallrisikos ist. „Künstliche Intelligenz lernt aus Daten der realen Welt und bildet daher auch existierende Ungleichheiten und Vorurteile ab. Bisher lag der Fokus von Forschung und Wirtschaft vor allem darauf, die theoretischen Implikationen zu verstehen und die gesellschaftliche Debatte ins Rollen zu bringen”, fasst Andreas Braun, Analysespezialist bei Accenture, die Beweggründe zur Entwicklung des Tools zusammen.

Auch bei IBM hat man sich hehre Ziele gesetzt. Mit einer neuen Software will ,an die Entscheidungen von Künstlicher Intelligenz nachvollziehbarer machen. Sie öffne die „Black Box” der KI und erkenne automatisch mögliche Verfälschungen bei den Ergebnissen, teilte das Unternehmen mit. „Alle Entscheidungen, die Künstliche Intelligenz trifft, haben ihre Basis in den eingegebenen Daten”, erklärte Wolfgang Hildesheim, der bei IBM in Deutschland für KI zuständig ist. „Da kann der Algorithmus so gut sein, wie er will.” IBMs neue Technologie überprüfe etwa, ob eine ausgewogene und signifikante Datenbasis vorliege und damit auch tatsächlich verlässliche und relevante Ergebnisse geliefert werden können.

Das Werkzeug soll in Echtzeit Licht ins Dunkel bringen, wie eine KI-Anwendung zu ihren Entscheidungen kommt. Soll sie etwa den Bankberater dabei unterstützen, über die Kreditwürdigkeit eines Kunden oder geeignete Finanzprodukte zu entscheiden, müsse die entsprechende KI-Datenbasis so neutral und ausgewogen wie möglich sein. Der Service lasse sich auf verschiedenen Plattformen für maschinelles Lernen innerhalb IBMs Cloud-Angebot nutzen, sagte Hildesheim. Einen Teil der Lösung will das Unternehmen zudem allen Entwicklern aus der Open-Source-Gemeinde zur Verfügung stellen.

©2018Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok