Sechs Maßnahmen gegen verfälschte Ergebnisse

Die Achillesferse der Künstlichen Intelligenz

Die zielgerichtete Anwendung Künstlicher Intelligenz (KI) kann Innovationen und Umsatzwachstum fördern, bringt aber auch neue Risiken mit sich. Werden die KI-Systeme nicht perfekt austariert und um Verzerrungen und Vorurteile bereinigt, sind verfälschte Ergebnisse vorprogrammiert. Unternehmenslenker sollten solchen Risiken mit einem klaren Verständnis potentieller Schwachstellen und einer strategischen Digitalethik begegnen.

Verletzter, bandagierter Fuss

Die Achillesferse der KI-Technologie sind die Daten und deren Verarbeitung.

Egal ob Maschinenbau, Recruiting, Strafverfolgung oder das GesundheitswesenKünstliche Intelligenz ist aus immer weniger Bereichen wegzudenken. Doch diese Entwicklungen haben eine wachsende Debatte über Fairness, Befangenheit und Ethik ausgelöst. Denn obwohl KI das Potential hat, sich positiv etwa auf Gesundheit, Bildung oder Chancengleichheit auszuwirken, ist die positive Wirkkraft nicht garantiert. Stattdessen muss unbedingt dafür gesorgt werden, etwaige Verzerrungen und Fehlgewichtungen zu vermeiden, obwohl – und gerade, weil – sich diese in der menschlichen Entscheidungsfindung oft unbewusst wiederfinden. Aber wie ist das möglich? Die Antwort liegt darin, das Risiko (un)bewusster Vorurteile (Biases) – strategisch zu priorisieren.

KI macht Lösungen möglich, die vor kurzem kaum vorstellbar oder umsetzbar gewesen wären: Seien es KI-basierte Smartphone-Apps, die Blinden helfen, ihre Umgebung besser wahrzunehmen. Oder Lösungen, die Satelliten oder Drohnenaufnahmen auswerten, um etwa nach Unwettern überflutete Straßen zu identifizieren oder Systeme. Überdies gibt es Lösungen, die unkonventionelle Datenquellen nutzen, um Millionen Menschen in Entwicklungsländern zu erlauben, Konten zu eröffnen. Diese und andere analytischen Systeme durchdringen dabei riesige Datenmengen viel schneller und umfassender, als das Menschen je möglich wäre. Doch genau dies ist auch die Achillesferse der KI-Technologie: Die Daten und ihre Verarbeitung.

Denn die Übertragung der möglichen Lösungen aus der Theorie in die Praxis ist immer direkt an die Qualität der Daten und die Präzision der analytischen Methoden gebunden. Und die ist leider nicht immer fehlerfrei: Stattdessen enthalten Datensätze und KI-Algorithmen in zahlreichen Fällen Verzerrungen und Ungenauigkeiten, die enorm schädliche Folgen haben können. Man denke nur etwa an die Gesichtserkennungs-Software, die Menschen mit dunkler Hautfarbe nicht erkennt oder an den Versuch in Florida, zukünftiges kriminelles Verhalten bei Menschen vorhersagen zu können: Eine Analyse von Pro Publica kam zu dem Schluss, dass die eingesetzten Systeme Afroamerikaner doppelt so oft fehlerhaft als hochrisikobehaftet markierten wie Menschen mit heller Hautfarbe. In Summe katastrophale Ergebnisse, die enormen Schaden anrichten können.

Algorithmen haben keine Moral. Entsprechend können sie bereits bestehende menschliche und gesellschaftliche Unwuchten vergrößern, sollten sie sich in den Datenmengen oder Verfahren wiederfinden.

Bewusstsein schaffen und Forschung unterstützen

Vor diesem Hintergrund machen sich KI-Forscher, Regierungen, Wirtschaftsexperten und Unternehmer intensiv Gedanken darüber, wie falsche Ergebnisse durch vorbelastete KI-Systeme verhindert werden können. Stand der Forschung ist die Annahme, dass der Schlüssel dazu in sauberen Algorithmen und ausgeglichenen Datenmengen liegt, in denen sich die Systeme entwickeln können. Dies in einem unternehmerischen Umfeld umzusetzen, ist eine enorme Herausforderung. Folgende sechs Schritte helfen aber dabei:

  1. Chancen und Risiken bewusst machen: Wenn Organisationen planen, KI-Systeme einzusetzen, sollten sie vorher unbedingt analysieren, wo Verzerrungen verhindert werden oder entstehen können. Sprich: Sie müssen antizipieren, welche Bereiche eher Gefahr laufen, unfaire Verzerrungsmuster zu entwickeln, und bereits im Vorfeld gegensteuern.
  2. Testprozesse etablieren: Es ist nicht damit getan, KI-Systeme lediglich optimal einzurichten. Es braucht außerdem Prozesse, die Verzerrungen schnell erkennen. Eine transparente Selbstanalyse ist wichtig, um belastbare Ergebnisse zu generieren. Dies kann bedeuten, die Datenbestände zu optimieren und regelmäßig auf Vorurteile und Verzerrungen zu prüfen, oder die benutzten Modelle durch Experten unter die Lupe nehmen zu lassen.
  3. Vorurteile immer wieder thematisieren: Entscheidungsträger sollten neue Ergebnisse zu Vorurteilen und Biases als Chance behandeln, bereits bestehende Strukturen im Unternehmen – auch unabhängig von KI – anzupassen und an den neuen Fakten auszurichten.
  4. Mensch und Maschine näher zusammenbringen: Egal ob vollständig autonom entscheidende Systeme oder solche, bei denen der Menschen die letzte Entscheidungshoheit trägt – es ist wichtig, immer weiter daran zu arbeiten, beide Pole enger und besser zusammenarbeiten zu lassen. Denn erst, wenn den menschlichen Mitarbeitern klar ist, wie genau die Algorithmen zu ihren Ergebnissen kommen, können sie diese angemessen und vertrauensvoll einordnen.
  5. Mehr Forschung und mehr freie Daten: Organisationen sollten in Forschung zu Vorurteilen und Verzerrungen im Kontext von KI-Systemen investieren. Außerdem sollten sie Forschungs- und Entwicklungsteams über Organisationsgrenzen hinweg möglichst viele Daten zugänglich machen – auch mit Blick darauf, dass sich das Feld ständig weiterentwickelt.
  6. Diversität fördern: Organisationen sollten versuchen, die Diversität der Gesellschaft auch bei ihren Experten für Künstliche Intelligenz abzubilden. Eine möglichst vielfältige Gemeinschaft von KI-Entwicklern ist besser bereit, Verzerrungen und Vorurteile in KI-Systemen zu erkennen, zu analysieren und zu beheben.

Generell gilt: Künstliche Intelligenz ist unheimlich klug, aber auch unheimlich dumm. Von daher sind KI-Systeme immer nur so gut wie ihre Algorithmen und die Datenbasis, in deren Kontext sie entwickelt wurden. Aus diesem Grund gibt es einen enorm hohen Bedarf an Fachkräften, die Lösungen für bisher ungelöste Probleme konzipieren können. Dass dazu auch gehört, die Systeme selber auf Biases und mögliche Unausgewogenheiten zu prüfen, wird aber zu selten strategisch priorisiert. Dabei sollte jetzt deutlich geworden sein, wie enorm wichtig diese Frage wirklich ist: Denn Technologie hat in sich keinen moralischen Zweck. Alle Lösungen sind Konsequenzen aus menschlichen Entscheidungen – und tragen damit das Potential typisch menschlicher Vorurteile mit sich. Damit KI aber wirklich zum Wohle der Gesellschaft beitragen kann, muss an dieser Stelle eingegriffen werden.

* Der Autor Peter Breuer ist Seniorpartner bei der Unternehmens- und Strategieberatung McKinsey. Als Leiter von McKinsey Analytics unterstützt er die Kunden dabei, optimale Ergebnisse entlang der gesamten Wertschöpfungskette zu erzielen.

Bildquelle: iStock/Getty Images Plus

©2019Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok