KI-Fehler

Neuronetze sind nur so schlau wie ihre Trainer

KI-Anwendungen machen keine Fehler? Stimmt nicht, der menschliche Irrtum scheint immer durch.

Auch KI macht Fehler

Auch KI macht Fehler

Künstliche Intelligenz ist ein großes Thema in Unternehmen. Vor allem Machine Learning soll den menschlichen Irrtum möglichst weitgehend aus den Geschäftsprozessen ausschließen. Denn Menschen machen vor allem bei gleichförmigen Routineaufgaben viele Fehler. KI-Anwendungen dagegen sind immer gleich gut, es gibt keine Ermüdung und keine sinkende Aufmerksamkeit - so die Versprechungen der KI-Verfechter.

Doch auch KI-Software macht Fehler. Ein ganz besonders unangenehmer ist Google im Jahr 2015 passiert. Die Bilderkennung in Google Photos hat eine schwarze Frau als „Gorilla“ identifiziert. Trotz der zahlreichen Fortschritte der KI-Verfahren von Google besteht das Problem immer noch. Das hinter der Bilderkennung steckende neuronale Netz scheint auch weiterhin Probleme bei der Zuordnung des Begriffs „Gorilla“ zu den richtigen Fotos zu haben, denn Google nutzt einen „Quick-And-Dirty-Workaround“: Der Begriff kommt als Label für die Bildauszeichnung nicht mehr vor.

Die KI-Anwendung für Google Photos ist nicht die einzige KI, die Fehler gemacht hat. So hat eine in den USA für die Bewertung von Straftätern eingesetzte Software zur Vorhersage der Wahrscheinlichkeit erneuter Kriminalität Schwarze systematisch schlechter beurteilt. Solche Seltsamkeiten sind ein Beispiel für sogenannten Bias, also systematische Fehler aufgrund von Voreingenommenheit.

Sie entstehen nicht aus der Anwendung eines Algorithmus, sondern sitzen bereits in dem Material, mit dem Neuronetz während ihres Trainings gefüttert werden. Diese Datensätze werden von Menschen zusammengestellt und spiegeln ihrer eigenen Voreingenommenheit und Neigungen wieder. Vereinfacht ausgedrückt: Wenn der KI-Trainer einen Fehler macht, macht auch die KI diesen Fehler und wenn der Trainer rassistisch urteilt, geht die KI auf die gleiche Weise vor.

Seltsamkeiten und Fehler dank Künstliche Intelligenz

Der menschliche Irrtum lässt sich nur sehr schlecht ausschalten. Er steckt überall, auch in zahlreichen KI-Anwendungen. Und je häufiger Machine Learning eingesetzt wird, desto häufiger wird es auch zu Irrtümern und anderen Seltsamkeit kommen. Im letzten Jahr ist schon einiges zusammengekommen:

  • Der Google Übersetzer hat einen Bias, wenn er das genderneutrale türkische Pronomen übersetzen soll. Dabei wird geraten, welches Pronomen genutzt werden soll. Das führt dann dazu, dass der Arzt immer ein „er“ ist, die Krankenschwester aber immer eine „sie“.
  • Facebook musste Mitte des Jahres einen Test mit zwei Chatbots abbrechen, die sich miteinander unterhalten sollten. Die Entwickler hatten vergessen anzugeben, dass die Konversation auf Englisch stattfinden sollte und so haben die beiden KI-Einheiten so etwas ähnliches wie eine Privatsprache entwickelt.
  • Die intelligente Antwortfunktion von Google Allo hat gelegentlich ganz eigene Vorstellungen über die richtige Entgegnung. So schlägt sie als Antwort auf eine Nachricht mit einem Pistolen-Emoji das Turbanträger-Symbol vor.
  • Das KI-Anwendungen für die Bilderkennung sich durch Fotos austricksen lassen, die jeder Mensch korrekt erkennt, zeigte sich im Dezember: MIT-Forschern gelang es, die Google Bilderkennung austricksen. Sie erkannte Helikopter in den etwas ungewöhnlich angeordneten Sturmgewehren.
  • Amazon Alexa findet sich immer mehr Haushalten und sorgt dort für mehr oder weniger amüsante Überraschungen. So bestellte der Digitalassistent einem sechsjährigen Mädchen ein ziemlich teures Puppenhaus. Schlimmer noch: als das regionale TV über den Fall berichtete, wiederholte die Moderatorin den Satz des Mädchens, sodass die Alexa-Geräte in einigen Haushalten von Zuschauern ebenfalls das teure Puppenhaus bestellten.

Bildquelle: Thinkstock

©2018 Alle Rechte bei MEDIENHAUS Verlag GmbH