Künstliche Dummheit

Tief in der KI steckt menschliches Versagen

Künstliche Intelligenzen sind nur so schlau oder dumm wie ihre Entwickler. Und sie haben dieselben Vorurteile und Abneigungen.

Seit einiger Zeit leben wir in einer Zeit der Heilsversprechen: Die SciFi-Zukunft ist da, die Künstliche Intelligenz wird uns retten. Nein, sie wird uns vertilgen, wenn es nach den Skeptikern geht. Oder sie wird uns alle Arbeitsplätze kosten. Oder das Leben leichter machen. Was für einige Leute sicherlich das Gleiche ist.

Tatsächlich gibt es immer mehr KI-Demos und teils sogar KI-Anwendungen für den Alltag. Sie fallen allerdings häufig eher durch künstliche Dummheit als besondere Schläue auf. Die katastrophale Leistung des Twitterbots Tay von Microsoft in diesem Frühjahr hat bereits jetzt das Zeug zum klassischen Beispiel dafür, wie weit die Realität von den vollmundigen Versprechungen entfernt ist.

Die Idee hinter dem Bot war, dass die KI die typische Art und Weise der Twitter-Kommunikation eines weiblichen US-Teenagers simuliert. Durch Interaktionen mit anderen Twitter-Teens sollte sie lernen, sich tatsächlich wie ein echter Teenager zu verhalten. Am Ende sollte nach den Ideen von Microsoft wohl ein Turing-Moment entstehen, bei dem Tay von den gleichaltrigen Peers nicht mehr als KI erkannt worden wäre.

Das ist leider schiefgegangen. Menschliche Trolle überschütteten den Account mit politisch fragwürdigen Aussagen, sodass Tay zu einer KI-Rechtsradikalen wurde. Was war passiert? Microsoft hat unwissentlich einen klassischen Fehler begangen: Shit in, Shit out. Vor allem Deep Learning ist in höchsten Maße von der Auswahl des Rohmaterials abhängig, von dem der Algorithmus etwas lernen soll.

Deep Learning hängt von der Qualität des Rohmaterials ab

Hierbei kommt es zu spezifischen Fehlern, die auf die Fehler und Unzulänglichkeiten der Menschen verweisen, die den Algorithmus entwickelt und ihm Lehrmaterial zur Verfügung gestellt haben. So hat die automatische Gesichtserkennung von Google einige Afroamerikaner als „Affen“ kategorisiert. Ähnlich seltsame Ergebnisse gab es bei einem KI-gestützten Schönheitswettbewerb, bei dem lediglich Weiße als schön identifiziert wurden.

Was war passiert? Mit großer Wahrscheinlichkeit fehlten in den Bilddatenbanken, die den neuronalen Netzwerken für das Training eingespeist worden waren, ausreichend viele und ausreichend korrekt vorkategorisierte Bilder von Afroamerikanern. Da alle Fotos und Bildersammlungen von Menschen gemacht sind, reflektiert ihre statistische Zusammensetzung das gesellschaftliche Bild der Afroamerikaner in den USA (und weltweit). Oder etwas einfacher ausgedrückt: Rassistischer Input ergibt rassistischen Output.

Vor allem die KI-Bilderkennung scheint besonders fehleranfällig für falsch zusammengestelltes Rohmaterial zu sein. Das hat auch Google in seinen Experimenten mit dem DeepDream-Algorithmus gemerkt, der für das menschliche Auge verborgene Muster in Fotos erkennt und verstärkt. Eine Zeit lang waren die Ergebnisse lediglich Fraktale mit sehr vielen Hundeköpfen. Der Grund: Der Algorithmus wurde mit der offenen Bilddatenbank ImageNet trainiert, die ungewöhnlich viele Hundefotos enthält.

Diese Fehler zeigen, dass Deep-Learning-Algorithmen deutlich schlechter generalisieren können als die menschliche Intelligenz. Zudem zeigen sie, dass KI nicht besser oder smarter als menschliche Intelligenz ist. Sie ist immer anfällig für menschliches Versagen bei der Entwicklung und beim Training des neuronalen Netzwerkes. Bis auf weiteres ragt die künstliche Intelligenz nicht über die menschliche hinaus – sie wird genauso dumm wie wir Menschen bereits sind.

Bildquelle: Thinkstock

©2019Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok