KI als Risiko

Strenge Regeln zur KI-Sicherheit gefordert

KI hat wie viele Dinge ein Janusgesicht: Sie kann für gute, aber auch schlechte Zwecke eingesetzt werden. Wissenschaftler fordern Maßnahmen.

Roboter im Cyberwar

Bald Realität? KI und Roboter im Cyberwar

Bad Guys with AI - Künstliche Intelligenz könnte im 21. Jahrhundert zu einer Waffe von Kriminellen und anderen dunklen Gestalten werden, warnt eine gemeinsame Publikation von 26 KI-Experten mit dem Titel „The Malicious Use of Artificial Intelligence“. Der Bericht über Sicherheitsrisiken durch KI-Anwendungen ist das Ergebnis der Forschungsarbeit einiger Autoren sowie der Diskussionen auf dem letztjährigen Workshop „Bad Actors and Artificial Intelligence“ der Universität Oxford.

Die Studie sieht bei der digitalen Sicherheit die Automatisierung von Cyberangriffen durch KI-Verfahren als größte Herausforderung. Es seien enorme Steigerungen der Häufigkeit und Stärke der Angriffe möglich, da die „Handarbeit“ deshalb kriminellen durch leistungsfähige Computer ersetzt werden kann. Darüber hinaus ist es denkbar, dass völlig neuartige Angriffsarten entstehen. Als Beispiel nennen die Autoren Verfahren der Sprachsynthese, mit denen täuschend echt die Stimmen von Mitarbeitern nachgeahmt werden können und die somit für betrügerische Zwecke genutzten können.

Nach Auffassung der Studienautoren werden vorhandene Sicherheitsrisiken durch KI-Verfahren verstärkt. So ist es denkbar, dass die Kosten von Angriffen auf die Unternehmens-IT stark sinken und zugleich die Anzahl der potentiellen Angreifer steigt, weil durch KI-Verfahren weniger Know-how und Erfahrung notwendig ist. „Script-Villains“ könnten in Zukunft gigantische DDOS-Angriffe umsetzen, indem sie per KI vollautomatisch riesige Botnetze erzeugen. Darüber hinaus betonen die Autoren, dass Attacken mit KI-Verfahren besonders effektiv, sehr zielgenau und schwierig zu entdecken sind.

Fragwürdige Anwendungen von KI

Sie erkennen auch KI-Systeme als interessante Angriffsziele. Diese besitzen wie andere Software auch kleinere Fehler und Sicherheitslücken, die für Angriffe ausgenutzt werden können. Darüber hinaus hat KI auch neuartige Sicherheitsrisiken durch Drohnen und autonome Waffensysteme. Darüber hinaus ist es möglich, vorhandene KI-Systeme beispielsweise in autonomen Fahrzeugen zu attackieren und sie durch Ausnutzung von Sicherheitslücken fernzusteuern oder gar zu zerstören.

Zudem gibt es eine Vielzahl an politisch-gesellschaftlichen Risiken. KI-Verfahren werden nach Ansicht der Studienautoren in Zukunft auch eingesetzt, um beispielsweise Menschen zu überwachen, zielgenaue Propaganda zu erzeugen oder Videos zu manipulieren. Bereits diese Anwendungen sind fragwürdig, doch die Anfälligkeit von KI-Systemen für Angriffe bringt vollkommen neue, potenzierte Sicherheitsrisiken mit sich.

Die Autoren der Studie fordern Wissenschaftler und Ingenieure auf, das Janusgesicht der künstlichen Intelligenz ernstzunehmen und Vorkehrungen zu treffen, um Missbrauch auszuschließen und die Öffentlichkeit zu warnen. Darüber hinaus rufen sie Politiker und Mitarbeiter der Verwaltungen auf, eng mit technischen Experten zusammenzuarbeiten, um möglichst frühzeitig auf potentielle Sicherheitsrisiken durch KI reagieren zu können.

KI wie Dual-Use-Güter regulieren

Die Studie nimmt die Sicherheitsrisiken von Künstliche Intelligenz in unterschiedlichen Bereichen etwas genauer in den Blick. Dabei wird deutlich, dass KI-Systeme zunehmend in Bereiche vordringen, die heute üblicherweise noch als rein „menschlich“ angesehen werden, etwa soziale Interaktion. Dadurch ist es denkbar, dass es in wenigen Jahren automatisiertes „Social Engineering“ geben wird, das heutiges Phishing mit geschickt geschriebenen E-Mails oder alarmierenden Anrufen als harmloses Geplänkel erscheinen lassen.

Ein weiteres großes Problem ist die immer noch recht häufige Intransparenz von KI-basierten Anwendungen und Softwaremodulen. Hier empfehlen die Autoren der Studie, dass weithin die bewährten Methoden aus der IT-Sicherheit übernommen werden. Ein Beispiel dafür ist die Veröffentlichung von Sicherheitslücken erst dann, wenn es auch eine Sicherheitsaktualisierung gibt.

Eine zweite Empfehlung der Autoren geht etwas tiefer in die Wirtschaftspolitik: Sie fordern, dass KI den sogenannten Dual-Use-Gütern gleichgestellt wird, die sich sowohl für zivile als auch für militärische Zwecke eignen. Dies würde bedeuten, dass Entwicklung, Einsatz und Vertrieb von KI-basierten Verfahren strenger überwacht wird, als dies heute der Fall ist.

Bildquelle: Thinkstock

©2019Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok