Drei Fragen an...

Für neue Risiken gewappnet

Dr. Gerhard Schabhüser vom Bundesamtes für Sicherheit in der Informationstechnik (BSI) und Stratos Komotoglou von Microsoft Deutschland im Gespräch über den aktuellen Stand der IT-Sicherheit.

  • Dr. Gerhard Schabhüser, BSI

    „Neu sind spezifische Angriffe auf KI-Systeme selbst, die unbemerkt sowohl in der Trainings- als auch in der Produktivphase durchgeführt werden können.“ stellt Dr. Gerhard Schabhüser, Vizepräsident des Bundes- amtes für Sicherheit in der Informationstechnik (BSI), fest.

  • Stratos Komotoglou, Microsoft

    „Aus unserer Sicht können wir nur durch klare ethische Prinzipien die Voraussetzung für das Vertrauen in intelligente Technologien schaffen“, so Stratos Komotoglou, Business Lead Microsoft 365 Security bei Microsoft Deutschland

Revolutioniert der Einsatz Künstlicher Intelligenz die IT-Sicherheit? Oder bringt die KI-Technologie im Gegenteil völlig neue Gefährdungspotenziale mit sich? Vermutlich ist beides wahr, auch wenn die Experten das auf Messen wie der it-sa noch heiß diskutieren. Deshalb hat IT-MITTELSTAND zwei ausgewiesene Fachleute in Sachen Cybersecurity zu diesem brisanten Thema befragt, um Licht in das Dunkel zu bringen.

ITM: KI ist für die IT-Sicherheit ambivalent, kann KI doch als wirksames Gegenmittel gegen Cyberangriffe dienen, aber von Hackern und Industriespionen durchaus auch für Attacken genutzt werden. Worauf sollten Mittelständler hier aus der Sicherheitsperspektive achten?
Dr. Gerhard Schabhüser: Die klassischen Maßnahmen zur Verbesserung der IT-Sicherheit, wie sie z.B. im vom BSI entwickelten IT-Grundschutz beschrieben sind, sollten für die meisten mittelständischen Unternehmen ausreichend sein. Diese decken die neuen KI-Methoden ab. KI-Algorithmen werden ja verstärkt in marktüblichen Produkten, wie z.B. in Virenschutzprogrammen, eingesetzt und stehen somit auch den Mittelständlern schon heute zur Verfügung.

Neu sind allerdings spezifische Angriffe auf KI-Systeme selbst. Bei diesen Angriffen geht es darum, Entscheidungen von KI-Systemen zu beeinflussen. Solche Angriffe können unbemerkt sowohl in der Trainings- als auch in der Produktivphase durchgeführt werden. Unternehmen, die KI-Lösungen entwickeln oder solche in der Produktion einsetzen, sollten daher entweder selbst die aktuelle Forschung verfolgen oder sich kompetent beraten lassen.

STRATOS Komotoglou: Innovative, intelligente Technologien wie KI und Machine Learning (ML) spielen in der IT-Sicherheit eine entscheidende Rolle. Nur so können wir den zentralen Herausforderungen einer vernetzten Welt begegnen: KI ermöglicht es, auf eine Weise und in einer Schnelligkeit große Datenmengen zu analysieren, zu interpretieren, Muster zu erkennen und Entscheidungsgrundlagen zu erstellen, wie es Menschen ohne die Hilfe von Technologie nicht könnten. Die Krux: Auch moderne Hacking-Tools von Cyberkriminellen bedienen sich heutzutage dieser Technologien und werden so zu einem wachsenden Risiko für die Datensicherheit eines Unternehmens. Laut BSI sind bereits 70 Prozent der deutschen Unternehmen Opfer von Cyber-Attacken geworden.

Viele Formen dieser Malware sind automatisiert polymorph: Sie verändern ihre Erscheinungsform bei jeder Neuinfektion eines Endpunkts. Doch nicht nur die Form globaler Cyberattacken, auch die schiere Menge an Alarmsignalen überfordert traditionelle, statische IT-Lösungen. Manuelle Observierungen und monatliche Updates reichen gegen solch ausgefeilte Angriffstechniken längst nicht mehr aus. Dennoch warten laut einer Studie von Ernst & Young immer noch zu viele Unternehmen ab und zögern die notwendigen Investitionen in digitale Lösungen hinaus.

Um auf die neuen Risiken reagieren zu können, müssen Unternehmen weg von Insellösungen und hin zu einer ganzheitlichen IT-Infrastruktur – unabhängig von der Unternehmensgröße. Insbesondere für mittelständische Unternehmen mit kleineren IT-Abteilungen sind diese strategischen Ziele und ihre Umsetzung entscheidend: Moderne Sicherheitslösungen analysieren, erforschen und bewerten mithilfe von KI und ML große Datenmengen aus der Cloud. Sie erkennen Muster, erledigen Angriffe automatisiert und informieren die IT-Abteilung nur noch darüber, dass Gefahren entdeckt und entfernt worden sind. Das entlastet IT-Abteilungen und stellt den Schutz der Unternehmens- und Mitarbeiterdaten sicher. In unseren Sicherheitslösungen sind diese Technologien seit Langem fest verankert und bedienen sich einer hohen Bandbreite an Signalen, die wir tagtäglich auf unseren Endpunkten, in unseren Softwaresystemen oder aber in der Cloud erkennen.

Dies ist ein Artikel aus unserer Print-Ausgabe 10/2019. Bestellen Sie ein kostenfreies Probe-Abo.

ITM: Ein Angriffsziel könnten also die Trainingsdaten für die KI-Systeme sein. Denn wenn Hacker die Daten korrumpieren oder in ihrem Sinne manipulieren, könnten sie auch die KI-Systeme selbst nutzen, um Schaden anzurichten. Wie lässt sich das erkennen und – wenn möglich – auch vermeiden?
Komotoglou: Datensicherheit hat bei Microsoft höchste Priorität. Jährlich investieren wir 1 Mrd. US-Dollar in die Forschung und Entwicklung von Sicherheitslösungen. Insgesamt 3.500 Experten für Cybersicherheit kümmern sich um den Datenschutz, das Erkennen neuer Bedrohungen und das Optimieren der Reaktionen darauf. Die Kolleginnen und Kollegen im „Cyber Defense Operations Center“ (CDOC) sorgen für die Sicherheit der gesamten Microsoft-Infrastruktur und der Daten unserer Kunden weltweit.

Trotz der wachsenden Gefahr globaler Cyberattacken sind wir so in der Lage mit Hilfe intelligenter Technologien wie KI und ML drohende Angriffe zu erkennen und abzuwehren. Im Szenario eines erfolgreichen Angriffs auf KI-Trainingsdaten können wir den Pre-Breach-Betrieb der Systeme, d.h. den Zustand vor dem Angriff, sowie eventuell kompromittierte Datensätze wiederherstellen.

Schabhüser: Die Qualität der Trainingsdaten ist bei selbstlernenden Systemen von entscheidender Bedeutung, denn diese bestimmen im Wesentlichen das zukünftige Verhalten eines KI-Systems. Wichtig ist, dass die Daten aus einer vertrauenswürdigen Quelle kommen und in jedem spezifischen Fall durch Menschen hinsichtlich ihrer Qualität bewertet werden. Wie so oft erreicht man damit jedoch keine hundertprozentige Sicherheit.

Ob das Training mit vorhandenen Daten zum gewünschten Verhalten eines KI-Systems geführt hat, lässt sich zum Teil auch durch das Verhalten des Systems nach dem Training feststellen. Hierbei können nicht nur mögliche Manipulationen durch Angreifer, sondern auch unabsichtliche Verzerrungen in Trainingsdaten erkannt und gegebenenfalls korrigiert werden.

Robuste, transparente und erklärbare KI-Systeme werden solche Angriffe in Zukunft leichter erkennen und diesen unter Umständen auch widerstehen können. Es ist jedoch noch viel Forschungs- und Entwicklungsarbeit zu leisten, bis solche Systeme gebaut werden.

ITM: Gibt es Zertifikate oder Testverfahren, mit denen neutrale Prüfinstitute wie z.B. der TÜV (oder Mittelständler selbst) die Qualität der Ergebnisse des KI-Systems sicherstellen kann?
Schabhüser: Es gibt derzeit noch keine solchen Prüfverfahren und Zertifikate. Die Frage nach der Prüfbarkeit der Qualität von Ergebnissen, die KI-Systeme erzielen, kann wahrscheinlich nur anwendungsspezifisch geklärt werden.

Sowohl auf nationaler als auch auf europäischer Ebene gibt es jedoch erste Ansätze zur Definition und zur Prüfung von Qualitätseigenschaften von KI-Systemen an sich. Diese beschäftigen sich in erster Linie mit Fragen der Ethik, Transparenz und des Datenschutzes. Als Beispiel kann in diesem Zusammenhang das KI-Gütesiegel des KI-Bundesverbands erwähnt werden.

Das BSI beschäftigt sich schon länger mit der Entwicklung von IT-Sicherheitsstandards. Auch die Entwicklung von Prüfschemata und Zertifikaten für KI-Systeme hält das BSI für essenziell – und ist gerade dabei, zusammen mit Partnern aus der Wirtschaft und Forschung, solche zu entwickeln und der Allgemeinheit zur Verfügung zu stellen. Mit solchen Zertifikaten hoffen wir, dass KI-Lösungen mehr Vertrauen in der Gesellschaft gewinnen und der Standort Deutschland gestärkt wird.

Komotoglou: Intelligente Technologien haben das Potenzial, uns bei den zentralen Herausforderungen unserer Gesellschaft zu unterstützen. Derzeit stehen wir jedoch noch ganz am Anfang der KI-Ära. Um die Möglichkeiten, die diese Technologien bereithalten, ausschöpfen zu können, benötigen wir sowohl ethische Grundprinzipien als auch gesetzliche Regelungen für die Entwicklung und den Einsatz von KI – sie sind die Basis für Vertrauen in die Technologie.
Derzeit arbeiten verschiedene Institutionen und Organisationen daran, die Voraussetzungen dafür zu schaffen. Sie entwickeln Testverfahren und Prüfkataloge, damit wir in Zukunft auf einheitliche Standards für den Einsatz von KI setzen können. Wir begleiten diesen Prozess, fordern gesetzliche Normen und setzen uns für den ethischen Umgang mit KI ein. Das beinhaltet auch, dass KI keine „Blackbox“ sein darf – und dass ihre Entscheidungen für Menschen nachvollziehbar sein müssen. Aus unserer Sicht können wir nur durch klare ethische Prinzipien die Voraussetzung für das Vertrauen in intelligente Technologien schaffen.

©2019Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok