Drei Fragen an...

Die Muster in den Daten erkennen

Prof. Dr. Prof. h. c. Andreas Dengel vom Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) und Steffen Pietsch von der DSAG im Gespräch über Voraussetzungen und Praxisbeispiele für Künstliche Intelligenz.

  • Ein Roboter bedient einen Touchscreen in einer Fertigungshalle

    Für den praxisnahen Einsatz von KI spielt die Qualität der Trainingsdaten eine große Rolle. ((Bildquelle: Thinkstock/iStock))

  • Prof. Dr. Prof. h. c. Andreas Dengel, Standortleiter am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) in Kaiserslautern.

    Prof. Dr. Prof. h. c. Andreas Dengel, Standortleiter am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) in Kaiserslautern. ((Bildquelle: DFKI))

  • Steffen Pietsch, DSAG-Technologievorstand und Fachvorstand Technologie bei Haufe-Lexware

    Steffen Pietsch, DSAG-Technologievorstand und Fachvorstand Technologie bei Haufe-Lexware. ((Bildquelle: DSAG))

Bilderkennung, Spracheingabe oder intelligente Robotik: Bereits heute erfüllen Technologien der Künstlichen Intelligenz (KI) in vielen Großunternehmen Aufgaben und tragen zum wirtschaftlichen Erfolg bei. Gleichzeitig profitieren kleine und mittlere Unternehmen bisher kaum von den Innovationspotentialen neuester KI-Entwicklungen. Abhilfe schaffen wollen jetzt das Forschungszentrum Informatik (FZI), die Gesellschaft für Informatik e.V. (GI) und das European Center for Information and Communication Technologies (EICT) mit der neuen Innovationsplattform AI2Ynet. „Beim Thema Künstliche Intelligenz fehlt es vielen Mittelständlern an eigenen Entwicklungs- und Umsetzungskapazitäten, strategischen Technologiepartnern und am Zugang zu den notwendigen Daten-Pools“, konstatiert Luise Kranich, Leiterin der FZI-Außenstelle Berlin. „Sich der aktuellen Technologieentwicklung zu verschließen, bedeutet jedoch, das Innovationsfeld anderen zu überlassen, mögliche Effizienzsprünge zu verpassen und neue Märkte und Umsatzpotentiale ungenutzt zu lassen. Genau hier wollen wir ansetzen!“

Dies ist ein Artikel aus unserer Print-Ausgabe 5/2019. Bestellen Sie ein kostenfreies Probe-Abo.

Mit AI2Ynet wollen FZI, GI und das EICT mit weiteren Netzwerkpartnern eine Innovationsplattform entwickeln, die Mittelständlern den Zugang zu KI erleichtern und sie bei der Anwendung unterstützen soll. Die Plattform soll Mittelständler unterschiedlichster Branchen in die Lage versetzen, z.B. KI-Algorithmen und Trainingsdaten auszutauschen und strategische Technologiepartnerschaften zu bilden. Wir haben zwei Experten gefragt, wo und wie KI heute schon für den Mittelstand tauglich ist.

ITM: Worauf müssen IT-Leiter bei der Beschaffung und Bereitstellung der Daten für das Training ihrer KI-Systeme achten?

Andreas Dengel: Möchte man ein KI-System verwenden, um Muster in Daten zu erkennen, sind die Datenqualität und -quantität entscheidend. Einerseits benötigt man in der Regel sehr viele repräsentative Datensätze, die alle relevanten Muster, die man erkennen möchte, hinreichend enthalten. Diese Beispieldaten sollten von Experten gekennzeichnet sein, sodass sie von einem KI-System gelernt werden können. Dabei stehen Eigenschaften wie Vollständigkeit gemäß aller zu lernenden Klassen, Eindeutigkeit der Klassenzuordnung und Korrektheit der Labels im Sinne einer objektiven Zuordnung im Vordergrund. Bei der Verwendung tiefer neuronaler Netze ist eine explizite Beschreibung der Klassenmerkmale unerheblich, da solche Netze die Klasseneigenschaften selbstständig lernen.

Steffen Pietsch: Typischerweise spielen verschiedene Disziplinen zusammen, wenn es darum geht, Trainingsdaten zu beschaffen, bereitzustellen und vorzubereiten. Dazu gehören „Data Engineering“, „Data Science“ sowie der Fach- bzw. Business-Bereich. Um aus den ermittelten Informationen belastbare Modelle realisieren zu können, müssen IT-Leiter darauf achten, dass die Qualität der Trainingsdaten hoch ist und dass sie in hinreichender Menge vorliegen. Daten sind dann qualitativ hochwertig, wenn sie vollständig, korrekt und ausgewogen sind. Liegt dementsprechend der Bias nicht bei null, führt das Training der KI-Systeme dazu, dass sich Vorurteile bilden. Um dies zu vermeiden und weil die Datenqualität häufig nicht ausreicht, sollten die Trainingsdaten im besten Fall vor ihrer Verwendung mit verschiedenen Verfahren aufbereitet werden. Dazu zählt die gezielte Dublettenbereinigung sowie das Strukturieren und Normalisieren der Daten.

ITM: Wie ist es um die Plausibilitätsprüfung der Antworten eines KI-Systems bestellt? Was wünschen Sie sich diesbezüglich von den Herstellern?
Pietsch: Bevor ein Modell trainiert wird, werden die verfügbaren Daten typischerweise in Trainings- und Testdaten geteilt. Die Testdaten dienen dazu, das Modell zu validieren. Hierbei kann es hilfreich sein, Dashboards zur Unterstützung heranzuziehen. Sie helfen den Anwendern, möglichst belastbar bewerten zu können, ob ein Modell wirklich korrekt ist. Ich denke in dem Zusammenhang sowohl an A/B-Tests als auch an Langzeittests. Letztere sind insofern sinnvoll, da Modelle und zu messende Parameter im Laufe der Zeit veralten können. Ein gutes Beispiel liefert hier die Modebranche. Aufkommende Modetrends verändern das Kaufverhalten von Kunden, entsprechend schnell sind auch Prognosen auf Basis des Kaufverhaltens wieder überholt. Somit ist es wichtig, die eingesetzten Modelle kontinuierlich daraufhin zu prüfen, ob sie korrekt und präzise arbeiten und belastbare Informationen liefern.

Dengel: In den meisten Fällen werden tiefe neuronale Netzwerke eingesetzt, weil sie sich als vernünftige Alternative für Erkennungs- oder Vorhersageaufgaben erwiesen haben. Jedoch offenbart die Verwendung solcher Ansätze eine Schwäche, die in der Entscheidungstransparenz liegt. Gerade diese ist in vielen Bereichen essentiell, denn oft ist die Beschreibung der Entscheidung ebenso wichtig wie die Entscheidung selbst, da risikosensitive Anwendungen betrachtet werden. Hier stehen die Interpretierbarkeit und die Erklärbarkeit von KI-Lösungen im Fokus. Bei der Interpretierbarkeit geht es darum, die Mechanik erkennen zu können, ohne unbedingt zu wissen, warum. Erklärbarkeit geht noch weiter und betrifft die Fähigkeit, im wahrsten Sinne des Wortes zu erklären, was passiert. Es ist daher wichtig, in naher Zukunft Visualisierungs- und Erklärungskomponenten mit KI-Systemen zu koppeln. Diese sind in der Forschung, z.B. im DFKI, bereits in ersten vielversprechenden Ansätzen verfügbar. Sie beantworten Fragen wie „Welcher Teil der Eingabedaten hat die Entscheidung verursacht?“, „Welcher Teil des Netzwerks wird für eine Entscheidung genutzt?“, „Welche kleinste Änderung des Eingangs kann die maximale Änderung des Ausgangs bewirken?“ oder „Wie lassen sich durch Einblicke in das Netzwerkverhalten bessere Netzwerke entwickeln?“.

ITM: In welchen Bereichen sind KI-Lösungen heute schon praxistauglich – und warum?
Dengel: John McCarthy, einer der Gründungsväter der KI, hat einmal gesagt: „As soon as it works, no one calls it AI anymore.“ KI-Lösungen sind allgegenwärtig, ob bei der Suche im Internet, im persönlichen Assistenten auf dem Smartphone, als Teil unseres Spam-Filters, als Übersetzungsdienst im Internet oder als Routenplaner im Navigationssystem im Fahrzeug. Auf mittelständische Unternehmen bezogen gibt es heute zahlreiche KI-Anwendungen, die ihre Werthaltigkeit als intellektuelle Leistungsverstärker des Menschen bewiesen haben, sei es im Bereich der visuellen Endkontrolle von Werkstücken, als Fuzzy-Regelsystem für Produktionsabläufe oder Diagnosesysteme im Wartungsbereich.

Pietsch: Bei den zurzeit verfügbaren Anwendungen handelt es sich um „schwache Künstliche Intelligenz“. Es sind Lösungen, die nur für spezifische Anwendungsfälle konzipiert wurden und nicht generisch einsetzbar sind, also nicht in der Lage sind, einen Menschen mit seiner allgemeinen Intelligenz vollständig zu ersetzen. Die Anwendungsgebiete für den Einsatz von schwacher KI sind mittlerweile schon recht vielfältig. Sie reichen von Empfehlungsdiensten für Produkte über Prognosen zu Wartungseinsätzen im Industrieumfeld bis hin zu Sprach- und Bilderkennung, Bots sowie Übersetzungsprogrammen. In einigen Bereichen gehört KI inzwischen zum Alltag und kann von verschiedenen Anbietern als Service in den eigenen Lösungen genutzt werden. Hierzu werden entweder bereits trainierte Modelle wie Speech to Text genutzt oder die Anwender trainieren die entsprechenden Modelle auf Grundlage ihrer eigenen Daten. Das ist ein vielver-sprechender Anfang, auf dem es kontinuierlich aufzubauen gilt.

©2019Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok