Viel Respekt vor neuer Technik

KI und Big Data: Nächste Welle der Disruption

Viele Unternehmen wissen bereits, dass Künstliche ­Intelligenz (KI) ein Thema für sie ist. Doch noch gibt es zu viel Respekt vor den neuen Technologien. Dabei kann die Auseinandersetzung mit KI enorm wichtig sein.

Nächste Welle der Disruption

Nächste Welle der Disruption

Die Unternehmensberatung McKinsey geht davon aus, dass bis 2030 das deutsche Bruttoinlandsprodukt durch den frühen und konsequenten Einsatz von intelligenten Robotern und selbstlernenden Computern um 160 Mrd. Euro höher liegen kann als ohne KI. Der Analyse-Software-Hersteller SAS fand in einer Befragung von 100 Unternehmen jedoch heraus, dass die meisten europäischen Unternehmen bei der Umsetzung in die Praxis noch ganz am Anfang stehen. Zwar diskutieren die meisten bereits über KI, nicht alle sind allerdings sicher, ob ihr Unternehmen die Mittel besitzt, um die Potentiale auch zu nutzen. Probleme liegen demnach im fehlenden Fachpersonal, in der organisatorischen Umsetzung und in mangelnder sozialer Akzeptanz.

„Ich halte es für essentiell, dass sich die Unternehmen mit KI beschäftigen – auch wenn man dann noch weit weg ist von einer industriellen Anwendung im größeren Stil“, meint Achim Baier, Geschäftsführer der Arconsis IT-Solutions GmbH. Es sei nicht sonderlich teuer, sich eine fundierte Meinung zum Thema zu bilden und einfach loszulegen. „Wir hatten das Gefühl, dass einige Unternehmen aus lauter Ehrfurcht vor dem Thema gar nicht erst anfangen“, so der Experte. Aber schon jetzt könnten alle Bereiche angepackt werden, die datenintensiv sind, wo gleiche oder ähnliche Prozesse in großer Anzahl ausgeführt werden. Hier könne durch den Einsatz von KI und Machine Learning oftmals eine höhere Qualität mit weniger Aufwand erreicht werden.

Die Autoindustrie ist tendenziell einer der Vorreiter. Die neue Studie IT-Trends 2018 von Capgemini stellt fest, dass im Automotive-Umfeld „die Bedeutung von Künstlicher Intelligenz und Machine Learning im oberen Mittelfeld, aber deutlich höher als der Durchschnitt aller Befragten“ liegt. Die Data Scientists im Digital Lab von VW warten nicht darauf, dass z.B. SAP entsprechende Algorithmen bereitstellt. Sie bauen mit Programmiersprachen wie „R“ oder Python und KI-Libraries Lösungen, die auf dem ERP-System aufsetzen und dessen Bedeutung langfristig zum rein operativen Engine herabwürdigen könnten.

Große Bedeutung wird künftig dem Thema Bilderkennung zukommen. So setzt Audi beispielsweise auf ein System, das bewerten soll, ob eine Lackoberfläche perfekt oder fehlerhaft ist – das konnten bisher nur qualifizierte Mitarbeiter prüfen. Neben Qualitätsthemen geht es auch um die Sortierung von Produkten: etwa von Wertstoffen wie oder die automatische Erkennung von Gebinden im Lebensmittelhandel. Wie vergleichsweise einfach solche Ansätze zu machen sind, zeigte das Beispiel eines japanischen Informatikers, der die Gurkensortierung im Betrieb seiner Eltern mithilfe von Cloud Computing, dem Minicomputer Raspberry Pi und der KI-Open-Source-Bibliothek Tensor Flow von Google automatisierte.

Entscheidend dafür ist, neuronale Netze mit möglichst vielen als falsch oder richtig gekennzeichneten Bildern zu füttern, oft eine Fleißaufgabe. Insgesamt scheinen die Automatisierungspotentiale durch KI überwältigend. In der Versicherungsbranche und großen Unternehmen kann sie zum besseren Verständnis beitragen, was für Verträge mit welchen Bedingungen vorhanden sind. Sie kann dabei helfen, Teams optimal zusammenzusetzen und Expertenwissen kontextbezogen weiterzugeben. Insbesondere dort, wo man sich in mehreren Einflussbereichen befindet und nicht lineare komplexe Zusammenhänge erforscht, geraten klassische Systeme an ihre Grenzen. Tiefe neuronale Netzwerke könnten über die Anzahl der Neuronen und Schichten bei komplexen Themen wie etwa der Vertriebs- oder Marketingplanung helfen, meint Baier.

Die Abgrenzung zwischen den Schlagworten Big Data, Machine Learning und KI ist nicht einfach. Zum Thema KI werden Bild-, Spracherkennung, Robotik und Deep Learning gezählt. Dem Maschinenlernen können neben neuronalen Netzen (Deep Learning) auch andere Methoden zugrunde liegen. „Deep Learning setzt sehr große Datenmengen und komplexe Fragestellungen voraus, ohne sie ist es sinnlos, neuronale Netze zu bauen“, erklärt Dr. Stefan Rüping, Geschäftsfeldleiter Big Data Analytics beim Fraunhofer IAIS. Während Big Data die Fähigkeit beschreibt, große Datenmengen zu speichern, ist Deep Learning auf Basis neuronaler Netze eine der vielen Analysemethoden, diese Daten auszuwerten. Die Grenze zwischen traditioneller Datenanalyse und KI ist aus Sicht des Fraunhofer-Experten fließend.

Selbst für Excel gelte, dass es sich bei einigen Funktionen anlernen lasse, beispielsweise dabei, aus E-Mail-Adressen Vor- und Nachnamen zu generieren. KI ist dort relevant, wo nun Dinge gelöst werden, die vorher nicht möglich waren, meint der Experte – z.B. die Auswertung von Computertomografien in der Medizin oder eben beim oft zitierten Go-Spiel, das von der Intuition der Spieler lebt und bei dem die Google-KI Alpha Go Weltmeister schlagen konnte.

Datenanalysen allein reichen nicht aus


„Es muss noch ein großer Sprung gemacht werden, um das Fachwissen aus Lehrbüchern und vor allem aus den Köpfen einzubeziehen“, stellt Rüping fest. Eine Herausforderung beim Machine Learning besteht darin, dass es z.B. für Predictive Maintenance meist viele Daten für Normalfälle gibt, doch nur wenige zu Problemen und Totalausfällen. Schließlich schaltet ein Maschinenbediener rechtzeitig ab, wenn er schwerwiegende Probleme aus Erfahrung wahrnimmt. Mit dem gesunden Menschenverstand lasse sich viel erkennen, das die Maschine nicht erkennt, meint Rüping: „Erst dort kann man von KI reden, wo man es schafft, Sachverstand und Daten zu kombinieren.“ IBM spricht mit Blick auf Watson von „Cognitive Computing“ als Ansatz, mit dem sich die massiven Datenmengen, die durch Big Data entstehen, sinnvoll verarbeiten lassen.

Stefan Rüping warnt allerdings davor, sich allzu unrealistische Vorstellungen von KI-Projekten zu machen. Wie schon in der Vergangenheit bei Business Intelligence und Data Mining sind auch bei KI die Daten die größte Herausforderung. Diesmal geht es vor allem um Daten, mit denen neuronale Netze angelernt werden. „Es braucht gelabelte Daten, jemand muss also verzeichnen, was u.a. auf einem Bild zu sehen ist. Wenn ich dafür Labeling-Experten brauche, etwa einen Arzt, ist das unglaublich viel schwieriger“, erklärt der Fraunhofer-Experte. Viel Forschung dreht sich derzeit um die Frage, wie sich künstliche Trainingsdaten erzeugen lassen, um die Vorlaufzeit zu verringern. Die Qualität der Daten ist sogar wichtiger als effiziente Algorithmen: „Die goldene Regel lautet: Bessere Daten schlagen den besseren Algorithmus“, so Rüping.

„Im Prinzip sind nie genügend Testdaten verfügbar. Dadurch sind virtuelle Trainingsdaten sehr relevant“, bestätigt Achim Baier. In Projekten mit Bilderkennung nutze man deshalb Algorithmen, die aus einem Bild viele weitere Bilder erzeugen, durch Rotieren, Stauchen Vergrößerung oder Verwischen von Bildausschnitten. Doch Baier weist auch darauf hin, dass nicht mehr jeder das Rad neu erfinden muss: „Es gibt bereits vortrainierte Netze, die sich einbinden lassen.“

Dies ist ein Artikel aus unserer Print-Ausgabe 12/2017. Bestellen Sie ein kostenfreies Probe-Abo.

Die Gesichtserkennung Face Net von Google sei ein Beispiel dafür. „Die Datenthematik bevorzugt große Unternehmen. Der Mittelstand muss sich zusammenschließen und es muss Brancheninitiativen geben“, konstatiert Baier. So habe der Verband Deutscher Maschinen- und Anlagenbau (VDMA) einen Arbeitskreis, der Interessenten und Know-how-Träger zusammenbringt, damit nicht jeder bei null anfangen müsse. Ansätze, wie sich Daten simulieren lassen, Blueprints für Architekturvorlagen, Algorithmen: Hier sollte eine Bereitschaft da sein, sich auszutauschen, wenn auch nicht über die Daten selbst. „Die größten Chancen liegen bei dem, was wir derzeit noch nicht kennen“, so Baier.


Wie KI die Welt verändert

Künstliche Intelligenz lebt von Speicherkapazität und Rechengeschwindigkeit, von Cloud und Big Data. Während Moore’s Law für Chips mit Transistoren (eine Verdopplung der Leistung alle zwei Jahre) perspektivisch endet, steht die Technologie des Quantum Computing in den Startschuhen. D-Wave hat den ersten kommerziellen Quantenrechner auf den Markt gebracht und geht davon aus, dass er KI-Anwendungen zusätzlichen Erfolg verleihen wird. Das Quantum-Computing-Start-up Rigetti glaubt, dass mit der neuen Computertechnologie ein exponentielles neues Moore‘s Law entsteht. Google-Technikchef und Futurist Ray Kurzweil stellt fest, dass Menschen sich exponentielles Wachstum nicht vorstellen können. Er glaubt, dass KI bis 2045 sich selbst optimieren und die Leistungen des menschlichen Gehirns übertreffen kann. Vor dieser „Singularity“ warnen Wissenschaftler und Visionäre wie Stephen Hawking und Elon Musk. Es ist an der Politik und der Gesellschaft, heute zu diskutieren, wie KI genutzt werden soll – und wo die Grenzen liegen. Auf dem Weg dahin gibt es eine Vielzahl an Chancen für Unternehmen und für Menschen. KI wird dabei helfen, große Wissensressourcen einfach zugänglich zu machen, die Selbstorganisation stark zu vereinfachen und uns Routineaufgaben abzunehmen.


Bildquelle: Thinkstock/Photodisc

©2018Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok