18.05.2017 Google greift an - mit KI

Google Home und Deep Learning as a Service

Von: Ingo Steinhaus

Google hat mit seinen KI-Produkten den Privatanwender im Blick. Doch die KI-Bibliotheken sind auch für Entwickler und den B2B-Sektor interessant.

  • Viermal 45 Tera-Flops: Eine Google Cloud-TPU

  • So sieht Deep Learning as a Service im Rechenzentrum aus

Ein paar Monate nach dem Deutschlandstart des Amazon Echo ist es endlich so weit: Google Home kommt nach Deutschland. Der kleine WiFi-Lautsprecher nutzt den Google Assistant und bietet grob dieselben Funktionen wie sein Konkurrent von Amazon. Er versteht natürliche Sprache und kann mit Actions auf neue Einsatzbereiche erweitert werden.

Doch für die Neuauflage hat Google auch die Grundfunktionen verbessert. So ist jetzt IP-Telefonie eingebaut, im Prinzip also eine Freisprechanlage für das Wohnzimmer. Außerdem soll die Zusammenarbeit mit einem Smartphone verbessert worden sein. So soll es möglich sein, Fahrtrouten direkt auf das Gerät zu übertragen. Darüber hinaus arbeitet Google Home auch als herkömmlicher Bluetooth-Lautsprecher für den Computer oder entsprechende Musikanlagen.

Ergänzend wird es den Google Assistant auch auf dem Smartphone mit deutscher Spracherkennung geben. Zudem wird der Assistent auch auf das iPhone übertragen und dank einer speziellen Entwicklerbibliothek können Hersteller von Geräten aller Art den Dienst in ihre Geräte einbauen. Eine weitere Neuerung: Actions sind jetzt ebenfalls mit dem Smartphone-Assistenten nutzbar. Darüber hinaus gibt es neue Actions für Bezahlvorgänge.

Diese Neuerung zeigen: Google nimmt den Kampf gegen das recht erfolgreiche Gespann aus Amazon Echo und Alexa auf. Auch der Suchmaschinenriese möchte jetzt die deutschen Haushalte erobern und zudem mobile Geräte damit integrieren. Immerhin sollen bereits mehr als 70 Hersteller von Smart-Home-Zubehör bereits den Google Assistant unterstützen.

KI-Rechenleistung in der Cloud

Doch das ist längst nicht alles, was Google auf seiner Entwicklerkonferenz Google I/O präsentiert hat. Google rüstet auch in Sachen Künstliche Intelligenz auf. Interessant ist dabei nicht nur die Tatsache, dass KI-Algorithmen in die nächste Android-Version und andere Google-Produkte integriert werden. Recht spektakulär sind auch einige Ankündigungen rund um Künstliche Intelligenz und Deep Learning.

So hat Google neue und äußerst leistungsfähige „Tensor Processing Units (TPUs)“ vorgestellt. Dabei handelt es sich um Mikrochips, die speziell für Machine Learning optimiert sind. In der aktuellen Gerätegeneration handelt es sich dabei um Module, auf denen vier Chips arbeiten, die jeweils mehr als 45 Billionen Fließkommaoperationen pro Sekunde (Tera-Flops) bewältigen können. Insgesamt schafft ein solches TPU-Modul also 180 Tera-Flops.

Maximal 64 dieser Module lassen sich zu einer Einheit zusammenschließen und erreichen damit sagenhafte 11,5 Petaflops. Diese Rechenleistung soll irgendwann in der nächsten Zeit als „Deep Learning as a Service“ via Cloud buchbar sein. Das ist an sich schon eine gigantische Rechenleistung, doch es geht noch mehr: Im Rahmen des Google-Programms TensorFlow Research Cloud stellt Forschern den Cloud-Zugriff auf 1.000 dieser CPUs zur Verfügung und pro TPU jeweils 64 Gigabyte Arbeitsspeicher.

Bibliothek für vortrainierte KI-Modelle

Die Zahlen wirken gigantisch, sind aber prinzipbedingt für komplexere Deep-Learning-Anwendungen notwendig. Allerdings arbeitet Google auch am unteren Ende des Leistungsspektrums und bietet dafür KI-Lösungen an. Nutzen die Cloud-TPUs für Deep Learning das ressourcenhungrige Hochleistungs-Framework TensorFlow, so sollen in Zukunft Android-Geräte eine eingedampfte Version davon einsetzen können: TensorFlow Lite.

Diese Bibliothek erlaubt Entwicklern, schlanke Deep-Learning-Modelle für Android-Smartphones zu entwickeln. Allerdings: TensorFlow Lite führt lediglich vortrainierte Modelle aus. Für das Training ist auch weiterhin die ganz große Rechenkraft der Cloud erforderlich. Google betont sehr stark die Möglichkeiten für Smartphones, schließlich ist der Fokus des Unternehmens der Privatanwender.

Doch mit einer solchen Laufzeitumgebung wären auch viele interessante B2B-Anwendungen für Deep Learning denkbar. So könnte ein weiterer und im Rahmen des Industrial IoT sinnvoller Anwendungsbereich im Edge Computing liegen. Zeitkritische IoT-Anwendungen werten dann mit den vortrainierten Modellen von TensorFlow Lite Industriedaten aus, ohne dass sie eigens in die Cloud übertragen werden müssten.

Bildquelle: Google

Die neue Startseite für alle KI-Anwendungen von Google: Google.ai

©2017 Alle Rechte bei MEDIENHAUS Verlag GmbH