09.08.2017 KI-Hardware

Von Skylake zu Skynet - die KI-Chips kommen

Von: Ingo Steinhaus

Mehr als ein halbes Dutzend Unternehmen entwickelt fleißig an der nächsten Prozessorgeneration, diesmal speziell für neuronale Netze.

KI-Chip vor stilisiertem Gehirn

KI-Chips sollen Deep Learning beschleunigen

Der Aufschwung von künstlicher Intelligenz und maschinellen Lernen kam parallel zur stark wachsenden Leistungsfähigkeit der Prozessoren in den letzten Jahren. Deshalb arbeiten die meisten KI-Anwendungen auf herkömmlichen Computern mit normalen CPUs und in typischen, nicht spezialisierten Rechenzentren. Doch das ist sehr ineffizient, denn neuronale Netzwerke unterfordern und überlasten herkömmliche Computer gleichermaßen. Sie unterfordern sie, weil sie nur wenige der zahlreichen Funktionen aktueller Allzweckprozessoren benötigen. Sie überlasten sie, da sie diese wenigen Funktionen massenhaft abrufen müssen.

Dies führt dazu, dass KI-Anwendungen hohe Rechenkapazitäten erfordern. Eine Lösung war bislang der Einsatz von Grafikprozessoren, die bestimmte Rechenoperationen extrem schnell ausführen. Sie werden sowohl bei der Bildbearbeitung als auch in der künstlichen Intelligenz häufig eingesetzt, wodurch Grafikspezialist NVIDIA zum bevorzugten Hardware-Lieferanten für KI-Lösungen wurde. Doch der Einsatz der ursprünglich ausschließlich für Gamer gedachten Grafikkarten ist wegen der geringen Anzahl von Herstellern nicht mehr unbedingt eine optimale Lösung. Hinzu kommt, dass auch das „Mining“ von Bitcoin und anderen Digitalwährungen Grafikprozessoren erfordert, sodass es bei bestimmten Modellen inzwischen zu Lieferengpässen kommt.

Prozessoren für Deep Learning

Einige KI-Anbieter sowie andere Unternehmen sind deshalb dazu übergegangen, Spezial-Chips für Deep Learning zu entwickeln. Zum Teil werden sie sogar bereits eingesetzt, etwa bei Google, dass seit 2015 in seinen Rechenzentren selbstentwickelte KI-Chips nutzt, die sogenannten Tensor Processing Units (TPUs). Dabei handelt es sich um Recheneinheiten, die für die Ausführung von vortrainierten neuronalen Netzwerken optimiert sind und die entsprechenden Rechenschritte besonders schnell ausführen.

Auch andere IT-Konzerne engagieren sich in diesem Bereich. So hat Intel im März alle KI-Aktivitäten zusammengefasst und die Artificial Intelligence Products Group (AIPG) gegründet. Unter anderem wird dort der „Lake Crest“ (Nervana) entwickelt, ein mit viel neuartiger Technologie vollgestopfter KI-Beschleuniger, der besser und schneller als Highend-GPUs sein soll. IBM verfolgt einen etwas anderen Ansatz und verabschiedet sich dafür von der herkömmlichen Computer-Architektur: Der Experimentalchip TrueNorth bildet ein neuronales Netz in Hardwareform nach.

Auch die kleineren Chiphersteller arbeiten an spezialisierten KI-Lösungen. Die neue ARM-Architektur Dynamiq ist für Machine Learning optimiert. Qualcomm arbeitet ebenfalls an seinen eigenen AI-Chip und auch Apple arbeitet an einem Ersatz für die herkömmliche Kombination aus CPU und GPU. Das britische Startup Graphcore entwickelt einen KI-Chip, der von den herkömmlichen GPUs abgeleitet ist. Das Unternehmen nennt ihre Prozessoren „Intelligent Processing Unit (IPU)“ und designt sie speziell für die Ausführung von neuronalen Netzen. Zudem gibt es eine Reihe von Ex-Googlern, die ihre Expertise bei KI-Chips in das Stealth-Mode-Startup Groq eingebracht haben.

Doch auch die traditionelle Computer-Architektur ist noch nicht am Ende. Der chinesische Hersteller Inspur hat sich auf High-Performance-Systeme spezialisiert, die im Bereich der künstlichen Intelligenz eingesetzt werden können. Der Inspur AGX-2 AI Supercomputer basiert auf einer Intel Xeon-CPU und acht NVIDIA Tesla-GPUs. Damit erreicht er gut 170 Billionen Gleitkomma-Operationen pro Sekunde - ausreichend Power für KI.

Bildquelle: Thinkstock

©2017 Alle Rechte bei MEDIENHAUS Verlag GmbH