Um ein Vielfaches schneller

Quantencomputing: Rechnen in neuen Sphären

Quantencomputer arbeiten um ein Vielfaches schneller als bisherige Rechner und dringen somit in ungeahnte Sphären der Datenanalyse vor. Dabei lassen sie schon heute große High-Performance-Computing-Installationen ziemlich alt aussehen. Doch wie funktionieren die dahintersteckenden Technologien und welche Anbieter sind in der Erforschung aktiv?

Wann die ersten Quantenrechner für den kommerziellen Einsatz genutzt werden können, steht noch in den Sternen.

Wann die ersten Quantenrechner für den kommerziellen Einsatz genutzt werden können, steht noch in den Sternen.

Anders als klassische Rechner, die mit binärem Code und damit mit 0 und 1 arbeiten, nutzen Quantencomputer verschiedene Überlagerungszustände zum Rechnen, wodurch massiv parallele Operationen ausgeführt werden können. „Daher misst sich die Rechenleistung nicht in der Taktfrequenz (MHz) wie bei klassischen Computern, sondern in der Anzahl der sogenannten Quantenbits, kurz Qubit“, erklärt Dr. Enrico Thomae, Mathematiker & Kryptanalyst Post-Quantum Research bei Operational Services. Dabei seien laut Thomae die 56 Qubit, die beispielsweise IBM im Rahmen von Forschungen erreichen konnte, bereits „leistungsstärker als alle klassischen Supercomputer unseres Planeten zusammen“.

In einem weiteren Schritt geht es nun darum, die Quantenbits in entsprechende Hardware zu integrieren. „Unternehmen wie Google und Intel setzen darauf, Quantenbits in supraleitenden Mikrochips zu speichern. Diese Methode erfordert aufwendige Technik, um die supraleitendenden Materialien auf -273 °C zu kühlen. Entsprechend hoch fällt der Energieverbrauch aus“, erläutert Philippe Duluc, CTO Big Data und Security bei Atos. Hinzu komme eine umfangreiche Ausstattung zum Erschütterungsschutz, weshalb sich die Investitionssumme für die Hardware insgesamt auf einen zweistelligen Millionenbetrag beläuft.

Möchte man weniger ausgeben, kommen als kostengünstige Alternativen Cloud-Plattformen in Frage. Dabei können Quantencomputer zentral betrieben und deren Rechenpower den Anwendern als „As-a-Service-Modell“ zur Verfügung gestellt werden. Eine weitere Alternative stellen Quantensimulationen dar, die auf die Nachahmung von Quantensystemen abzielen. Nicht zuletzt arbeiten laut Philippe Duluc vor allem Forschungseinrichtungen an Technologieansätzen, die optische Quantenbits, Ionenfallen und Mikrowellenimpulse nutzen und so ohne die aufwendige Supraleitungstechnik auskommen.

Das „reine“ Quantencomputing

Lässt man die angesprochenen Simulationen außen vor, gibt es rund um das „reine“ Quantencomputing-Umfeld noch einige Herausforderungen, die Forscher und Anbieter meistern müssen. Denn Qubits sind enorm empfindlich, sodass jede Störung des Systems zu einem Datenverlust führen kann. Zudem stellt die geforderte Umgebungstemperatur eine Herausforderung dar: Laut Chip-Hersteller Intel müssen Qubits deshalb bei Temperaturen von 20 Millikelvin arbeiten – das ist 250 Mal kälter als im Weltraum. Diese Extrembedingungen wiederum stellen sehr spezielle Anforderungen an das Materialdesign. Um eine optimale Leistung und Funktion von Qubits zu gewährleisten, arbeitet Intel beispielsweise an der Entwicklung verbesserter Chip-Designs und Gehäusetechnologien – etwa einer skalierbaren Hülle, die sowohl die Konnektivität der Chips als auch die elektrische und thermomechanische Leistung steigert.

Dabei sind supraleitende Qubits vergleichsweise groß – laut Intel ist beispielsweise ein Qubit-Testchip inklusive Packaging größer als ein Zwei-Euro-Stück. Diese Ausmaße machen es schwierig, das Design eines Quantensystems auf die Millionen von Qubits zu skalieren, die notwendig sind, um ein wirklich nützliches kommerzielles System zu schaffen. Daher forscht der Hersteller eigenen Angaben zufolge parallel an einer alternativen Struktur, den sogenannten Spin-Qubits, die nicht nur wesentlich kleiner sind, sondern auch bei höheren Temperaturen arbeiten können.

Wettlauf der Tech-Giganten

Mit den eingangs erwähnten 56 Qubit scheint das Ende der Fahnenstange jedoch noch lange nicht erreicht. So präsentierte Google vergangenen März gar den ersten 72-Qubit-Chip. Ein Anzeichen für einen Wettlauf der großen Tech-Giganten um den praktischen Nachweis der Quantenüberlegenheit, glaubt Enrico Thomae. „So sind Google (72 Qubit), IBM (56 Qubit) und Intel (49 Qubit) derzeit in Front, gefolgt von Microsoft, Alibaba und weiteren Forscherteams“, führt Enrico Thomae weiter aus. Anbieter wie Atos hingegen würden momentan bei „echten“ Quantenrechnern keine Rolle spielen, denn die Simulation von Qubits auf klassischen Supercomputern zeige nur die Grenzen dieser Installationen – in diesem Fall 40 Qubit – auf.

Trotz der Bemühungen zahlreicher Hersteller, ist es momentan noch recht schwierig, eine zuverlässige Marktprognose abzugeben. Dies veranschaulichen folgende, krass voneinander abweichende Zahlen: „So erwartet das amerikanische Marktforschungsinstitut Technavio für 2021 einen weltweiten Umsatz mit Quantenrechnern von 300 Millionen US-Dollar, wohingegen ihre Kollegen vom amerikanische Beratungshaus Persistence Market Research 23 Milliarden US-Dollar für 2025 vorhersagen“, berichtet Philippe Duluc. Fakt ist seiner Einschätzung nach: Google, die Hard- oder Software-Konzerne IBM, D-Wave Systems, Intel, Microsoft und Toshiba sowie IT-Dienstleister wie Atos oder ID Quantique werden die Entwicklungen in der Quantentechnologie auf verschiedenen Gebieten weiter vorantreiben. In diesem Zusammenhang gehe es allerdings nicht nur um neue Quantenprozessoren, vielmehr stünden auch Algorithmen, Programmiertechniken und Entwicklungs-Tools für Quantenrechner im Fokus, was das Marktvolumen weiter vergrößert.

Flächendeckender Einsatz

Wann die ersten Quantenrechner für den kommerziellen Einsatz genutzt werden können, steht noch in den Sternen. Dies unterstreicht, die teilweise sehr gegensätzliche Einschätzung von Branchenkennern: So sieht Dr. Wolfgang Maier, Director Hardware Development bei IBM Deutschland, Quantencomputing zwar als vielversprechendes Konzept an, das jedoch bis dato nur in wenigen Forschungslaboren realisiert werden kann. „Durch die Fortschritte, die wir und andere Anbieter in der letzten Zeit gemacht haben, wird die Technologie in den nächsten Jahren in zwar verschiedenen Industrien Einzug halten und bestehende IT-Systeme ergänzen. Bis zu einem flächendeckenden Einsatz wird aber noch eine ganze Weile vergehen“, ergänzt Maier weiter.

Eine Einschätzung, die Philippe Duluc bestätigt: „Die Fachwelt streitet leidenschaftlich darüber, wann Quantencomputer in großem Maßstab verfügbar sein werden. Die Mehrzahl der Experten rechnet mit fünf bis zehn Jahren, Skeptiker halten 15 Jahren für realistisch.“ Weit optimistischer äußerte sich der russisch-französische Physiker Alexey Kavokin von der Universität Southampton, der einen Simulator mit mehr als 100 Knoten bereits in vier Jahren im Einsatz sieht. Ebenfalls sehr zuversichtlich blickt Enrico Thomae nach vorne. Zwar wird es auch seiner Ansicht in absehbarer Zeit keine Heim-Quantencomputer geben. Dennoch glaubt er an eine baldige flächendeckende Nutzung der Quantentechnologie durch Simulationen oder Cloud-Anwendungen, wie sie beispielsweise Atos und IBM künftig anbieten möchten.

Im Praxiseinsatz

Sollte Quantencomputing in den nächsten Jahren den Kinderschuhen entwachsen und somit reine Laborumgebungen verlassen können, stellt sich die Fragen nach sinnvollen Einsatzgebieten. In diesem Zusammenhang verweist Wolfgang Maier auf die Ende 2017 von IBM gemeinsam mit zwölf internationalen Partnerunternehmen ins Leben gerufene Initiative „Q Network“. Das Netzwerk besteht aus Firmen aus verschiedenen Branchen, Wissenschaftsinstitutionen und nationalen Forschungslabors, wobei jeder Partner praktische Anwendungen der Quantentechnologie auf unterschiedlichen Gebieten erforschen wird. Dies reicht von der Anwendung der Quantentechnologie im Bereich Handelsstrategien, Portfolio-Optimierung, Asset Pricing, Abrechnungen und Risikoanalysen bis hin zu Materialwissenschaften oder Maschinenlernen.

Generell sind Berechnungen, die viele Variablen aufweisen und einen hohen Rechenaufwand erfordern, genau das Richtige für Quantenrechner. „Ihr Potential ist riesig, wie erfolgreiche Simulationen von Verkehrsströmen, Finanztransaktionen oder dem Falten von Proteinen zeigen. Quantenrechner eignen sich auch dazu, Versorgungsnetze in der Strom und Wasserversorgung, Bildanalyse und Objekterkennung sowie die Datenverarbeitung in Internet-of-Things-Umgebungen zu optimieren“, führt Philippe Duluc aus. Wichtig sei jedoch auch, mit Quantenrechnern und Simulationsplattformen Algorithmen zu entwickeln, die zu neuen Anwendungen für Big Data, Künstliche Intelligenz und in der IT-Sicherheit führen.

Nach Ansicht von Intel eigne sich die neue Technologie insbesondere zur schnellen Lösung sehr komplexer Fragestellungen, die zum aktuellen Zeitpunkt noch nahezu unüberwindbar sind. „So könnte Quantencomputing die Entwicklung neuer lebensrettender Medikamente um ein Vielfaches beschleunigen oder die Analyse hochkomplexer Finanzsysteme zur Lösung finanzieller Entscheidungsprobleme ermöglichen“, heißt es aus Kreisen des Herstellers.

Neue Sicherheitskonzepte

Sollten sich Quantencomputer über kurz oder lang weiter verbreiten, müssen bisherige Sicherheitsmodelle auf den Prüfstand gestellt werden. Denn aufgrund ihrer exorbitant hohen Rechenleistung sind Quantenrechner dazu in der Lage, die bislang als recht sicher geltenden RSA-Verschlüsselungen zu knacken. Laut Philippe Duluc scheint sicher, dass „wir uns auf ein solches Angriffsszenario vorbereiten müssen“. Vor diesem Hintergrund entwickeln Kryptographen bereits neue asymmetrische Algorithmen, die Angriffen von Quantencomputern standhalten sollen. Die in der Fachwelt als Post-Quantenalgorithmen oder quantensichere Algorithmen bezeichneten Standards sollen laut Duluc in vier bis fünf Jahren einsatzfähig sein.

Darüber hinaus gebe es neben klassischen Sicherheitsverfahren einen völlig neuen Ansatz: „Quantum Key Distribution verspricht einen ultrasicheren Austausch von Schlüsseln bei symmetrischen Verschlüsselungsverfahren. Hier werden die Schlüssel über Lichtwellenleiter in Form von Photonen übermittelt. Andere Techniken nutzen für den Schlüsselaustausch verschränkte Zustände von Lichtteilchen. Ein Abhören der Verbindung würde die übermittelten Informationen verändern – und deshalb sofort auffliegen“, ergänzt Philippe Duluc.

Dies ist ein Artikel aus unserer Print-Ausgabe 05/2018. Bestellen Sie ein kostenfreies Probe-Abo.

Auch Enrico Thomae betont, dass mit der Post-Quantum- und Quantenkryptographie zwei effektive Schutzmaßnahmen zur Verfügung stehen. „Quantenkryptographie nutzt Quanteneffekte, benötigt eigene Hardware und wird daher nur für Spezialanwendungen sinnvoll einsetzbar sein. Post-Quantum-Verfahren funktionieren auf normalen Computern und bieten eine Alternative zu RSA“, berichtet Enrico Thomae. Die erste Konferenz zu Post-Quantum Kryptographie fand im Jahr 2006 und seither regelmäßig statt. Hier sind deutsche Universitäten führend vertreten. Zudem sei auch das Bundesamt für Sicherheit in der Informationstechnik (BSI) der Meinung, dass „der Einsatz quantencomputerresistenter Verfahren früher oder später für die meisten kryptographischen Anwendungen zum Standard werden wird“.

Was unterscheidet Quantencomputing von bisherigen Rechenoperationen?

Während bei herkömmlichen Rechnern Bits entweder die Position 0 oder 1 einnehmen können, arbeitet ein Quantenrechner mit sogenannten Qubits, die mehrere Zustände gleichzeitig einnehmen können. Dadurch ist ein solcher Rechner in der Lage, wesentlich mehr Rechenoperationen simultan durchzuführen. Ein Quantencomputer ist dadurch bei vielen Aufgaben erheblich schneller als selbst die derzeit leistungsfähigsten Supercomputer.

Quelle: Intel

Bildquelle: Thinkstock/iStock

©2018Alle Rechte bei MEDIENHAUS Verlag GmbH

Unsere Website verwendet Cookies, um Ihnen den bestmöglichen Service zu bieten. Durch die weitere Nutzung der Seite stimmen Sie der Verwendung zu. Weitere Infos finden Sie in unserer Datenschutzerklärung.

ok