Diese Systeme mögen keine Unordnung, um stabil arbeiten zu können – zu ordentlich darf es aber wiederum auch nicht sein. Sie benötigen eine fein austarierte Balance zwischen beiden Zuständen. Mit anderen Worten: Schon bei der Produktion muss eine gewisse Unordnung eingebaut werden, um den Computer fehlertoleranter und dadurch stabiler zu machen. »Der Transmon- Chip toleriert nicht nur, sondern benötigt sogar zufällige Qubit-zu-Qubit-Unvollkommenheiten «, erklärt Berke. »In unserer Studie wollten wir herausfinden, wie zuverlässig das Prinzip ›Stabilität durch Zufall‹ in der Praxis ist.« Die Frage lautet also: Wie lässt sich Quanteninformation mit Unordnung optimal schützen?
Um diesen scheinbar paradoxen Punkt zu verstehen, muss man sich ein Transmon- Qubit wie eine Art Pendel vorstellen. Zu einem Prozessor vernetzte Qubits bilden ein System gekoppelter Pendel. Würden die Pendel exakt gleich schwingen, käme es zu großen Resonanzen. Das Prinzip kennt man, wenn große Personengruppen Brücken überqueren. Marschieren sie im Gleichschritt, werden die Resonanzen zu groß: die Schwingung der Brücke schaukelt sich immer mehr hoch, bis die ganze Konstruktion instabil wird. In der Quantenwelt würde dies in den Verlust von Quanteninformation münden; der Rechner wird unbrauchbar. Kontrolliert eingeführte lokale »Verstimmungen« einzelner Pendel halten dergleichen Phänomene in Schach.
Das richtige Maß an Chaos finden
»Als wir die Google- mit den IBM-Chips verglichen, stellten wir fest, dass im letzteren Fall die Qubit-Zustände so weit gekoppelt sein könnten, dass kontrollierte Rechenoperationen beeinträchtigt werden«, sagt Professor Dr. Simon Trebst, Leiter der Gruppe Computational Condensed Matter Physics an der Universität. »Unsere Studie zeigt, wie wichtig es für Hardware-Entwickler ist, die Modellierung von Bauelementen mit modernster Quantenzufallsmethodik zu kombinieren und die ›Chaos-Diagnose‹ als Routinebestandteil in das Design von Qubit-Prozessoren auf Transmon-Plattformen zu integrieren«, fügt Professor Dr. Alexander Altland vom Institut für Theoretische Physik hinzu.
Das habe auch Auswirkungen auf die Größe von Quantenplattformen: Für kleine Referenzsysteme gewonnene Erkenntnisse können nicht ohne weiteres auf Designskalen übertragen werden, die für die industrielle Anwendung nötig wären. Berke führt aus: »IBM hat zum Beispiel eine Strategie vorgeschlagen, um Systeme aus drei Qubits zu optimieren. Nimmt man aber weitere Qubits hinzu, wird das System sofort chaotisch – ein Effekt, der nur aus unserer ›Vielteilchen-Chaos-Perspektive‹ erkennbar ist.«
Das Hochskalieren stellt somit die größte Herausforderung im Chip-Design dar. Je mehr Speicherelemente bei der Entwicklung auf den Chips untergebracht werden, umso schwieriger wird es, die einzelnen Qubits gezielt anzusteuern.
Seitdem die Kölner und Jülicher Theoretiker*innen ihre Analysen gestartet haben, sind weitere Generationen der IBM-Chips auf den Markt gekommen – mit inzwischen 127 Qubits. IBM plant dieses Jahr sogar schon die Vorstellung eines 433-Qubit-Prozessors.
Welchen Weg die weitere Entwicklung von Quantenprozessoren in Zukunft einschlagen wird, ist dabei noch völlig unklar. Denn mehr Qubits bringen nicht automatisch mehr Rechenleistung. »Es gibt einige neuere Modelle einer eigentlich älteren Prozessorgeneration mit nur 27 Qubits, die ein doppelt so großes ›Quantum Volume‹ – ein Maß für die Rechenleistung – haben wie der 127-Qubits-Prozessor«, resümiert Berke.
Auch hat IBM bislang noch keinen Quantenchip entwickelt, der besser abgeschnitten hätte als ein klassischer Supercomputer. Bei der Entwicklung von Quantenprozessoren gilt also nicht unbedingt »größer gleich besser«. Die Lösung könnte auch »kleiner und weniger fehleranfällig« sein. Die Teams bei ML4Q erwarten die weiteren Entwicklungen aus der Industrie gespannt – und forschen selbst in alle möglichen Richtungen.
WETTLAUF UM DIE BESTE TECHNOLOGIE
Am Exzellenzcluster ML4Q werden auch andere Hardware-Plattformen erforscht, darunter die Elektronenspin- Qubits und die topologischen Qubits. Die Herstellung der Elektronenspin- Qubits beruht auf der Halbleitertechnolgie, die schon die heutige Computerindustrie verwendet. Damit ist eine leichtere Integration in bereits vorhandene Computerteile möglich. Die Realisierung der topologischen Qubits steht jedoch vor großen Herausforderungen, weshalb diese Plattform den anderen Ansätzen hinterherhinkt. Schaffen es jedoch die Teams aus der Experimentalphysik in Köln, Aachen und Jülich, topologische Qubits zu realisieren, so würden sie die anderen Qubitformen in ihrer Störanfälligkeit überholen und eine der robustesten Plattformen für Quantencomputer anbieten. Noch ist das Rennen nicht entschieden und die Grundlagenforschung nicht ausgeschöpft.