Im Vergleich zu einem herkömmlichen Computer können Quantencomputer bestimmte Arten von Problemen effizienter lösen. Allerdings sind Quantenbits sehr fragil; jede Imperfektion oder Rauschquelle im System verursacht Fehler, die zu falschen Lösungen führen. „Ein erster wichtiger Schritt auf dem Weg zu einem skalierbaren Quantencomputer ist, die Kontrolle über einen kleinen Quantencomputer mit nur wenigen Quantenbits zu realisieren“, sagt Alexander Erhard aus dem Team der Experimentalphysiker um Rainer Blatt und Thomas Monz. Längerfristig könnten größere Quantencomputer immer komplexere Aufgaben erfüllen, wie zum Beispiel maschinelles Lernen oder die Simulation komplexer Molekülsysteme zur Entdeckung neuer Arzneimittel. Mit der zunehmenden Zahl von Quantenbits werden allerdings die möglichen Fehlerpfade im System immer komplizierter.
Skalierbar oder nicht skalierbar
Für die Charakterisierung eines Quantensystems wird ein Fehler- bzw. ein Rauschprofil erzeugt, das vorhersagt, ob der Prozessor tatsächlich die programmierten Aufgaben oder Berechnungen ausführen kann. Um die Leistung eines bestehenden Quantencomputers zu quantifizieren oder um zu bewerten, ob ein Quantencomputer ohne Reduzierung der Fehler vergrößert werden kann, ist es zunächst notwendig, alle wesentlichen Fehler im System zu charakterisieren.
Die Forscher der Universität Innsbruck entwickeln Prototypen von Quantencomputern auf Basis von gespeicherten Ionen, die mit Hilfe von Laserpulsen manipuliert werden. Ihre kanadischen Kollegen Joseph Emerson und Joel Wallman am Institute for Quantum Computing sind auf stringente mathematische Methoden zur Quantifizierung und Verifizierung von Fehlern in Quantencomputern spezialisiert. Gemeinsam haben sie nun ein Verfahren zur Charakerisierung aller Fehlerraten entwickelt, die einem Quantencomputer entstehen können. Sie implementierten diese neue Technik für den Ionenfallen-Quantencomputer an der Universität Innsbruck und fanden heraus, dass die Fehlerraten nicht zunehmen, wenn die Anzahl der Quantenbits im Quantencomputer vergrößert wird.
„Cycle Benchmarking ist die erste Methode, um zuverlässig zu überprüfen, ob sich das Gesamtdesign eines Quantencomputers für die Skalierbarkeit eignet“, sagt Joel Wallman. „Diese Ergebnisse sind signifikant, weil sie eine umfassende Möglichkeit bieten, Fehler über alle Quantencomputerplattformen hinweg zu charakterisieren.“
„Wir haben uns besonders gefreut, dass die Fehlerrate mit der Systemgröße nicht steigt“, sagt Alexander Erhard von der Universität Innsbruck. „Dieses Ergebnis bestärkt uns darin, dass wir keine großen Hindernisse übersehen haben, die uns an der Erweiterung unseres Systems hindern würden.“
(Red./IQC)
Links
- Characterizing large-scale quantum computers via cycle benchmarking. Alexander Erhard, Joel J. Wallman, Lukas Postler, Michael Meth, Roman Stricker, Esteban A. Martinez, Philipp Schindler, Thomas Monz, Joseph Emerson & Rainer Blatt. Nature Communications 10: 5347 (2019)
- Forschungsgruppe Quantenoptik und Spektroskopie