Suchen

QuantHome: Ein Quantenrechner via Crowd Computing

Autor: Sebastian Gerstl

Eine neuartige Form von Quantensimulator soll dem kommerziellen Quantencomputing zum Durchbruch verhelfen: Im Open-Source-Projekt QuantHome sollen einzelne Computer in einem Verbundnetz individuelle Quantenzustände simulieren.

Firmen zum Thema

Die "Black Box" ist die Zentraleinheit des QuantHome-Systems. "Wir können entweder sagen was für eine Berechnung stattfindet oder wo sie stattfindet - beides zugleich ist nicht möglich," sagt Dr. Lars Zirpech von der freien Universität Oppdikted.
Die "Black Box" ist die Zentraleinheit des QuantHome-Systems. "Wir können entweder sagen was für eine Berechnung stattfindet oder wo sie stattfindet - beides zugleich ist nicht möglich," sagt Dr. Lars Zirpech von der freien Universität Oppdikted.
(Bild: gemeinfrei / Pixabay )

Quantencomputer versprechen eine neue, bahnbrechende Art des Computings: Unter Ausnutzung von Prinzipien der Quantenmechanik wären solche Systeme in der Lage, hochkomplexe Berechnungen innerhalb von Sekundenbruchteilen zu bewältigen. Allerdings weisen moderne Quantencomputer-Technologien heute noch eine Reihe von Einschränkungen auf, die eine kommerzielle Massennutzung derzeit noch unattraktiv machen.

Zum einen benötigen die aktuellen Systeme zur Erzeugung der benötigten Quantenverschränkungen Supraleiter, was einen enormen Platz- und Energiebedarf mit sich zieht. Zum anderen lassen sich diese Systeme nur schwierig skalieren, Fortschritte werden derzeit nur Qubit für Qubit gemacht. Das Quantencomputerprojekt IBM Q One brauchte etwa zwei Jahre, um von einem 16-Qubit-Prozessor zu einem „vollintegrierten System" mit 53 Qubit zu gelangen. Für einen voll funktionalen Quantencomputer seien allerdings nach Ansicht unterschiedlicher Forscher 1000 Qubits oder mehr notwendig.

Ein an der königlichen Universität Oppdiktet in Norwegen entwickelter neuartiger Ansatz soll diese Schranken brechen. Der Clou: Qubits werden nicht lokal erzeugt, sondern sollen in einem globalen Rechenverbund einzeln simuliert werden. Der lokale Quantencomputer der Universität kümmert sich dagegen um die rein quantenmechanischen Aufgaben wie Superposition der simulierten Qubits. Auf diese Weise entstehe ein dynamisches, vergleichsweise leichtgewichtiges System, dessen Qubits-Zahl sich leicht nach oben skalieren lässt - abhängig von der Zahl der per Crowdcomputing angeschlossenen konventionellen Rechner.

Eine Simulation einer Quantensimulation

Eine der größten Hürden ist die Erzeugung stabiler, für die Berechnungen notwendiger Qubits. Der derzeit am weitesten verbreitet Ansatz zur Generierung dieser kleinsten Computereinheiten ist, für deren Basis Photonen zu verwenden, die durch den Einsatz optischer Elemente polarisiert werden. Aus den Schwingrichtungen des so erzeugten elektromagnetischen Feldes lassen sich Zustände wie 1 und 0, aber auch Überlagerungen der jeweiligen Zustände erzielen. Dies erfordert allerdings für die Erzeugung jedes einzelnen Qubits einen ungeheuren Platz- als auch Energieaufwand, da die so erzeugten Quantengatter nur in Temperaturen nahe dem absoluten Nullpunkt stabil bleiben.

Anstatt nun einzelne Qubits aufwändig zu generieren kamen die Forscher der Oppdiktet-Universität auf die Idee, diese zunächst „nur" zu simulieren - und den Aufwand zur Simulation dieser Qbits auf einen Rechnerverbund auszulagern. „Wenn sich etwa 1000 Nutzer mit 1000 Computern an dem Verbund beteiligen, lassen sich dadurch bereits potentiell hunderte Quantenzustände simulieren,“ erläutert Dr. Lars Zirpech vom Institut für angewandte Quantenkunde der Oppdiktet-Universität. Diese müssten dann nur noch in Qubits separiert und entsprechend verschränkt bzw. überlagert werden.

Crowd Computing, auch Volunteer Computing genannt, wird in der Forschung häufig als Alternative zu kostenintensiven Supercomputern für komplexe Berechnungen eingesetzt. Komplexe Rechenaufgaben werden hierbei in der Regel in kleinere Pakete zerlegt und auf einen per Internet angeschlossenen Rechnerverbund verteilt. Freiwillige, die zur Forschung beitragen wollen, können per Software diese Pakete auf ihren heimischen PC herunterladen und die ungenutzte Rechenleistung ihres Computers verwenden, um die Datenverarbeitung zu bewältigen, ohne dass ihr gewohnter Arbeitsablauf dadurch gestört würde. Nach fertiger Berechnung des Datenpakets wird dieses an den zentralen Server zurückgemeldet. Bekannte Beispiele von Crowd Computing sind etwa SETI@Home, dass sich der Suche nach intelligentem außerirdischen Leben verschrieben hat, oder Folding@Home, einem Volunteer-Computer-Programm zur Krankheitsforschung, dass in der aktuellen Suche nach einem Mittel gegen Covid-19 massiven Zulauf bekommen hat.

Die „Black Box“ ist die Zentraleinheit des QuantHome-Systems. Ihre Arbeitsweise erfolgt nach der heisenberg'schen Unschärferelation: „Wir können entweder sagen was für eine Berechnung stattfindet oder wo sie stattfindet - beides zugleich ist nicht möglich,“ sagt Dr. Lars Zirpech von der königlichen Universität Oppdiktet.
Die „Black Box“ ist die Zentraleinheit des QuantHome-Systems. Ihre Arbeitsweise erfolgt nach der heisenberg'schen Unschärferelation: „Wir können entweder sagen was für eine Berechnung stattfindet oder wo sie stattfindet - beides zugleich ist nicht möglich,“ sagt Dr. Lars Zirpech von der königlichen Universität Oppdiktet.
(Bild: gemeinfrei / Pixabay )

Wie Lars Zirpech betont mache sich QuantHome zwar ähnliche Prinzipien wie bekannte Crowd-Computing-Plattformen zu Nutze, es weise aber grundsätzliche Unterschiede zu diesen Projekten auf. „Unser Ziel ist kein Ersatz für Supercomputing, sondern Quantensimulation,“ sagt der Forscher. „Die an QuantHome beteiligten PCs führen keine Rechenaufgaben durch, sondern simulieren, jeder für sich allein, nur lokal Quantenzustände.“ Simulierte Qubits zu verwenden habe einen weiteren Vorteil gegenüber den bisherigen Ansätzen des Quantencomputings: Die Entdeckung neuer Quantenzustände kann über eine Aktualisierung der verwendeten Algorithmen schnell in das Gesamtsystem übernommen werden, ohne dass tiefgreifende Änderungen an der zentralen Hardware vorgenommen werden müssten.

Datenverarbeitung per Heisenberg-Prinzip

Um die Qubit-Informationen latenzfrei über das herkömmliche Telekommunikationsnetz zu versenden mache sich das Projekt neue Prinzipien der Quantenkommunikation zu Nutze. Für die Nutzung der simulierten Qubits selbst verwende der zentrale Quantenrechner das Prinzip der heisenberg'schen Unschärferelation in der Quantenmechanik. „Einfach ausgedrückt: Ich kann entweder sagen, was für ein Teil der Berechnungen gerade bewältigt wird, oder wo im Verbund gerade berechnet wird - beides gleichzeitig ist nicht möglich,“ führt Lars Zirpech aus.

QuantHome erfülle nachweisbar vier der fünf Kriterien für einen Quantenrechner: Das System ist sogar hochskalierbar und verfügt über ein Set gut Charakterisierter, wenn auch simulierter Qubits. Diese lassen sich per ferngesteuerten Reset in einen definierten Angangszustand versetzen. Durch Fernzugriff kann ein universelles Set elementarer Quantengatter ausgeführt werden. Und da die Simulation stabiler ist als aufwändig erzeugte „echte" Qubits, ist die Kohärenzzeit des Systems wesentlich länger als die Operationszeit eines Gatters. „Einzig den vierten Punkt können wir nicht erfüllen, da wir die simulierten Qubits nicht messen können, ohne zu viel über ihren aktuellen Teil am Verbundrechensystem zu erfahren,“ sagt Lars Zirpech. Dies verfälsche alle Ergebnisse, egal ob das Qubit derzeit für Berechnungen verwendet werde oder nicht.

Das QuantHome-Projekt soll in Kürze starten, Interessenten sollen eine Vorabversion der „Lirpaloof“ genannten Software bald kostenfrei beziehen könne. Nähere Informationen zu QuantHome und ähnlichen Projekten finden Sie auf der eigens eingerichteten Website.

(ID:46486777)

Über den Autor