Die meisten heutigen Verfahren zur Verschlüsselung und Entschlüsselung von Information bei Verwendung z.B. im Internet (Homebanking) oder im Auto (SMS-Telematik, Zertifikate) basieren auf der Schwierigkeit, große Primzahlen zu finden, bzw. eine große (öffentliche) Zahl in wenige aber große (private) Primfaktoren zu zerlegen. Das bekannteste und erfolgreichste Verfahren in der Public-Key-Kryptographie ist das RSA-Verfahren. Im Jahr 1994 demonstrierte der amerikanische Mathematiker Peter W. Shor, daß das Problem des Faktorisierens einer natürlichen Zahl N \"effizient\" auf einem Quanten-Rechner gelöst werden kann. \"Effizient\" bedeutet in diesem Zusammenhang, daß die Anzahl sogenannter \"Gate-Operationen\" auf einem Quanten-Rechner ein einfaches Polynom darstellt. Im Gegensatz dazu sind die Rechen-Operationen auf einem klassischen Rechner immer von exponentialer Größenordnung. Da es bis heute noch keinen derart \"effizienten\" Quanten-Rechner gibt, macht die vorliegende Arbeit einen Ansatz, die stochastischen Eigenschaften der Quanten-Mathematik auszunutzen, um zu untersuchen, ob es für das Problem des Faktorisierens einer natürlichen Zahl N mit Hilfe des Shor-Verfahrens möglich ist, die Anzahl der mathematischen Operationen auf einem klassischen Rechner mit Hilfe von phasenbehafteten Messungen zu \"polynomialisieren\". Das Shor-Verfahren liefert zum Faktorisierungs-Algorithmus von Gary Lee Miller nur die Berechnung der Ordnung R Modulo N, während die Faktoren von N weiterhin über Euclids Formeln des größten gemeinsamen Teiler ermittelt werden. Aus diesem Grund untersucht diese Arbeit, ob sich die Berechnung der Ordnung R \"polynomialisieren\" läßt. Bei einer phasenbehafteten Messung des Shor-Algorithmus wird das Multi-q-Bit als Ergebnis der Hadamard-Transformation per Zufallsgenerator zum ersten Mal und als Ergebnis der inversen Fourier-Transformation zum zeitenmal gemessen. Phasenbehaftet bedeutet in diesem Zusammenhang, daß die ursprüngliche Phase des Basisvektors im Multi-q-Bit nach der Messung normiert übernommen wird. Wird eine polynomiale Anzahl verschiedener Messungen aufsummiert, dann erhält man als Ergebnis einen reduzierten Shor-Algorithmus. Mit diesem reduzierten Algorithmus wird die Ordnung R Modulo N ermittelt und mit dem erwarteten Wert verglichen. Eine Testreihe über verschiedene N zeigt, daß mit steigendem N auch die polynomiale Anzahl der Messungen steigt, damit der reduzierte Shor-Algorithmus zu verlässlichen Ordnungen R führt. Damit konnte gezeigt werden, daß sich die Berechnung der Ordnung R und somit die Faktorisierung der Zahl N über einen reduzierten Shor-Algorithmus auf einem klassischen Rechner nicht polynomialisieren läßt. Dieses Ergebnis entspricht der Erwartung. Denn wäre es möglich, die Zahl N mit polynomialen Aufwand zu faktorisieren, dann könnten Computer-Hecker ohne große Mühe verschlüsselte Informationen entschlüsseln. Mit der Methode der phasenbehafteten Messungen ist dies nicht möglich.
«Die meisten heutigen Verfahren zur Verschlüsselung und Entschlüsselung von Information bei Verwendung z.B. im Internet (Homebanking) oder im Auto (SMS-Telematik, Zertifikate) basieren auf der Schwierigkeit, große Primzahlen zu finden, bzw. eine große (öffentliche) Zahl in wenige aber große (private) Primfaktoren zu zerlegen. Das bekannteste und erfolgreichste Verfahren in der Public-Key-Kryptographie ist das RSA-Verfahren. Im Jahr 1994 demonstrierte der amerikanische Mathematiker Peter W. Shor,...
»