Fragen? Antworten! Siehe auch: Alternativlos
Zwei Kleinigkeiten koennten im Vortrag mE klarer/korrekter dargestellt werden:Vielen Dank für das Feedback! Ich stimme dem zu, insbesondere die Fourier-Zusammenfassung hätte ich weglassen sollen. Unter den zeitlichen Einschränkungen wäre keine Erklärung besser gewesen als eine verwirrende."ist das [Quantencomputing] universell?"
Ja, das ist es, denn der klassische Rechner ist ein Spezialfall des Quantencomputers: Landauer und Bennett haben in der 70ern gezeigt, dass klassische Computer auch komplett mit *reversiblen* logischen Gattern moeglich sind (z.B. mit dem "Toffoli Gatter", das die Operation "flippe das dritte Bit dann und nur dann, wenn die beiden ersten 1 sind" beschreibt).
Das Toffoli-Gatter laesst sich (wie alle reversiblen Gatter) auch quantenmechanisch realisieren und ein Quantencomputer, der dieses Gatter zur Verfuegung hat, kann alles, was ein klassicher Computer kann, berechnen - es bringt bloss idR keinen Quanten-Vorteil. (Wenn man den Quantencomputer nicht in einem Superpositionszustand startet und als Operationen nur klassische Gatter (wie NOT, XOR, Toffoli) anwendet, die keine Superpositionen erzeugen, dann macht der Quantencomputer nicht mehr und nicht weniger als der entsprechende klassische Computer.
Was nicht universell ist, ist der Quanten-Speedup: man kann zeigen, dass viele Probleme auf dem Quantencomputer nicht (oder nicht viel) schneller geloest werden koennen, als auf dem herkoemmlichen Rechner. Deswegen ist die Erwartung nicht, dass Quantencomputer mal die herkoemmlichen ersetzten, sondern eher, dass sie diese ergaenzen - als eine Art Ko-Prozessor fuer spezielle Probleme (Faktorisierung, Suche, Optimierung, Simulation von Quantensystemen,...).
"Multiplikation grosser Ganzzahlen laesst sich auf Fouriertransformation abbilden"
Vielleicht verstehe ich Dich da bloss nicht, aber das finde ich eine etwas seltsame Zusammenfassung des Shorschen Faktorisierungsalgorithmus. Die Multiplikation grosser Zahlen laesst sich in klassischem und im Quantencomputer effizient implementieren (ohne Fouriertransformation). Aber die Multiplikation (genauer: Exponetierung) modulo einer (grossen) Zahl fuehrt zu *periodischen* Ergebnissen, und diese Periodizitaet laesst sich dann im Quantencomputer mittels Fouriertransformation effizient auslesen (und zwar deswegen, weil der Quantencomputer einer Ueberlagerungen der Ausdruecke a^x mod N fuer alle x erzeugen und dann fouriertransformieren kann. Aus der Periode lassen sich dann (mit etwas Zahlentheorie) die Faktoren von N bestimmen.
Quantenfehlerkorrektur ist theoretisch etabliert: den ersten Beweis dafuer hat 1994 auch Peter Shor gefuehrt, seither sind die bekannten Codes sehr viel effizienter und praxisnaeher geworden. Aber bisher gibt es noch Forschungsthema ist, was die besten Codes sind, mit welchen Fehlerraten sie umgehen koennen (bei den besten allgemeinen Codes derzeit ~1%), wieviele physikalische Quantenbits noetig sind um ein logisches Quantenbit zu codieren usw. und v.a. die experimentelle Realisierung von ausreichend grossen und rauscharmen Strukturen, um nuetzliche Quantenfehlerkorrektur zu demonstrieren (proof-of-principle Experimente, in denen kuenstlich erzeugtes Rauschen korrigiert wurde, gibt's schon laenger).
Update: Ein anderer Leser meint, dass das Xerox-Problem nicht Machine Learning war und ich lieber Teslas Autopiloten als Beispiel nehmen soll.