Quantencomputing

Definition - Was bedeutet Quantum Computing?

Quantum Computing ist ein noch theoretisches Rechenmodell, das eine ganz andere Form der Datenverarbeitung verwendet, um Berechnungen durchzuführen. Die Entstehung des Quantencomputers basiert auf einer neuen Art von Dateneinheit, die als nicht-binär bezeichnet werden kann, da sie mehr als zwei mögliche Werte aufweist.

Technische.me erklärt Quantum Computing

Ein herkömmlicher Computer arbeitet mit binären oder booleschen Datenbits mit nur zwei möglichen Werten: 0 oder 1. Im Gegensatz dazu hat ein Quantenbit oder "Qubit" mögliche Werte von 1, 0 oder eine Überlagerung von 1 und 0, bei einem unbekannten Wert. Laut Wissenschaftlern basieren Qubits auf physikalischen Atomen und molekularen Strukturen. Viele finden es jedoch hilfreich, ein Qubit als binäre Dateneinheit mit Überlagerung zu theoretisieren.

Die Verwendung von Qubits macht das praktische Quantencomputermodell ziemlich schwierig. Herkömmliche Hardware muss geändert werden, um diese unbekannten Werte zu lesen und zu verwenden. Eine andere Idee, die als Verschränkung bekannt ist, verwendet die Quantentheorie, um zu suggerieren, dass genaue Werte nicht so erhalten werden können, wie herkömmliche Computer Binärbits lesen. Es wurde auch vorgeschlagen, dass ein Quantencomputer auf einem nicht deterministischen Modell basiert, bei dem der Computer für einen bestimmten Fall oder eine bestimmte Situation mehr als ein mögliches Ergebnis hat. Jede dieser Ideen liefert eine Grundlage für die Theorie des tatsächlichen Quantencomputers, die in der heutigen Technologiewelt immer noch problematisch ist.