Вы находитесь на странице: 1из 2

PROBLEMAS DE LA COMPUTACIÓN CUÁNTICA

bastante baja, es posible usar eficazmente la corrección de errores cuántica, con lo cual sí serían
posibles tiempos de cálculo más largos que el tiempo de decoherencia y, en principio,
arbitrariamente largos. Se cita con frecuencia una tasa de error límite de 10–4, por debajo de la
cual se supone que sería posible la aplicación eficaz de la corrección de errores cuánticos.

Otro de los problemas principales

Uno de los obstáculos principales para la computación cuántica es el problema de la decoherencia


cuántica, que causa la pérdida del carácter unitario (y, más específicamente, la reversibilidad) de
los pasos del algoritmo cuántico. Los tiempos de decoherencia para los sistemas candidatos, en
particular el tiempo de relajación transversal (en la terminología usada en la tecnología de
resonancia magnética nuclear e imaginería por resonancia magnética) está típicamente entre

es la escalabilidad, especialmente teniendo en cuenta el considerable incremento en cúbits


necesarios para cualquier cálculo que implica la corrección de errores. Para ninguno de los
sistemas actualmente propuestos es trivial un diseño capaz de manejar un número lo bastante
alto de cúbits para resolver problemas computacionalmente interesantes hoy en día.

ORIGEN DE LA COMPUTACIÓN CUÁNTICA

Una partícula clásica, si se encuentra con un obstáculo, no puede atravesarlo y rebota. Pero con
los electrones, que son partículas cuánticas y se comportan como ondas, existe la posibilidad de
que una parte de ellos pueda atravesar las paredes si son los suficientemente delgadas; de esta
manera la señal puede pasar por canales donde no debería circular. Por ello, el chip deja de
funcionar correctamente.

A medida que evoluciona la tecnología y se reduce el tamaño de los transistores para producir
microchips cada vez más pequeños, esto se traduce en mayor velocidad de proceso. Sin embargo,
no se pueden hacer los chips infinitamente pequeños, ya que hay un límite tras el cual dejan de
funcionar correctamente. Cuando se llega a la escala de nanómetros, los electrones se escapan de
los canales por donde deben circular. A esto se le llama efecto túnel.

La idea de computación cuántica surge en 1981, cuando Paul Benioff expuso su teoría para
aprovechar las leyes cuánticas en el entorno de la computación. En vez de trabajar a nivel de
voltajes eléctricos, se trabaja a nivel de cuanto. En la computación digital, un bit sólo puede tomar
dos valores: 0 o 1. En cambio, en la computación cuántica, intervienen las leyes de la mecánica
cuántica, y la partícula puede estar en superposición coherente: puede ser 0, 1 y puede ser 0 y 1 a
la vez (dos estados ortogonales de una partícula subatómica). Eso permite que se puedan realizar
varias operaciones a la vez, según el número de cúbits.

El número de cúbits indica la cantidad de bits que pueden estar en superposición. Con los bits
convencionales, si se tenía un registro de tres bits, había ocho valores posibles y el registro sólo
podía tomar uno de esos valores. En cambio, si se tenía un vector de tres cúbits, la partícula puede
tomar ocho valores distintos a la vez gracias a la superposición cuántica. Así, un vector de tres
cúbits permitiría un total de ocho operaciones paralelas. Como cabe esperar, el número de
operaciones es exponencial con respecto al número de cúbits.
En consecuencia, la computación digital tradicional no tardaría en llegar a su límite, puesto que ya
se ha llegado a escalas de sólo algunas decenas de nanómetros. Surge entonces la necesidad de
descubrir nuevas tecnologías y es ahí donde la computación cuántica entra en escena.

Para hacerse una idea del gran avance, un computador cuántico de 30 cúbits equivaldría a un
procesador convencional de 10 teraflops (10 millones de millones de operaciones en coma
flotante por segundo), cuando actualmente las computadoras trabajan en el orden de gigaflops
(miles de millones de operaciones).

COMPUACIÓN CUANTICA

La computación cuántica es un paradigma de computación distinto al de la computación clásica. Se


basa en el uso de cúbits en lugar de bits, y da lugar a nuevas puertas lógicas que hacen posibles
nuevos algoritmos.

Una misma tarea puede tener diferente complejidad en computación clásica y en computación
cuántica, lo que ha dado lugar a una gran expectación, ya que algunos problemas intratables
pasan a ser tratables. Mientras que un computador clásico equivale a una máquina de Turing,1 un
computador cuántico equivale a una máquina de Turing cuántica.

nanosegundos y segundos, a temperaturas bajas. Las tasas de error son típicamente


proporcionales a la razón entre tiempo de operación frente a tiempo de decoherencia, de forma
que cualquier operación debe ser completada en un tiempo mucho más corto que el tiempo de
decoherencia. Si la tasa de error es lo

considerable incremento en cúbits necesarios para cualquier cálculo que implica la corrección de
errores. Para ninguno de los sistemas actualmente propuestos es trivial un diseño capaz de
manejar un número lo bastante alto de cúbits para resolver problemas computacionalmente
interesantes hoy en día.

ORIGEN DE LA COMPUTACIÓN CUÁNTICA

Una partícula clásica, si se encuentra con un obstáculo, no puede atravesarlo y rebota. Pero con
los electrones, que son partículas cuánticas y se comportan como ondas, existe la posibilidad de
que una parte de ellos pueda atravesar las paredes si son los suficientemente delgadas; de esta
manera la señal puede pasar por canales donde

Вам также может понравиться