Anda di halaman 1dari 13

Introducción a la

Computación Cuántica
Jose Andrés Coba Requena y Miguel Jiménez López

Universidad de Granada

1
Introducción a la Computación Cuántica by Jose Andrés Coba Requena y Miguel Jiménez López is licensed
under a Creative Commons Reconocimiento-CompartirIgual 3.0 Unported License.

This work is licensed under the Creative Commons Attribution-ShareAlike 3.0 Unported License. To view a
copy of this license, visit http://creativecommons.org/licenses/by-sa/3.0/ or send a letter to Creative
Commons, 444 Castro Street, Suite 900, Mountain View, California, 94041, USA.

2
Indice
1. Breve introducción histórica
1.1. El determinismo de los conmutadores
1.2. El principio de incertidumbre

2. Las bases de la computación cuántica

3. El gato de Schrödinger

4. Computación cuántica
4.1. ¿Qué es la computación cuántica?
4.2. Bits y Qubits. La superposición de información
4.3. El enredo cuántico y la teleportación
4.4. Colapso de una función de onda y el no-determinismo cuántico
4.5. Ventajas de la computación cuántica
4.6. Ejemplos de aplicaciones de la computación cuántica
- Algoritmo de Shor para la factorización de un número
- Algoritmo de Grover para búsquedas sobre un conjunto desordenado
4.7. El ruido externo y la decoherencia
4.8. Imposibilidad de clonación de datos cuánticos
4.9. El computador cuántico frente al convencional

5. El futuro de la computación cuántica

6. Bibliografía

3
1. Breve introducción histórica
En este apartado se ofrece una introducción histórica a la computación cuántica desde dos
puntos de vista distintos. Por un lado, atendiendo a la evolución del modelo de computación
actual y el cambio que supone la computación cuántica y por otro, repasaremos brevemente la
evolución de la física que ha permitido sentar las bases de la mecánica cuántica sobre la que se
sustenta la computación cuántica.

1.1. El determinismo de los conmutadores


En la actualidad, un ordenador se puede considerar como la implementación física de una
Máquina de Turing Universal, es decir, un autómata capaz de realizar cualquier algoritmo que
programemos sobre él mediante una unidad que procesa y realiza cálculos, y un vector de celdas
que poseen un valor lógico de cero o de uno.
Para realizar dicha implementación se emplea básicamente un procesador electrónico
(CPU) y memoria formada por conmutadores que puedan indicar un cero lógico asociado al valor
eléctrico de tierra (o apagado), y un uno lógico asociado a un determinado voltaje (encendido).

De esta forma, los ordenadores siempre han estado existencialmente ligados al concepto
matemático de algoritmo y a su consideración clásica como netamente deterministas. Un único
computador calcula un nuevo valor (y sólo un valor) en función de los que calculó anteriormente y
de los valores que posee en memoria. En cualquier instante de tiempo durante un procesamiento
se podría detener el cálculo y observar el valor de las celdas de memoria, y se vería que los
conmutadores que las componen poseen un valor de cero o de uno. Dichos valores podrían
extraerse e introducirse en un procesador distinto, poner en marcha este nuevo ordenador y al
final se obtendrá el mismo resultado que hubiera proporcionado el primero.

Esto ya era así cuando los 167 m 2 que conformaban el ENIAC provocaban apagones en
Filadelfia al comenzar sus cálculos balísticos. Aquel mítico y burdo ordenador fue presentado al
público el 14 de febrero de 1946 y era capaz de realizar 5000 sumas y 300 multiplicaciones por
segundo. Actualmente, la tecnología de circuitos integrados ha permitido a Intel presentar el
pasado 14 de febrero de 2011, exactamente 65 años más tarde, su microprocesador i7-990X del
tamaño de un pulgar y con 6 núcleos que poseen la capacidad para realizar más de 150.000
millones de instrucciones por segundo y un consumo eléctrico realmente lejos de provocar
apagones en ninguna ciudad.
Y sin embargo los dos se rigen por el mismo modelo en el que cada unidad de
procesamiento ejecuta una instrucción. Y después, otra. Los procesadores actuales hacen cada vez
más instrucciones, en menos tiempo y de forma más eficiente, pero al final es recorrer el mismo
camino de una u otra forma.

Por otro lado, las celdas de memoria son actualmente complejos transistores que casi se
podrían medir por el número de átomos que requieren y sin embargo cumplen exactamente la
misma función que aquellas enormes válvulas de vacío que ionizaban el gas que se desprendía de
una cubeta de mercurio: contienen un cero, o un uno, y sólo uno de estos en cada instante de
tiempo.

4
1.2. El principio de incertidumbre
En el siglo XIX, los científicos se encontraron con un extraño fenómeno. Se trataba de que,
al calentar un cuerpo, emite una radiación electromagnética que depende de la configuración
electrónica de sus átomos y moléculas. Este fenómeno se llama radiación térmica. Para resolver
este problema, los científicos definieron el concepto de cuerpo negro. Este es un sistema ideal
capaz de absorber toda la radiación electromagnética que le llega.

Pronto, se demostró que la física clásica no permitía explicar los resultados


experimentales realizados en el laboratorio. En 1900, Max Planck, un físico alemán, encontró una
formulación matemática que se ajustaba perfectamente a la distribución experimental. Sin
embargo, esta ecuación no se podía explicar en términos de la física clásica. Además, Planck
estableció la relación entre la energía y la frecuencia fundamental de lo que él llamaba
“osciladores” (suponía que los átomos de la materia vibraban a una frecuencia característica), E =
h*f, siendo h la constante de Planck. Planck también determinó que la energía se transfería en
cantidades discretas o “paquetes” a los que llamó cuantos. Todas estas ideas fueron tan
innovadoras y “extrañas” que, en un principio, ni el propio Planck creía que fuesen ciertas
llegando a considerarlas meros “artificios matemáticos” para demostrar el modelo del cuerpo
negro.
Otro fenómeno que la física clásica no era capaz de explicar era el efecto fotoeléctrico por
el cual al hacer incidir una onda electromagnética de una determinada frecuencia sobre un metal
este desprendía electrones. Este efecto comenzó a observarse con los experimentos realizados
por Hertz y Hallwachs pero ninguno de ellos supo explicarlo con la teoría electromagnética
formulada por Maxwell. Tuvo que pasar hasta 1905 año en el que Einstein formuló una hipótesis
que permitía explicar el efecto. Consideró que la luz estaba formada por “paquetes” a los que
denominó fotones y que, por tanto, la energía de una onda electromagnética se halla discretizada.
Gracias a esta nueva hipótesis se puede explicar el efecto fotoeléctrico como la interacción entre
un fotón y un electrón utilizando la fórmula que Planck había formulado para la energía.
En 1916, Millikan obtuvo datos experimentales que corroboraron la hipótesis de Einstein.
Todos los experimentos anteriores demostraron que la luz se comportaba en algunas
ocasiones como onda y en otras como partícula, hechos que se postularon en la dualidad onda-
partícula de la luz.
El concepto de cuantificación de la energía afectó también a los modelos atómicos los
cuales incorporaron esta idea postulando que los electrones solo podían estar en unos niveles de
energía determinados. El primer modelo fue el de Bohr que se formuló en 1913 y que asentó la
naturaleza discreta de la energía. Este modelo tenía un problema y es que no podía explicarse si
se consideraba que los electrones giraban alrededor del núcleo ya que esta acción conllevaba una
pérdida de energía que haría que electrón cayese hacia el núcleo. Después de este modelo
atómico se introdujeron otros basados en el concepto de orbital que difiere radicalmente del
concepto de órbita alrededor del núcleo.
En 1924, Louis de Broglie postula el principio de dualidad onda-corpúsculo de la materia
por el cual toda partícula tiene asociada una onda y toda onda tiene su partícula correspondiente
Este postulado fue corroborado en 1927 con el experimento de Davisson y Germer al realizar el
experimento de la doble rendija con electrones y comprobar que los resultados eran distintos si el
experimento se realizaba con o sin luz.
Finalmente, Heissenberg enuncia el principio de incertidumbre que implica que no se
pueden medir simultáneamente la posición de un electrón y su velocidad debido al principio de
dualidad onda-corpúsculo. Todos los hallazgos anteriores contribuyeron a sentar las bases de la
mecánica cuántica que permite sustentar el modelo de la computación cuántica.

5
2. Las bases de la computación cuántica
Mediante las bases de la mecánica cuántica se propone introducir un pequeño giro en los
modelos de cómputo. Se elimina el determinismo impuesto por el conmutador que sólo es capaz
de estar en un único estado (cero o uno) en cada instante de tiempo: las celdas cuánticas no
poseerán ningún valor hasta que el proceso de cálculo haya finalizado. O para ser más precisos:
poseerán al mismo tiempo todos los valores posibles.

Del mismo modo, la mecánica cuántica elimina el axioma que indica que una serie de
cálculos se deben realizar uno tras otro, de forma ordenada, por el procesador. La computación
cuántica elimina la necesidad de poseer varios núcleos de procesamiento trabajando de forma
paralela, pues un único procesador cuántico realizará en cada ciclo infinitas operaciones a la vez.

Así, la computación cuántica estudia la forma de llevar a cabo cálculos sobre unidades
cuánticas que, en resumen, realizarán operaciones a través de infinitos universos paralelos y
proporcionarán los infinitos resultados calculados. Al terminar el cálculo las celdas cuánticas
podrán ser observadas conteniendo un único valor de entre los que poseían y que será, bajo una
determinada probabilidad, el resultado correcto (o no).
Eliminada la confianza y seguridad que proporciona el determinismo de los computadores
lineales (o clásicos) se tiene acceso a las astronómicas velocidades de cálculo que prometen
ofrecer los computadores cuánticos.

Adelantaremos aquí que el objetivo del presente trabajo es el de servir como introducción
a los conceptos más básicos de la computación cuántica, de forma que hacia el final el lector
pueda comprender mejor cómo se llevan a cabo los mencionados cálculos cuánticos y qué tienen
que ofrecer de cara al futuro.

6
3. El Gato de Schrödinger
Hemos mencionado que una celda cuántica de memoria podrá contener un cero, un uno,
o ambos valores al mismo tiempo. ¿Cómo puede ser esto posible?.
La razón es que si una partícula cuántica puede estar en varios estados distintos, existe la
posibilidad de que se encuentre en una "superposición" de varios de esos estados.

Para clarificarlo expondremos el Experimento de Schrödinger:


Supongamos una caja que aísla completamente lo que se encuentra en su interior de lo
que se encuentra en el exterior, de forma que por mucho que movamos, golpeemos o irradiemos
la caja, su contenido nunca percibirá dichas acciones. El interior estará literalmente aislado, y
desde fuera tampoco se podrá tener noticia alguna de lo que ocurra dentro.
Supongamos también un artefacto que detecta cuándo una partícula es disparada por
materia radiactiva y en el momento en que esto sucede responde rompiendo una botella de
veneno.
Ahora acoplemos al artefacto una cantidad de sustancia radiactiva de la que sabemos que
a lo largo de una hora tiene una probabilidad exacta del 50% de desprender o no desprender
radiación, introduzcamos en nuestra caja el artefacto junto a, por ejemplo, un gato doméstico, y
cerremos la caja.
Al transcurrir una hora ¿qué información tenemos del gato? ¿está vivo? ¿está muerto?
La mecánica cuántica tiene una respuesta clara: el gato se encuentra en una superposición
de los estados "vivo" y "muerto" con idéntica probabilidad de colapsar a cualquiera de ellos. Es
decir, que el gato está, literalmente, vivo y muerto a la vez. En el momento en que abramos la caja
y observemos su interior, el estado del gato (o, en términos mucho más apropiados, su función de
onda) colapsará a uno de los dos estados, y sólo en ese momento estará realmente vivo o
realmente muerto.

Es difícil aislar un gato por completo, pero a escala atómica y subatómica, las condiciones
del experimento de Schrödinger sí pueden darse. De hecho, se dan, y se demuestra que las
partículas pueden encontrarse en una superposición de estados. La superposición de estados se
caracteriza porque la partícula que se encuentra en varios estados posee una probabilidad
determinada de estar en uno de esos estados.
En el caso del gato, la probabilidad era del 50%, pero si permanece más de una hora en la
caja, entonces la probabilidad de que al abrirlo se encuentre muerto será mayor, pero encontrarlo
vivo siempre será una posibilidad.

En nuestro caso, haremos que un conjunto de bits cuánticos (de ahora en adelante qubits)
se encuentren con idéntica probabilidad en cero o en uno, de modo que si tenemos ocho qubits,
tendremos un byte cuántico que estará al mismo tiempo en todos los valores comprendidos entre
0 y 255, al operar con él estaremos operando sobre los 256 valores al mismo tiempo.
Si aplicamos a un conjunto de qubits un algoritmo cuántico adecuado, al finalizar
tendremos una elevada probabilidad de que cuando observemos el resultado éste colapse al valor
correcto que el algoritmo debía calcular.

7
4. Computación Cuántica
4.1. ¿Qué es la computación cuántica?
Como decíamos, la computación cuántica aporta un pequeño cambio en el paradigma de
la computación que permite aplicar un paralelismo masivo a la hora de realizar cálculos para
obtener importantes ganancias en tiempo de cálculo, sacrificando el determinismo de los
algoritmos clásicos.
Para esto un ordenador cuántico necesita que las partículas que vayan a conformar los
qubits que lo componen puedan encontrarse en dos estados al mismo tiempo, requiriendo un
aislamiento casi total y un entorno que controle y evite cualquier posible interacción de los qubits
con otras partículas o radiaciones, lo que hace complicado construir actualmente computadores
cuánticos reales que puedan llegar a ser estables y es este el motivo por lo que aún no se ha
llegado a implementar un ordenador cuántico con suficiente capacidad, llegando sólo a realizar
prototipos que poco a poco van avanzando.
Vamos a analizar los conceptos que permiten a un computador cuántico funcionar y
detallar los obstáculos con los que se encuentran los investigadores de este campo.

4.2. Bits y Qubits. La superposición de información.


En los ordenadores clásicos la mínima cantidad de información almacenable es el bit. Una
celda de memoria atómica puede almacenar uno de dos posibles estados discretos, el 0 o el 1. La
aplicación de la mecánica cuántica al concepto de bit es lo que permite el nacimiento del bit
cuántico o qubit (quantum bit): una celda de memoria que puede encontrarse en uno de los dos
estados (0 ó 1), o en una determinada superposición de ambos.
Esto significa que con un registro de N qubits se pueden representar hasta 2N valores
distintos. Y al hacer una operación sobre un registro de qubits se estará haciendo sobre todos los
valores que estén superpuestos en el registro. Esta aplicación masiva de cálculos en paralelo es lo
que podemos denominar, bajo la Interpretación de Everett, “operar sobre los infinitos universos
paralelos”, es decir, sobre las distintas realidades (o valores) que puede contener el registro de
qubits en ese momento. A modo de ejemplo, si se tiene un registro con 10 qubits entonces ese
mismo registro puede almacenar hasta 1024 valores distintos a la vez, esto es, la superposición de
todos los posibles valores que podrían tomar los 10 bits clásicos. Al operar con ese registro, se
estará aplicando dicha operación a todos los posibles valores del registro con lo que en este caso
se estarán realizando 1024 operaciones con el coste de una sola. Se ve claro que la potencia del
sistema aumentará exponencialmente con respecto al número de qubits que se consigan agrupar
en un registro.

4.3. Colapso de una función de onda y el no-determinismo cuántico


Como se explicó con el Experimento de Schrödinger, mientras el estado de un sistema es
desconocido, éste se puede encontrar en un estado “inestable” que sea superposición de
distintos estados estables. Al hacer una medición u observación sobre el sistema, se perderá la
superposición y se observará sólo uno de los estados estables que estaban superpuestos. Este
fenómeno se denomina colapso de la función de onda del sistema e implica que observar un qubit

8
determinará su valor en términos de 0 ó 1, convirtiéndolo en un bit clásico, pero siendo imposible
predecir a cual de los dos valores va a colapsar.
No obstante, no todas las superposiciones de estados son iguales entre sí. Se ha explicado
que dos estados están superpuestos cuando al observar el sistema este puede encontrarse en uno
o en otro, sin que ninguna razón en particular influya en el estado que observemos. Pero habrá
una probabilidad asociada a cada uno de los estados superpuestos: la probabilidad de que ese sea
el estado que observemos al realizar una medición sobre el sistema.
Esto permite que en un registro de qubits no todos los valores tengan la misma
probabilidad de ser observados. Los algoritmos cuánticos operarán con registros de forma que los
valores incorrectos se vayan “filtrando” y, operación tras operación, la probabilidad de que el
valor observado sea el que busquemos sea máxima. Aunque nunca exista la certeza de que
obtengamos el valor correcto, haciendo que los algoritmos cuánticos sean claramente no-
deterministas.

4.4. El enredo cuántico y la teleportación


Un concepto sorprendente de la mecánica cuántica es el conocido como enredo cuántico
o entrelazamiento por el cual dos partículas de estado desconocido se ligan de forma que,
independientemente de la distancia a la que se encuentren, al colapsar la función de onda de una
de las partículas, quedará determinado en mayor o menor medida el estado de su contrapartida
entrelazada, aun cuando esta otra partícula se encuentre en un sistema independiente. Este
efecto se aplicará a los qubits haciendo que el valor que tomen unos dependan del valor que
observemos en otros, permitiéndonos realizar ese “filtrado” de valores del que hablábamos, pues
observar un cierto valor en un registro, condicionará completamente los valores que podamos
observar en otro registro que esté enlazado con el primero.

La teleportación cuántica hace uso de este principio, y nos permite recuperar la


información que contiene un qubit de estado desconocido en cualquier lugar alejado del qubit
original, transportando así toda la información que contenía dicho qubit hasta otro qubit.
Usaremos el entrelazamiento de dos qubits como canal de transmisión: operaremos el qubit que
queremos transportar con uno de los qubits entrelazados, provocando un colapso de la
información de ambos y obteniendo dos bits clásicos junto al qubit entrelazado que está sin
colapsar. Esos dos bits clásicos pueden ahora ser operados conjuntamente con el qubit
entrelazado, permitiéndonos restaurar la información que contenía el qubit a transportar. Esto
nos permite enviar la información que contiene un qubit de estado desconocido a cualquier otro
lugar, sin perder información y sin riesgo de que durante el envío el qubit interacciones con el
sistema arruinando la información que contiene.

4.5. Ejemplos de aplicaciones de la computación cuántica


A continuación se exponen dos aplicaciones interesantes para la computación cuántica.

Algoritmo de Shor para la factorización de un número:

En la actualidad, la factorización de enteros en números primos supone uno de los


mayores retos computacionales existentes. Los mejores algoritmos de factorización conocidos no

9
resuelven el problema en un tiempo asumible, tienen una eficiencia teórica aproximada de
(O(en·log(n))),con n el tamaño en cifras del número, y el último resultado práctico obtenido supuso
18 meses de cálculo (en 50 años de “tiempo de cómputo”) para factorizar un número de 200
cifras.
Esto es aprovechado en el campo de la encriptación, para crear claves que impliquen
conocer los factores de un número grande para ser descifradas.

En este caso, la computación cuántica nos promete grandes resultados, aportando el


Algoritmo cuántico de Shor, que transforma el problema de encontrar los factores primos de un
número en el problema de encontrar el periodo de una cierta función, y luego hace uso de las
ventajas de la computación cuántica para evaluar la función en todos sus puntos a la vez,
encontrando casi con seguridad el periodo de la función, y consiguiendo un ahorro en tiempo de
cálculo hasta alcanzar una eficiencia de (O(log(n)3)).
Se puede ver fácilmente como la ganancia en este caso entre el algoritmo clásico y el
algoritmo cuántico es de una diferencia abismal.

Algoritmo de Grover para búsquedas sobre un conjunto desordenado:

Podemos encontrar otro ejemplo de las ventajas de los algoritmos cuánticos en el


Algoritmo de Grover para la búsqueda de un elemento sobre un conjunto desordenado.
De forma clásica, la eficiencia de la búsqueda sobre un conjunto desordenado de tamaño
N es, evidentemente, O( n ) . El algoritmo de Grover consigue mejorar este tiempo hasta O( √ n) .

Si bien la ganancia puede no parecer tan impresionante como en el caso anterior, las aplicaciones
son mucho más importantes dado que esto puede ser usado para acelerar cualquier algoritmo
que se base parcial o completamente en una búsqueda exhaustiva sobre el conjunto de posibles
soluciones.

4.6. Ventajas de la computación cuántica


A modo de resumen, las ventajas que aporta la computación cuántica son la aplicación
masiva de operaciones en paralelo y la capacidad de aportar nuevas soluciones a problemas que
no son abarcables por la computación cuántica debido a su elevado coste computacional.

Sin embargo, y a pesar de las ventajas expuestas anteriormente, un ordenador cuántico


solo será eficiente para un rango de tareas determinado. Esto implica que habrá ciertas funciones
en las que no será una ventaja utilizar la tecnología cuántica frente a la computación clásica
actual.

4.7. El ruido externo y la decoherencia


Un concepto importante en la mecánica cuántica es el de decoherencia. Hemos
comentado que la potencia de la computación cuántica radica en la superposición de estados de
las partículas, que nos permite trabajar paralelamente con casi infinitos valores posibles. Cuando
la función de onda de una partícula contiene varios estados superpuestos se dice que dichos
estados son coherentes entre sí.

10
La decoherencia, por lo tanto, se produce cuando los estados dejan de ser coherentes,
cuando colapsan, fruto de una “observación” o interacción con otras partículas, y el sistema pasa
a estar completamente determinado desde el punto de vista de la física clásica.
La más mínima interacción con el entorno, o la aparición de algún tipo de ruido puede
alterar gravemente la superposición de estados de una partícula, o incluso provocar su
decoherencia total, arruinando todo el proceso. Para llevar a cabo un cálculo sobre un
computador cuántico de forma completamente segura sería necesario aislar por completo los
qubits del universo que los rodea pero permitiendo que se creen entrelazamientos entre ellos.

4.8. Imposibilidad de clonación de datos cuánticos


El ruido y los errores de transmisión de datos no son desconocidos en la computación
clásica, pero todos los mecanismos de corrección de errores que se conocen implican copiar un
dato y volver a grabarlo o almacenar algún tipo de copia de seguridad.
No obstante, en mecánica cuántica existe el denominado teorema de la no clonación que
establece que no se puede copiar un estado cuántico desconocido. Es decir, si intentamos clonar
un valor desconocido, primero debemos conocerlo, lo que destruiría por completo la
superposición de estados en la que se encuentre, perdiendo toda la información que almacenase.
No se puede copiar un determinado qubit para trabajar con él y mantener otra copia
intacta, ni de podría re-grabar un qubit para restaurar su valor original. Cualquier intento de este
tipo se encuentra como principal obstáculo el insalvable Principio de Incertidumbre de
Heissenberg.
Todo esto complica el tratamiento de la información cuántica e implica añadir a los
problemas implícitos de implementación, el descubrir e implementar nuevos métodos de
corrección de errores adecuados a la computación cuántica.

4.9. El computador cuántico frente al convencional


A lo largo del artículo se ha hablado de las distintas funcionalidades de un computador
cuántico. Se han señalado algunas tareas para las cuales la tecnología cuántica podía resultar
bastante beneficiosa. Sin embargo, existen muchas aplicaciones para las cuales un ordenador
cuántico no supondría ningún avance respecto a los ordenadores actuales.
Los computadores cuánticos obtienen su potencia de las operaciones en paralelo que se
llevan a cabo al operar sobre los bits cuánticos, pero existen múltiples tareas que necesitan un
tratamiento secuencial que no se vería beneficiado por la computación cuántica, o que incluso se
vería perjudicado, puesto que la velocidad a la que vibra el cristal de cuarzo de un computador
actual, y que rige la cantidad de operaciones que realiza por segundo, alcanza el orden de varios
GHz, mientras que la velocidad a la que vibra un ion de calcio para transmitir su estado apenas
supera los 10 MHz.
En general, la mayoría de aplicaciones de un ordenador doméstico son esencialmente
secuenciales, por lo que un ordenador cuántico no puede aportar, de forma directa, ninguna
mejora sobre las prestaciones que se le ofrecen al usuario final actualmente.

11
5. El futuro de la computación cuántica
A comienzos de 2011, físicos de la Universidad de Innsbruck consiguieron enlazar 14
átomos de calcio en una trampa de iones, consiguiendo un computador de 14 qubits. La cifra aun
es baja para obtener resultados prácticos pero la rápida evolución que están experimentando los
ordenadores cuánticos invita a pensar que dentro de algunos años ya empezarán a sustituir a los
actuales super-computadores que se usan con fines científicos y militares.
No obstante, si hablamos del futuro de la computación cuántica, éste es realmente
incierto. Aunque podemos estimar los resultados e imaginar las aplicaciones, no podemos saber
exactamente a donde nos llevará esta nueva tecnología que aún se encuentra en su fase de
experimentación y desarrollo. Los autores no se ponen de acuerdo sobre la viabilidad real de esta
tecnología, aunque cada vez son menos los que dudan sobre el hecho de que en algún momento
tengamos computadores cuánticos funcionando de forma real.
Sea como sea, ahora que nos acercamos poco a poco a los límites físicos de
miniaturización de chips integrados, las investigaciones en el campo de la computación cuántica
están dando resultados interesantes en muchas áreas como criptografía o simulación, mientras
que arrojan algo de luz a la investigación sobre mecánica cuántica, permitiendo quizás en un
futuro cruzar los límites que nos imponen los chips de silicio.

12
6. Bibliografía
1. Baila Martinez, S. (2005). Computación Cuántica. http://www.sargue.net
2. Alejo Plana, M.A. (2001). El ordenador cuántico.
http://www.um.es/docencia/campoyl/Cuantico.PDF
3. Salas Peralta, P.J. (2006). Corrección de errores en ordenadores cuánticos. Revista
Española de Fisica (Enero-Marzo, 2006).
4. http://www.babab.com/no12/ordenadores.htm
5. http://www.youtube.com/watch?v=sXyCHdEbmcM
6. http://www.microsiervos.com/archivo/ordenadores/ordenador-cuantico-apagado.html
7. http://www.microsiervos.com/archivo/ordenadores/computacion-cuantica.html
8. http://www.sociedadelainformacion.com/fisica/ordenadorescuanticos.htm
9. http://www.amazings.com/ciencia/noticias/041102a.html
10. http://www.iblnews.com/story/61375
11. http://es.wikipedia.org/wiki/Suicidio_cu%C3%A1ntico
12. http://es.wikipedia.org/wiki/Teleportaci%C3%B3n_cu%C3%A1ntica

13