Anda di halaman 1dari 70

DISERTACIONES DE UN SOÑADOR

Algunas observaciones
sobre la Física y su belleza
(1.000 Km. Empiezan con 1 paso)

Sri Deva Fénix.


(Prof. Félix E. Díaz) 2003
Disertaciones de un Soñador
Prof. Félix E. Díaz. (Sri Deva Fénix.)

Algunas observaciones sobre la Física y su Belleza


“Dedicada a todos los Curiosos del Mundo”
Muchas veces me he puesto a pensar en lo pequeño que somos, cuando me asomo por un
pequeño telescopio y miro... o cuando me asomo por un microscopio y miro... o cuando
me asomo en alguna laguna y miro... o en un charco y miro... o simplemente cuando cierro
mis ojos y miro... y recuerdo que así como nunca se cansa el ojo de ver, nunca se cansa la
mente del curioso en preguntar. Y nunca está satisfecha con las respuestas. Creo que el
asunto se convierte en una especie de vicio de la investigación y de las especulaciones que
te atrapan y te condenan, uno simplemente se deja arrastrar, debo confesar mi profunda
curiosidad por la física, y si bien en un principio me inspiró un cierto miedo, hoy me
encanta que me asuste con sus fantasmas y acertijos, los que sin duda me han dado
espectaculares dolores de cabeza y otros... también he llegado a pensar algunas cosas
descabelladas como que la física mejora cuando miramos la naturaleza a escalas cada vez
más pequeñas, lo que pide unos microscopios cada vez más potentes, a los que llamamos
"aceleradores". Así, construimos esas inmensas máquinas, que cuestan muchísimo dinero,
a fin de explorar estas escalas cada día más minúsculas que nos permiten sondear con
mayor profundidad la estructura de la materia.
Hasta ahora, estos enormes microscopios nos han permitido explorar unas distancias del
orden de 10 elevado a -17 cm., es decir, unas distancias muy pequeñas. Y con estos
microscopios, o aceleradores, hemos aprendido mucho sobre lo que constituye el Universo
y sobre las fuerzas que actúan entre los constituyentes de la materia.
Se puede considerar que la física mejora en la exploración de la naturaleza a grandes
escalas, construyendo grandes microscopios para estudiar las pequeñas distancias. Y,
desgraciadamente, esto requiere la construcción de microscopios cada vez mayores que
necesitan cada vez más energía. Esta es la razón por la que se llama "física de altas
energías" a la física de partículas. Y se necesita, evidentemente, cada vez más dinero para
la construcción de estos microscopios. Así, yendo desde las grandes escalas hasta las
pequeñas escalas, hemos descubierto a lo largo de los siglos que a cada escala le
corresponde una nueva física, una unificación más grande de las fuerzas de la naturaleza
y, en profundidad, una sencillez mayor. Por lo tanto, el objetivo es continuar este proceso.
Primero entendimos que la materia estaba hecha de átomos. Y después, gracias a unos
mejores microscopios y utensilios, descubrimos que el átomo está, realmente, constituido
por un pequeño núcleo rodeado de electrones. Así, teníamos el núcleo, formado por
protones y neutrones, y los electrones. Ya en el siglo XX, exploramos las propiedades del
núcleo y descubrimos que estaba compuesto de minúsculos y puntuales quarks. Y para eso
se necesitaron unos microscopios que nos permitieron ver con una precisión de 10 elevado
a -17 cm. Y es, más o menos, la escala hasta donde hemos llegado hoy en día. Sobre la
base de esos experimentos, hemos construido lo que se llama el "modelo estándar", una
teoría notablemente acertada sobre esos constituyentes de la materia, las partículas, y las
fuerzas que las mantienen unidas.
Y esa teoría, que fue elaborada durante largos años, se ha probado con bastante
precisión con los aceleradores de hoy y, por ahora, funciona bastante bien.
Esta carrera hasta las pequeñas escalas nos sirve también para comprender mejor la
historia del Universo. El mismo movimiento desde las grandes escalas hasta las
pequeñas, desde las bajas energías hasta las altas, corresponde al movimiento desde los
tiempos recientes hasta los antiguos en la vida del Universo. Tenemos muchas
indicaciones de que el Universo en su principio era un estado muy compacto, denso y
caliente, en el que las energías eran normalmente enormes. Entonces, la física que
gobernaba el comportamiento del Universo en su nacimiento, o justo después de éste,
era la física de altas energías que todavía no comprendemos muy bien. Es decir, no
comprendemos todavía la historia más antigua del Universo. Durante su evolución, el
Universo se dilataba, se enfriaba, su energía disminuía y la física en vigor es la de bajas
energías. Por lo tanto, la historia del Universo desde unos cuantos segundos desde su
nacimiento se describe mediante una física que sí conocemos. Y podemos predecir, con
más o menos exactitud, lo que pasará en el Universo de aquí a muchos, muchísimos
años vista. Pero lo que nos queda por conocer es la historia más antigua del Universo,
que es esencial para comprender, por ejemplo, el origen y evolución de las galaxias.
Tenemos, entonces, buenas razones para continuar con esta búsqueda de lo
infinitamente pequeño, ahondando cada día más en la estructura de la naturaleza.
Hay muchas indicaciones de que, a medida que progresamos hacia energías cada vez
mayores y distancias cada vez menores, nos estamos acercando a un gran salto.
Este presentimiento se basa, en parte, en el hecho de que la teoría actual de partículas
elementales está compuesta por diferentes partes. Describe la fuerza nuclear fuerte que
mantiene unidos a los quarks. Y Describe también las fuerzas electromagnética y débil
que actúan sobre los electrones y los quarks. Verdaderamente parece que todas esas
fuerzas son distintas manifestaciones de una única fuerza, es decir, que tendrían que
unificarse en una estructura mayor de la que cada una formara parte. Y parece que las
distintas formas de partículas de materia también son, en el fondo, manifestaciones de un
único ente. Por esto, suponemos que tiene que haber una teoría más unificada en la que
las distintas partes del modelo estándar son sólo las consecuencias de un único principio.
Si se extrapola nuestra teoría actual hasta unas escalas que todavía no han sido
exploradas experimentalmente, parece que las fuerzas se convierten en una sola y misma
fuerza en unas escalas muy pequeñas. No del orden de 10 elevado a -17 cm., sino de 10
elevado a -33 cm. Es también a este nivel que se vuelve interesante la preocupación por
la gravedad. Tenemos una teoría sobre la gravedad que sirve para describir el nacimiento
de los planetas, de los grandes objetos, a muy grandes escalas. Pero, hasta ahora, no
hemos conseguido integrar la gravedad a la mecánica cuántica, a las leyes de lo
infinitamente pequeño. Y los esfuerzos que hemos hecho para comprender a qué se
parecería la gravedad a altas energías han sido hasta ahora totalmente improductivos.
Esto se debe fundamentalmente a que esta fuerza es tremendamente débil a altas
energías, por lo que sus efectos son casi inapreciables, excepto cuando se une un número
gigantesco de partículas, como en un planeta.
Pero cuando nos vamos hacia las muy altas energías, la gravedad empieza a volverse una
fuerza muy potente, tanto como las restantes fuerzas. Y es a esa escala, donde la gravedad
se convierte en importante, cuando hay que poner esta fuerza en juego. Esto nos hace
sospechar que llegaríamos a la unificación de todas las fuerzas existentes en esas muy
pequeñas escalas.
El problema de los teóricos, y de todo el mundo en realidad, es que hay una enorme fosa
entre 10 a la -17 cm y 10 a la -33 cm. Y los nuevos aceleradores del CERN y otros
laboratorios agrandan quizá estos límites a nuestra observación, aunque todavía se
encuentren muy lejos de la distancia de Planck, esa muy pequeña distancia. Por otro lado,
los teóricos no tienen todavía este tipo de problemas y pueden intentar hacer este salto con
su imaginación. Y la teoría de las cuerdas es uno de los más excitantes intentos de
construir una teoría unificada de toda la materia y de la gravedad, que describiría a la vez
la física desde 10 a la -33 hasta la física de las más grandes escalas.

El modelo del Big Bang está aceptado por la mayoría de los cosmólogos. No obstante,
aún quedan algunos cuantos que tienen sus propias teorías. Pero los indicios son tan
substanciales que la teoría del Big Bang es la correcta. La evidencia toma forma de
diferentes maneras. En primer lugar, observamos la expansión del Universo, luego se
dispersa. Y esto hace que parezca como si partiera de un denso estado inicial caliente, idea
subyacente en la teoría del Big Bang. También observamos la radiación cósmica de fondo,
una radiación de tercer grado que atraviesa el espacio y llega a la Tierra uniformemente
desde todas las direcciones del espacio. No hay manera de interpretar esto si no es
mediante la teoría del Big Bang.
Finalmente, la teoría del Big Bang predice la relativa abundancia de elementos químicos
que creemos sintetizados en el Big Bang. Y estas predicciones van muy bien.
Globalmente, los argumentos en favor del Big Bang parecen ser los más convincentes.

El modelo inflacionario postula que el Universo ha pasado por un periodo en el que


estaba atrapado en un estado de falso vacío que sería el responsable de su expansión
fulgurante. Esa expansión tuvo lugar, lo más seguro, durante el primer lapso de tiempo,
esto es, durante los 10 elevado a -34 segundos después del Big Bang
(0,000.000.000.000.000.000.000.000.000.000.000.01 segundos después del tiempo 0) y
duró aproximadamente un intervalo de tiempo entre 100 y 1.000 veces mayor, lo que es
terriblemente poco. La inflación entonces sólo modifica nuestra representación del
Universo en esa pequeña, ínfima, fracción de segundo. Después, retomamos el modelo
clásico del Big Bang.

Es divertido constatar que una de las cuestiones importantes en la física es: "¿Qué es
el vacío?" Sin embargo, es una cuestión muy interesante. El espacio vacío se puede
llenar con lo que llamamos procesos virtuales: cosas que surgen brevemente para
desaparecer de nuevo. Estas cosas efímeras forman parte del vacío.
Es finalmente el vacío, la naturaleza del vacío, el que determina las propiedades de las
partículas. El vacío es para nosotros, los científicos de hoy, algo extremadamente rico. El
espacio se ha considerado como la ausencia de materia. En el pasado decíamos que la
naturaleza tenía miedo al vacío. El vacío es nada, es la ausencia de todo, es el cero. Hoy
en día, entendemos el vacío como un estado de energía mínima. Se puede decir que no
existe una energía menor a la del vacío, por lo que el vacío está lejos de ser nada. El
vacío es el reino en el que todo pasa, en el que la materia y las fuerzas se transmiten. Y
el vacío, gracias a la mecánica cuántica, es un medio extremadamente interesante. En el
interior del vacío, a través de unas transiciones, que ocurren continua y espontáneamente
gracias a la mecánica cuántica, existen unas transformaciones. El vacío se transforma en
parejas materia-antimateria que vuelven al vacío de nuevo. El vacío llega a tener así,
durante cortos instantes y bajo la cobertura del principio de indeterminación de
Heisenberg, una riqueza fabulosa. Entonces, el vacío se empieza a convertir en algo tan
interesante como la materia.
Pensamos que la naturaleza y el comportamiento de las partículas dependen del estado
del vacío. Esta es la clave del problema y justamente del modo en el que evoluciona el
vacío. Pensamos que este vacío ha cambiado, en su estructura, en su metamorfosis desde
su aparición en la creación del Universo hasta nuestros días, de una forma
extremadamente profunda. Ahora, las colisiones que realizamos en el CERN, por
ejemplo, y las que se hacen en América, tienen como fin medir la enorme energía del
vacío.
Nosotros, aniquilando materia y antimateria durante unos tiempos extremadamente
cortos y en un volumen extremadamente pequeño, podemos, se podría decir así, calentar
el vacío. Luego podemos transformar el vacío de hoy en lo que era el vacío de ayer. Y
tener, durante un muy breve intervalo de tiempo, la posibilidad de observar lo que pasa en
el vacío en un estado diferente. Y sería posible imaginar entonces que, en estas
condiciones, se cambiarían las reglas del juego.. La energía creada en la colisión se
transforma rápidamente en nuevas partículas y antipartículas donde las trayectorias son
más rectas cuanto más energéticas son.

Imaginemos que la alta densidad de energía que producimos y mantenemos hoy en día en
el CERN, con el LEP, es la misma densidad de energía que había en el Universo una diez
mil millonésima de segundo después de que todo comenzara. Sabemos que los físicos
piensan que el Universo arranca con un Big Bang, una explosión de espacio y tiempo que
tuvo lugar hace, más o menos, quince mil millones de años. Se puede decir que una diez
mil millonésima de segundo después de esto se tenía una densidad de energía similar a la
que nosotros podemos mantener. Es decir, lo que producimos aquí es lo mismo que tenía
el Universo en aquel momento. Y lo estudiamos para ver cómo era todo en su principio.
Es la densidad de energía más alta conseguida hasta ahora en cualquier parte del mundo.
Pero como todo el mundo sabe, el LEP es la empresa científica más grande que el ser
humano haya realizado jamás. Evidentemente, lo hacemos en un volumen muy pequeño,
ya que los electrones y positrones que hemos aniquilado son muy pequeños, mientras que
el Universo era bastante grande, aunque no tan grande como lo es ahora.
En aquel momento, una diez mil millonésima de segundo después del Big Bang, el
Universo era tan grande como el sistema solar de hoy en día. Grande, sí, aunque no tan
grande. Pero todo este volumen, toda esta región del espacio, tenía todo él la densidad de
energía que nosotros conseguimos mantener. No obstante, el fenómeno es el mismo.
Actualmente, con estos estudios intentamos comprender cómo era todo en el principio. Y
a la frontera a la que hemos llegado es evidentemente la densidad de energía conseguida
hoy en el LEP. En el futuro habrá, con toda seguridad, otras fronteras. Si se me pregunta
lo que entiendo por la palabra materia, dependerá de lo que esté hablando. Algunas veces
puede ser la distinción entre materia y radiación, por ejemplo. Otras, esta distinción no
parece tener demasiada importancia pues, en la física actual se puede convertir una en
otra. Es por lo que creo que los físicos deben rechazar la vieja idea de que el mundo está
compuesto de materia y vacío. Y, realmente, tampoco pueden ellos responder a
cuestiones como "¿qué es la materia?". Sólo pueden decir cómo se comporta y cuándo es
útil esta palabra.

Uno de los fines de la física es comprender en qué consiste el Universo. Nuestras


observaciones indican que está compuesto de partículas portadoras de energía. El fin de
la teoría de partículas es, entonces, conocer las partículas que constituyen el Universo y
las fuerzas que las unen. Si tenemos éxito con este estudio, tengo el presentimiento de
que habremos comprendido lo que es la materia. La materia es, esencialmente, energía.
Ambas son equivalentes. Se transforman la una en la otra. Si se observa la energía,
cuando no es una forma de energía, es materia.
Por supuesto, las fuerzas del modelo estándar incluyen la gravedad, que se trata
separadamente y que está descrita con muy buena aproximación por la teoría de
Einstein, basada en la relatividad general.
El modelo estándar se vincula después con la fuerza electromagnética, la fuerza débil
(que se manifiesta en determinados tipos de radiación tales como la desintegración
beta) y la fuerza fuerte (que resulta de las interacciones gluónicas entre quarks y que
está presente en la fuerza nuclear que mantiene unidos a los protones en el núcleo
atómico). Todas las fuerzas se transmiten mediante el intercambio de determinados
cuantos. En mecánica cuántica, un cuanto es un paquete de energía.

La fuerza electromagnética resulta del intercambio de unos cuantos llamados


fotones. Un electrón y un protón, dentro de un átomo de hidrógeno, por ejemplo, están
así ligados por la fuerza electromagnética resultante del intercambio de fotones entre el
electrón y el protón. La fuerza electromagnética, como sabemos, disminuye con la
distancia.
Ello se debe, en su mayor, parte a la ley de Coulomb y esta fuerza disminuye a razón
del cuadrado de la inversa de la distancia entre los objetos.
La fuerza de gravedad debe ser mediada por el intercambio de similares cuantos
llamados gravitones. Pero la fuerza gravitacional es tan débil que, ni ahora, ni en un
futuro previsible se podrán observar los gravitones. Pero tienen que existir para poder
aplicar la mecánica cuántica a la gravedad.

La fuerza débil se transmite mediante los "bosones intermedios", que predijimos varios
de nosotros hace ya más de 30 años y que han sido observados hace sólo un par de años
en el CERN, cercano a Ginebra.

La fuerza fuerte se transmite mediante el intercambio de gluones. Es el resultado de las


interacciones gluónicas entre quarks. Este intercambio se encuentra relacionado
indirectamente con las fuerzas que mantienen unidos a los protones y los neutrones
dentro del núcleo atómico.

Aparte de los gravitones, fotones, bosones intermedios y gluones ¿cuáles son las otras
partículas fundamentales, elementales, del modelo estándar? Bien, tenemos los quarks,
cada uno con uno de los 3 "colores" y seis "sabores" posibles. Están también los
antiquarks. La familia de los quarks forman así un conjunto de 18 tipos de partículas y
otros 18 de antipartículas, 36 tipos de objetos elementales que se conocen bajo el nombre
de quarks
Además de los quarks (partículas observables unidas por la fuerza fuerte mediada por los
gluones) se encuentran los electrones, célebres como constituyentes del átomo junto con
el núcleo. También están los neutrinos, sin carga eléctrica y muy difíciles de detectar.
El neutrino no se ve sometido ni a la fuerza electromagnética ni a la fuerza fuerte, sino
sólo a la fuerza débil. Esta partícula ha sido observada en el laboratorio desde hace ya
más de 30 años.
Existen dos tipos fundamentales de partículas que se parecen al electrón y otros dos tipos
que se parecen al neutrino. Los primeros son las versiones pesadas de los electrones: el
muón con una masa 200 veces superior y el tauón, con una masa 4.000 veces superior al
electrón. Los otros tipos son el mu-neutrino y el tau-neutrino, que son al muón y al tauón
lo que el neutrino es al electrón. Consecuentemente, tenemos seis tipos de partículas: el
electrón y su neutrino, el muón y su neutrino y el taón y su neutrino. Junto con sus
correspondientes 6 tipos de antipartículas, obtenemos un total de 12 tipos de partículas,
conocidas normalmente como leptones.
Está claro que todavía no tenemos un modelo definitivo. Es demasiado complicado y no
es todavía totalmente coherente. Es difícil conciliar la teoría de la gravitación con la
teoría del resto de partículas fundamentales del modelo estándar. Sin embargo, pensamos,
tiene que haber una teoría que las unifique a todas, una fórmula única y suprema que
describa todas las partículas fundamentales vistas hasta ahora y, quizá, muchas otras más,
incluso infinitas. Deberá incluir también todas las fuerzas que hemos visto hasta ahora,
muchas más, infinitamente más.
Hoy en día, el interés y las especulaciones teóricas buscan una unificación global de
todas las fuerzas y que describa todas las partículas, una teoría simple.
La candidata más aceptable es la teoría de supercuerdas, pues tiene las propiedades
que hacen falta. Por primera vez en la historia tenemos una teoría que presenta todas
las propiedades que necesitamos.
Como sabemos, dentro de unos límites razonables, se transforma en la teoría de la
gravitación de Einstein. Si consideramos la fuerza de gravitación, la teoría de las
cuerdas se reduce a la teoría de la relatividad general de Einstein, lo que ya es bastante
impresionante.
Se trata, entonces, de una generalización de la teoría de Einstein, que incluye montones
de partículas, de hecho, un número infinito de ellas, de las que sólo se pueden observar
un número finito de ellas con baja energía.
Pero la teoría de las supercuerdas no tiene una justificación experimental, una
justificación fundamental que conlleve un acuerdo entre la teoría y la observación. El
modelo estándar lo tiene y esperamos que, por supuesto, un día dicho modelo pueda ser
derivado como una aproximación de la teoría de las supercuerdas.

Decir si algún día se habrá comprendido toda la física y no habrán más preguntas, es
una cuestión filosóficamente interesante a la que nunca se podrá responder.
El caso ocurrido a principios de este siglo es un hecho sorprendente. A finales del siglo
pasado, se creía haber comprendido casi toda la física.
Pero no se conocía la radiactividad, ni se entendía bien la gravedad y tampoco se sabía
nada de la fuerza fuerte. Y, de repente, se descubren nuevos fenómenos que no se podían
integrar en las teorías existentes hasta entonces. Y esto puede pasarnos todos los días en
cualquier momento. Por eso, jamás estaremos seguros de haber comprendido la
naturaleza en su totalidad. Aunque quizá llegue el día en el que podamos decir que
entendemos perfectamente los fenómenos observados hasta ahora. Pero nadie nos puede
asegurar, gracias a Dios, que al día siguiente no se observen nuevos fenómenos
completamente inesperados.
Uno de los fines de la física es comprender en qué consiste el Universo. Nuestras
obsevaciones indican que está compuesto de partículas portadoras de energía. El fin de la
teoría de partículas es, entonces, conocer las partículas que constituyen el Universo y las
fuerzas que las unen. Si tenemos éxito con este estudio, tengo el presentimiento de que
habremos comprendido lo que es la materia.
La unificación es casi tan total como podríamos esperar. La teoría de las cuerdas no dice
que haya unos pocos objetos y que a partir de éstos se construya el resto. En cierto
sentido, decimos que en la teoría de las cuerdas hay un objeto que se extiende,
unidimensional y parecido a una cuerda. Dicho objeto podría aparecérsenos en muchas
formas diferentes. De la misma forma que cuando rascamos una cuerda de violín,
haciéndola vibrar de distintas maneras y así conseguir distintos sonidos a partir de una
misma cuerda. Todos los tonos de una cuerda en vibración son los distintos modos de un
único objeto. De la misma forma, esas cuerdas fundamentales se observan en sus
vibraciones específicas.
Hay una cuerda fundamental en la cual, las distintas vibraciones a energías bajas
aparecen a gran escala como partículas elementales. La misma cuerda vibra de una cierta
manera y se parece a un quark, de otra diferente y se parece a un fotón, la partícula de la
luz, de otra y se parece a un electrón, de otra y se parece a un gravitón, la partícula que
media en la fuerza de gravedad. En esta teoría, todas las partículas son las distintas
vibraciones de un único objeto. Es una verdadera unificación. Todas las partículas y
todas las fuerzas, todas las partículas que gobiernan las interacciones, son todas
vibraciones de una misma cuerda.
¿Existe una teoría final? Especulamos sobre ello, pero no lo sabemos. Una teoría así no
sería necesariamente la que resolvería todos los problemas de la física. Nos ayudaría a
unificar todos los fenómenos físicos de forma muy abstracta y sería incapaz de predecir
el tiempo que hará mañana o, menos aún, de explicarnos el funcionamiento de los
organismos vivos. Es decir, una teoría así no sería el fin de toda ciencia, sino, quizá, de
un cierto tipo de ciencia, de una ciencia que intenta responder a una cadena de cuestiones
sobre por qué las cosas son como son.
La partícula J/Psi tiene dos nombres: "Psi" aquí y "J". Es una partícula elemental muy
pesada, descubierta casi simultáneamente en 1974. En su época, hubo un gran número de
datos e ideas teóricas para interpretarla. A aquellas semanas del descubrimiento de la
partícula Psi, del segundo descubrimiento y de los experimientos que se hicieron para
determinar qué era, se las acabó conociendo en la comunidad de físicos como la
"Revolución de noviembre". Es muy emocionante para un físico hacer una revolución y
me alegro de haber participado en esta pacífica revolución.
La partícula J es una nueva familia de partículas con una larga vida.
Antes de descubrir la partícula J, conocíamos alrededor de 200 partículas elementales,
todas ellas muy ligeras y con un periodo de vida muy corto.
Estas nuevas partículas son diferentes de las otras porque viven mucho tiempo, más o
menos 10.000 veces más que el resto.
Es como si nosotros, las personas, que vivimos normalmente menos de 100 años,
descubriéramos una familia donde sus miembros viven unos ¡10.000 años! No haría falta
explicar por qué esta familia nos parecería extraña.
Esto significa que la partícula J está compuesta por una clase diferente de quarks. Y esto
es lo que es significativo.
Mucha gente pensaba que sólo había tres sabores de quarks y, de repente, aparece un
cuarto, el "encantado". Este es todo el significado de este descubrimiento.
Una confirmación importante que hace que la teoría de los quarks parezca, en general,
correcta.
Hace un siglo se creía que los átomos eran las partículas fundamentales. Y hace un siglo
también, se creía que el hidrógeno, el oxígeno, el nitrógeno y el hierro eran
fundamentales.
Hace 50 años veíamos los núcleos, protones y neutrones, como fundamentales. Hace 30
años, se pensaba que las partículas elementales, como los piones, eran fundamentales.
Hoy creemos que los quarks son fundamentales.. Y no se puede decir que, de aquí a un
siglo, se sigan considerando fundamentales.
Es por lo que la física es tan interesante: me parece que nunca tendrá un fondo.
En el curso de muchas investigaciones, los Físicos han tenido que hacer siempre
experimentos muy precisos sobre electrones y muones en particular.
Y siempre se ha dicho que un experimento hecho con mucha precisión lleva siempre a
un nuevo descubrimiento.
Porque este dominio está incompleto, es nuevo.
Poco importa que los expertos puedan o no predecir tal o cual partícula.
Lo importante es hacer medidas precisas en un rango muy amplio para ver si existen o no
nuevos fenómenos.
La física, como la biología y la astronomía, es una ciencia experimental. La frontera de la
física siempre es experimental.
La teoría se funda en la lógica y en sus deducciones matemáticas. Y puede pasar que una
teoría no confirmada experimentalmente sea falsa.
Por el contrario, ninguna teoría puede negar un experimento, puesto que el hecho
experimental es un hecho.
En la física de altas energías, casi todos los grandes descubrimientos de los últimos 25
años no han tenido nada que ver con la teoría.
Por lo que lo importante es hacer experimentos, la experimentación. Experimentos
precisos destruirán todas las teorías y los teóricos tendrán, entonces, que crear una nueva
teoría. Es así como avanza la física.
Destruir una teoría es tan importante como probarla.
Durante siglos, los filósofos escépticos se han preguntado sobre la realidad del mundo
descrito por los científicos.
Es evidentemente imposible probar la existencia de las partículas e incluso la de las sillas
y mesas que nos rodean.
Más recientemente, los historiadores y sociólogos de la ciencia intentan describir la
investigación científica como una empresa social en la que las teorías físicas o científicas
no son dictadas por la naturaleza de la realidad sino creadas socialmente como serían
creados un movimiento estético o político.
Yo no lo creo así. No tengo los argumentos lógicos, aunque tengo mi experiencia como
trabajador científico y un sentimiento irresistible de que existe una realidad fuera de
nuestros laboratorios, de nuestras universidades, de nuestros congresos científicos, una
realidad que nos recompensa cuando estamos en armonía con ella y nos castiga cuando no
lo estamos, invalidando nuestras teorías.
Pienso que esto es una de las grandes cosas de la física, que hacemos unas predicciones lo
suficientemente precisas como para poder ser invalidadas experimentalmente si llega la
ocasión.
Y creo que debemos tener la convicción de que hay una realidad ahí fuera, fuera de esta
ventana y de nuestros amigos físicos.
Esta es una de las cosas que más me apasiona de la física.
El diálogo con la naturaleza. Y en este diálogo la naturaleza no siempre está de acuerdo
con nosotros.
En los años 70, se había llegado a una teoría muy satisfactoria, el modelo estándar, que
explicaba todos los fenómenos observables en los laboratorios y aceleradores existentes.
Y la teoría elaborada por los físicos para superar el modelo estándar y llegar a una teoría
más satisfactoria y completamente unificada envolvía fenómenos que no se podían
observar directamente en los laboratorios.
Esta divergencia entre la teoría y los experimentos ya se había producido antes.
Cuando Einstein anunció por primera vez la relatividad general, sólo había unos cuantos
modos de probarla experimentalmente, algunos de los cuales tuvieron que esperar
décadas.
De nuevo, apareció una teoría que tenía poco que ver con las observaciones
experimentales durante muchos años.
La astronomía progresó después hasta el punto en el que los efectos de la relatividad
general tenían que tenerse en cuenta en el trabajo cotidiano de los astrónomos.
Así, cuando los astrónomos observan actualmente las galaxias, observan también que su
luz se curva por las ondas gravitacionales de una forma completamente conforme con la
teoría de Einstein.
Todas nuestras teorías se deben confrontar eventualmente con la observación. Aquéllas
que no tienen nada que decir sobre el mundo observable no nos valen.
Pero ninguna ley obliga a que las teorías sean inmediatamente verificadas.
Eso lleva tiempo y debemos ser pacientes. Pienso que las teorías de las cuerdas no han
llegado todavía al punto de hacer predicciones comprobables con los aceleradores
existentes.
Es complicado aún, debido a las grandes dificultades matemáticas, saber cuáles son sus
predicciones. Los cálculos son extremadamente complicados.
Hacen intervenir fuerzas fuertes de una forma tal que nuestra habilidad de cálculo se ve
muy mermada.
Debemos aprender a extraer las consecuencias de estas teorías y, por supuesto, las
pruebas experimentales.
Quizá debamos esperar al siglo XXI para que en una teoría como la de las supercuerdas
encontremos la conexión entre la teoría y la experimentación. Aunque esto no significa
que estas teorías no sean físicas o meras abstracciones matemáticas. Lo que pasa es que
han llegado muy, muy lejos.
¿Existe una teoría final? Especulamos sobre ello, pero no lo sabemos. Una teoría así no
sería necesariamente la que resolvería todos los problemas de la física.
Nos ayudaría a unificar todos los fenómenos físicos de forma muy abstracta y sería
incapaz de predecir el tiempo que hará mañana o, menos aún, de explicarnos el
funcionamiento de los organismos vivos.
Es decir, una teoría así no sería el fin de toda ciencia, sino, quizá, de un cierto tipo de
ciencia, de una ciencia que intenta responder a una cadena de cuestiones sobre por qué
las cosas son como son.
¿Por qué el cielo es azul y el agua húmeda? Porque los átomos y las radiaciones tienen
ciertas propiedades. ¿Por qué estas propiedades? Porque están hechos de partículas y
fuerzas entre partículas que tienen ciertas propiedades. ¿Por qué estas propiedades?

Nuestra respuesta actual se explica en una teoría llamada modelo estándar.


¿Por qué este modelo es válido? Se ignora.
Quizá porque se aplica en el límite de bajas energías de la teoría de las cuerdas.
¿Por qué es correcta la teoría de las cuerdas? Bueno, no tenemos ni idea, aunque ya
existen algunas especulaciones sobre la validez de la teoría de las cuerdas.
Es decir, puede que haya algo más profundo que la teoría de las cuerdas que explique por
qué es correcta.
¿Tiene fin esta cadena de porqués? Se ignora.
Creo que es difícil imaginar que no sea así. Pero es aún más difícil imaginar que haya una
serie infinita de preguntas que nos lleven a respuestas cada vez más profundas.
Así pues es mejor pensar como si esta cadena de explicaciones tuviera un fin. Puesto que si
actuamos así, puede que lo encontremos algún día. De lo contrario, ya podemos perder la
esperanza de encontrar el final.
El LEP nos permitirá explorar la región donde podría encontrarse el Higgs dentro de un
pequeño dominio.
Evidentemente, el LEP nos permitiría también estudiar indirectamente, como ya dije antes,
las pequeñas desviaciones muy, muy finas, dónde pudiera encontrarse el Higgs o lo que
juega su papel.
Pero lo que realmente querríamos hacer es aprovecharnos de la existencia del túnel del
LEP y de toda la infraestructura asociada al LEP para, más tarde, construir en el mismo
túnel un acelerador, al que llamaron LHC, que utilizaría protones, en vez de electrones, y
que nos permitiría cubrir completamente toda la región en la que se espera encontrar
bien el Higgs, bien el mecanismo que explica por qué las partículas tienen masa.

Se puede decir que la naturaleza que vemos con nuestros ojos, la naturaleza
macroscópica, es muy rica en fenómenos de lo más variado de este mundo.
Vemos que, como la materia viva, el Universo puede tomar formas tan diferentes como
posibles. Y por ello, lo que observamos en la naturaleza, a escala macroscópica, tiene
una enorme riqueza de variedades, de formas.
Pero si descendemos hasta un nivel ínfimo, a lo infinitamente pequeño, nos
encontramos con los constituyentes fundamentales, con las partículas que son los
"ladrillos", los "constituyentes" de la naturaleza, descubriremos que, a ese nivel, existe
una simplicidad increíble.
Hay dos quarks, tres quarks, tres colores, dos familias, tres familias, hay algunos
bosones que cambian las cosas.
Es decir, se pasa de una situación extremadamente compleja a una situación
extremadamente simple.
Estamos forzados a simplificar más, y a establecer unas relaciones entre las fuerzas y
entre las partículas.
Desde el descubrimiento de la mecánica cuántica en los años 20 y su conciliación con la
relatividad al final de éstos y principio de los 30, sabemos que las fuerzas y las partículas
tienen la misma naturaleza, que cada vez que hay una fuerza, hay un traslado de
partículas.
Y ya estaba claro hace 50 años que la fuerza electromagnética, la responsable de las
atracciones magnéticas y eléctricas, se debía a un intercambio de fotones, partículas que,
en un gran número, forman un rayo de luz.
Era natural imaginar que el resto de las fuerzas también se producían por el intercambio
de partículas.
En los años 30, los físicos imaginaron que unas partículas, los mesones, se
intercambiarían para producir la fuerza nuclear fuerte (la responsable de la cohesión del
núcleo atómico) y que otras partículas producirían la fuerza débil (la responsable de
determinados tipos de radiactividad).
Actualmente sabemos que la fuerza débil se origina por el intercambio de unas partículas
a las que se les ha dado el poco elegante nombre de bosones intermediarios.
Después de concebirse teóricamente, estas partículas se descubrieron experimentalmente
en el CERN de Ginebra.
Hay diferentes clases: una partícula cargada llamada el W y otra neutra llamada el Z, que
producen los diversos tipos de efectos débiles.
Las propiedades comprobadas están muy próximas a las predichas por la teoría.
Es una de las más felices uniones entre la teoría y el experimento.
Tal vez podíamos pensar que, en los comienzos del Universo, los bosones intermediarios
y los fotones eran idénticos. Pero en el transcurso de su evolución, que lo transformó de
un sistema homogéneo, uniforme, relativamente simple y banal a la riqueza y
complejidad del Universo de hoy en día, empezó su diferenciación.
Y así como se diferenció la materia, también se diferenciaron las fuerzas. Y, de esta
forma, vemos como aparece la interacción débil, luego la radiactividad, controlada por
los bosones intermedios, y, por otro lado, los fotones, los responsables de la luz.
Son dos caras de la misma moneda.
Para muchos, la etapa importante fue la comprensión de que existían diferentes niveles.
Había un nivel profundo en el que el bosón intermedio no tenía masa. Hay simetrías que
imponen un cierto tipo de bosón vectorial y sus interacciones.
Estas simetrías son perfectas, son una propiedad de las ecuaciones matemáticas. Pero
existe otro nivel, el de la observación experimental, donde no vemos las simetrías y
donde los bosones intermedios tienen masa.
Entre estos dos niveles existe el proceso matemático llamado rotura de simetría. Esto
quiere decir que estas ecuaciones tienen propiedades simples, propiedades de elegancia,
de belleza, de simetría, que sus soluciones, las partículas, no las tienen.
Y, el gran momento fue comprender que la teoría era realmente mucho más simple y
elegante de lo que se podría imaginar con sólo mirar el hecho experimental, donde esas
partículas tenían que ser muy pesadas y tenían que producir fuerzas entre partículas que
parecían muy diferentes. Al menos, para algunos fue una apertura intelectual.
En el comienzo, el Universo estaba extremadamente caliente y con el tiempo, se expandió
y enfrió.
Cuando la temperatura descendió hasta un determinado valor, la perfecta simetría entre la
fuerza nuclear débil y la fuerza electromagnética se rompió.
Podemos estimar que esto ocurrió a los 10 elevado a -11 segundos después de su
nacimiento.
Por supuesto, nuestras ecuaciones pierden su significado cuando estamos tan cerca del
principio absoluto, del cual no estamos muy seguros.
Pero a ese instante matemático en el que nuestras ecuaciones actuales predicen que la
temperatura debería ser infinita es a lo que se le llama principio absoluto.
Y la rotura de la simetría entre la fuerza débil y la fuerza electromagnética se produciría a
los 10 elevado a la -11 segundos después de ese origen matemático.
La única forma imaginable de conseguir las condiciones de temperatura, de temperatura
suficientemente elevada, que puedo imaginar para restablecer la simetría entre la fuerza
débil y la electromagnética sería que el Universo cesara en su expansión y empezara a
contraerse.
Esto sería muy posible si el Universo tuviera una densidad superior a 2 x10 elevado a -29
g. por cm3. En este caso, la fuerza de gravedad haría que la expansión actual del
Universo se parara y empezara a contraerse.
Toda la materia se reagruparía entonces en una gran sopa, en la que las estrellas y los
átomos habrían perdido su identidad.
Tendríamos un Universo de plasma, de materia y radiación y, en el curso de esta
contracción, la temperatura llegaría a un nivel en el que la fuerza débil y la
electromagnética se empezarían a separar.
No sabemos si esto ocurriría. Se cree que el Universo no contiene esa cantidad de materia
necesaria para su colapso.
Pero haría falta mucha observación astronómica para dilucidar esta cuestión.

La forma en la que están escritas las matemáticas de hoy, fundamentalmente hecha por
matemáticos profesionales, está desprovista de referencias a la realidad física.
Trata con abstracciones donde la verdad se deduce de axiomas supuestos sin ninguna
conexión con el mundo físico que conocemos.
Se constata por tanto un fenómeno sorprendente: cuando los físicos elaboran nuevas
teorías, se encuentran a menudo con que las matemáticas ya las tienen, ya han sido
desarrolladas por matemáticos que no tenían en mente la física teórica.
Así, por ejemplo, cuando Einstein desarrolló su teoría de la gravitación, conocida como la
teoría general de la relatividad, necesitó una teoría del espacio-tiempo curvado.
Y encontró que esa teoría ya se había desarrollado en el siglo XIX por matemáticos como
Riemann, Gauss y Lobatchewski, que no pensaron en ninguna conexión con la
gravitación. ¿Cómo pudo ocurrir esto? ¿Cómo podían los matemáticos encontrarse en el
camino correcto y desarrollar una estructura matemática que servía para describir la
realidad física, cuando eran matemáticos, no físicos, cuando no buscaban datos físicos?
Es desconcertante pensar que los matemáticos van por delante de los físicos.
Es como si Neil Armstrong, que aterrizó por primera vez en la Luna, donde le llevó la
misión Apolo, la primera que fue a la Luna y que fue el primero en ver el suelo lunar bajo
sus pies descubre, de repente, las pisadas de Julio Verne.
Sospecho que la respuesta es, en parte, que las matemáticas, quieran o no, tienen algo de
física.
El tipo de matemáticas que se desarrollan está irremediablemente influenciada por la
experiencia del mundo tal y como es.
Por ejemplo, cuando Euclides elaboró los axiomas de la geometría, creía que estaba
haciendo la más pura de las matemáticas y que estaba separada de toda observación de la
realidad.
Pero Einstein demostró que la geometría euclidiana sólo podía aplicarse en las regiones
del espacio donde la fuerza de gravedad fuera débil.
Y, como sabemos, Euclides vivió en la superficie de la Tierra, donde el campo de
gravedad no es tan fuerte como para no poder aplicar su geometría.
El también fue un físico sin saberlo.
Esta es, quizá, parte de la respuesta.
Los matemáticos han especulado sobre otras posibles respuestas.
Recuerdo una lectura del matemático Andrew Gleason en la que explicaba que las
matemáticas eran las ciencias del orden. Y, en cierto sentido, el tipo de orden
matemáticamente posible es limitado.
Por ejemplo, existe sólo un número determinado de grupos de simetría; tampoco hay
abundantes sólidos perfectamente regulares.
El matemático busca y descubre todo el posible orden lógico y natural.
Cuando el físico intenta explicar el orden en el Universo, se encuentra con que quizá ya
lo haya descubierto el matemático.
A fin de cuentas, tampoco son tantos los estados ordenados.
Yo verdaderamente creo que la naturaleza está regida por unas leyes de gran simplicidad
y belleza y que todos nuestros experimentos, especiálmente los de este siglo, nos llevan a
creer que los principios de simetría son sus elementos esenciales.
Un principio de simetría nos dice que la naturaleza permanece inalterable cuando la
vemos desde diferentes puntos de vista, como pueden ser las diferentes orientaciones de
un laboratorio o las diferentes formas de llamar a las partículas (intercambiando electrón
por neutrón, o débil por electromagnética, por ejemplo).
Afirmar que la naturaleza no cambia aunque se considere desde diferentes puntos de
vistas es algo muy importante, pues determina la estructura de las ecuaciones.
Muy a menudo, estos principios de simetría hacen necesaria la existencia de las fuerzas.
Así, para Einstein, la fuerza de gravedad era la consecuencia necesaria que hacía que la
naturaleza no cambiara en ningún sistema de coordenadas.
Las fuerzas débil y la electromagnética se hacen necesarias por otro principio de simetría
conocido como invariancia de Gauge.
Aparte de la misma mecánica cuántica, que es el marco donde encaja toda la física, los
principios de simetría constituyen los conocimientos más profundos que tenemos sobre la
naturaleza física.
De hecho, no es seguro que haya algo más que saber: la mecánica cuántica y los
principios de simetría constituyen quizá todo lo que matemáticamente se La existencia
de simetrías no era evidente para nuestros ancestros.
Aristóteles creía que los objetos caían porque su lugar natural era el suelo y que existía
una distinción fundamental entre arriba y abajo.
Hoy sabemos que esto no es cierto y que la simetría (entre arriba y abajo) la ha roto la
historia.
El hecho de que la Tierra sea arriba o sea abajo no es la verdadera causa de los cuerpos
caigan en vez de que se eleven. Este ejemplo que hoy puede parecer trivial no era nada
fácil de comprender para nuestros ancestros.
Hay otras simetrías que están más escondidas y son más difíciles de ver en la naturaleza.
Hay partículas que parecen ser muy diferentes y están conectadas por una simetría que
dice que son idénticas, que las leyes naturales no se alterarían si las intercambiáramos o
incluso si hacemos una transformación en la que convertimos al electrón en una partícula
con un 30% de electrón y un 70% de neutrino.
Las leyes naturales no cambiarían. Tales simetrías son difíciles de ver, aunque se
encuentren ahí, aunque se encuentren en las ecuaciones fundamentales y su ruptura sea la
que haga que el mundo se nos aparezca como lo vemos pueda decir de la realidad física.
La simetría, a mi entender, es verdaderamente la cosa más fundamental que existe hoy
en día en la naturaleza.
Creo que si tenemos la posibilidad de explicar las leyes de las simetrías fundamentales,
sabremos casi todo de lo que es el mundo. Y partiendo de esto, podremos construir las
ecuaciones del mundo.
Ahora bien, estas simetrías que eran perfectas en el mundo inicial, extremadamente
simple y uniforme, están en constante rotura, en constante modificación en la evolución.
Es una rotura espontánea inicialmente.
Es una elección. Es una elección entre una posible solución y otras iguales de posibles.
Y la naturaleza hizo su elección.
Es una rotura que se verifica y que, en cierto sentido, está unida a la evolución de este
Universo que es el nuestro, que ha pasado de un sistema tremendamente simple y
elemental, uniforme, a un sistema en el que hay una diferencia, una modificación,
diferentes aspectos, riqueza.
Durante su evolución, el estado del Universo puede cambiar de naturaleza, como el agua
cambia de estado cuando se disminuye su temperatura: es inicialmente un cuerpo
gaseoso, pero que se puede licuar y solidificar.
De la misma forma, la estructura del Universo puede pasar por diferentes cambios de
fase y aspecto, aunque las leyes fundamentales de la naturaleza sean las mismas.
Si nos apoyamos en lo que ya conocemos de la estructura de la materia y sus
interacciones, sabemos que el Universo pasará por cambios de fase. éstos tienden a
romper las simetrías, a producir estados asimétricos.
Hay cosas que al congelarlas apuntan a direcciones específicas y ya no son, por tanto,
simétricas bajo rotaciones de dichas direcciones.
No hace falta pensar que el paso desde un Universo uniforme, regular, perfecto y
geométrico hasta la situación real de hoy día puede representar una pérdida de
información.
Porque si es cierto que, por ejemplo, la entropía del Universo en su conjunto aumenta, es
también cierto que su diferenciación crea objetos particularmente sofisticados. Por
ejemplo, el ser humano es un objeto extremadamente sofisticado. Está claro que si
cogemos el ser humano y todo el Universo en su conjunto, la entropía aumenta. Pero
separadamente, la materia viva en sus procesos de destilación, está ganando las
propiedades que los otros no tienen, que los otros pagan. Así, el total es negativo, pero
quedan, de todos modos, unas diferencias. Es decir, hay cosas que se diferencian en el
sentido del progreso.
La dirección del tiempo es un problema que nadie comprende muy bien. No sabemos
verdaderamente qué fija la flecha del tiempo en el Universo. Las leyes fundamentales de
la física nos parecen por ahora casi perfectamente insensibles a la inversión del tiempo. Y
son completamente insensibles si simplemente intercambiamos los términos "partículas"
y "antipartículas". Es como decir que las antipartículas que retroceden en el tiempo se
comportan exactamente igual que las partículas que siguen el curso del tiempo.
Dado que en la física de partículas los dos sentidos del tiempo son realmente
intercambiables, ¿por qué el mundo en el que vivimos muestra una absoluta falta de
reversibilidad en el sentido del tiempo? Si en una película sobre un terremoto vemos que
los escombros se reagrupan formando construcciones, sabemos automáticamente que la
estamos viendo al revés. Es igual que si vemos como un huevo roto en el suelo se
recompone de repente y se convierte en un huevo completo, con su yema y clara
incluidas. ¿Por qué lo sabemos? En la pequeña escala de las partículas elementales, las
leyes de la física son simétricas respecto al tiempo: no distinguen el pasado del futuro..
Si esto es diferente a gran escala es porque el Universo comenzó en un estado muy
ordenado. Este tipo de estados es muy escaso, todo lo contrario de los desordenados, que
abundan. Pongamos el ejemplo de un rompecabezas. Existe un agrupamiento posible, y
sólo uno, de las piezas para formar una imagen. Sin embargo, existen muchas formas de
agrupar las piezas sin formar una imagen. Si formamos el rompecabezas en un estado
ordenado y luego removemos la caja, llegaremos casi seguro a un estado de desorden,
simplemente porque existen muchos más estados de desorden. Con el Universo pasa lo
mismo. Si comienza desde un estado ordenado, evolucionará hacia un estado desordenado,
puesto que hay una enormidad de éstos. El Universo es pues diferente en el pasado y en el
futuro, aún cuando las leyes físicas microscópicas sean simétricas respecto al tiempo.
El Universo en sus comienzos, en el Big Bang, era homogéneo y ordenado. Sin embargo, a
medida que se expandía, se volvía irregular y desordenado. Los seres humanos funcionan
gracias a la conversión de los alimentos, que son una forma ordenada de energía, en calor,
que es una forma desordenada de energía. Cuando queremos recordar algo de nuestra
memoria, tenemos que convertir la energía de los alimentos en calor. Por esto, la cantidad
total de desorden en el Universo aumenta cuando rememoramos un suceso. Esto implica
que el sentido del tiempo en el que memorizamos los sucesos es el mismo en el que se
dilata el Universo, ya que es el sentido del tiempo en el que aumenta el desorden.
Con la teoría de las supercuerdas intentamos ir más allá de nuestra comprensión actual
de la materia y de las fuerzas, verdaderamente más lejos, hacia una descripción de toda la
materia, y quizá de todo, en términos de pequeñas cuerdas que vibran en un espacio de
10 dimensiones.
Históricamente, siempre hemos observado que si examinamos con mayor precisión una
estructura como el átomo, descubrimos unas pequeñas estructuras dentro de él, los núcleos
y, dentro de ellos, los quarks. Y podríamos pensar que dentro de los quarks podría haber
sub quarks. De esta forma tendríamos unos quarks construidos de sub quarks y unos sub
quarks construidos de sub sub quarks, etc. Y es la primera cosa que se ha intentado pero
algo no funciona.
La teoría de las cuerdas no sigue directamente el esquema de nuestras mejoras anteriores
de la teoría de la materia. La idea básica es que todas las partículas y todos los mediadores
de las fuerzas, incluida la gravedad, son, de alguna manera, las distintas vibraciones de
una cuerda y que se nos aparecen en grandes escalas como unos modos específicos de
vibración de un solo objeto fundamental asimilable a una cuerda. Un quark se parecería
entonces a un círculo unidimensional. No sería un punto elemental, sino, más bien, una
especie de círculo compuesto no de tres sub quarks, sino de muchos, muchos, infinitos sub
quarks alrededor del círculo. Esta, desde luego, es una manera muy nueva de concebir una
teoría física.
La teoría de las cuerdas es una manera de describir las partículas elementales algo
diferente a la forma en la que se ha hecho hasta ahora. Antes, parecía que las partículas
elementales se podrían ver como puntos, sin ningún tamaño, como puntos matemáticos.
Pero esta idea encuentra dificultades cuando intentamos incluir la gravedad en la teoría.
Así que con la teoría de las cuerdas lo que hemos hecho es generalizar la idea de partículas
puntuales a partículas con extensión, sin ningún espesor, sólo curvas unidimensionales. Y
para ser más precisos, en las versiones más prometedoras de la teoría son círculos. Por lo
tanto, en la teoría de cuerdas, las partículas son círculos unidimensionales.
La unificación es casi tan total como podríamos esperar. La teoría de las cuerdas no dice
que haya unos pocos objetos y que a partir de éstos se construya el resto. En cierto sentido,
decimos que en la teoría de las cuerdas hay un objeto que se extiende, unidimensional y
parecido a una cuerda. Dicho objeto podría aparecérsenos en muchas formas diferentes. De
la misma forma que cuando rascamos una cuerda de violín, haciéndola vibrar de distintas
maneras y así conseguir distintos sonidos a partir de una misma cuerda. Todos los tonos de
una cuerda en vibración son los distintos modos de un único objeto. De la misma forma,
esas cuerdas fundamentales se observan en sus vibraciones específicas. Hay una cuerda
fundamental en la cual, las distintas vibraciones a energías bajas aparecen a gran escala
como partículas elementales. La misma cuerda vibra de una cierta manera y se parece a un
quark, de otra diferente y se parece a un fotón, la partícula de la luz, de otra y se parece a
un electrón, de otra y se parece a un gravitón, la partícula que media en la fuerza de
gravedad. En esta teoría, todas las partículas son las distintas vibraciones de un único
objeto. Es una verdadera unificación. Todas las partículas y todas las fuerzas, todas las
partículas que gobiernan las interacciones, son todas vibraciones de una misma cuerda.
Lo que se llama fundamental cambia con el tiempo. Primero pensamos que los átomos eran
los ladrillos básicos de la naturaleza. Después pasaron a serlo los protones y, después, los
quarks. Ahora, pensamos que son las cuerdas
Así, existen ladrillos básicos fundamentales que son los distintos modos de vibración de
una cuerda. Una cuerda corresponde, en cierto sentido, a un número infinito de partículas
elementales ya que puede vibrar de infinitas maneras.
Los armónicos más elevados de la cuerda se parecerían a las excitaciones más masivas de
diferentes partículas elementales. La cuerda tiene entonces eso de unificante y sencillo:
todas las partículas son excitaciones de un mismo objeto. Tenemos pues una sola cuerda
pero un número infinito de partículas. Durante las actuales observaciones de energía débil
podemos ver algunas de esas partículas. Las otras son muy masivas y difíciles de producir,
a menos que tengamos un acelerador de energías muy grandes. Esta es la razón por la que
el modelo estándar es una buena aproximación a la teoría de las cuerdas a bajas energías,
donde las excitaciones más débiles de las cuerdas son los quarks, leptones, fotones y
gluones. La teoría de las cuerdas es una generalización del modelo estándar que tiene todas
las partículas elementales.
Así es como visualizamos una interacción. En términos de partículas diríamos: un electrón
está en movimiento y llega otro desde algún lugar. Cuando se aproximan, uno de ellos
emite un fotón y es propulsado en una dirección. El otro electrón absorbe este fotón y es
propulsado en otra dirección. El resultado es que los dos electrones iban de una forma y se
van de otra. Esta es una interacción electromagnética entre electrones que se explica
mediante la existencia de fotones, las partículas de la luz.
En términos de cuerdas, esto lo visualizaríamos de forma diferente. Diríamos que esa
imagen convendría para representar la interacción de los electrones a gran escala, bien
visto con nuestros ojos, que ven a grandes escalas bien con nuestros aceleradores de alta
energía, que "ven" a pequeña escala, aunque todavía muy lejos de la escala de Planck.A
longitudes de Planck se vería más bien así: una cuerda-electrón está en movimiento, se
parecería a un tubo. Êsta se desplaza, En un momento dado, la cuerda-electrón emite una
cuerda-fotón y sale despedida bruscamente.
La otra cuerda-electrón absorbela cuerda-fotón y se aleja. Es decir, vemos unas cuerdas-
electrones ir en una dirección y otras cuerdas electrones ir en otra, intercambiando una
cuerda-fotón. Y vemos que todo es la misma clase de cuerda, sólo que con una excitación
determinada que podríamos identificar quizá a un electrón o, en otros experimentos, a un
quark. Y la partícula que aquí se ha intercambiado, la fuerza que transfiere la interacción,
podrían ser diferentes cosas, dependiendo de la excitación en juego: a veces un fotón,
otras un gravitón, todas unificadas en el intercambio del mismo objeto fundamental: una
cuerda.
Una de las consecuencias de esta teoría es que, fundamentalmente, las cuerdas no viven en
las tres dimensiones espaciales que conocemos, sino en nueve dimensiones espaciales. No
olvidemos que, poco después de que Einstein propusiera su teoría de la relatividad general
(en la que la gravedad es la dinámica del espacio y del tiempo), nos dimos cuenta de que
podría haber más dimensiones además de las 3 que ya conocemos (altura, anchura y
profundidad). Y esperamos que esas dimensiones suplementarias sean pequeñas,
compactas y enrrolladas sobre ellas mismas. Esto siempre es un hecho en toda teoría que
integre la gravedad.
La teoría de las cuerdas nos impone esta eventualidad. Nos obliga a imaginar que las
cuerdas evolucionan en 10 dimensiones (en las cuales, por supuesto, descontamos
siempre una dimensión temporal). A primera vista, estaríamos tentados a concluir que
esta teoría es falsa, ya que, después de todo, sólo observamos 3 dimensiones alrededor de
nosotros. Pero, en efecto, es muy posible.
Empecemos por imaginar un mundo que sólo tiene una dimensión (que podemos dibujar).
Tendríamos un mundo unidimensional, que sólo tiene una coordenada.
Supongamos que nos encontramos en ese mundo. Seríamos, entonces, un punto y sólo
podríamos movernos en una dirección: hacia la derecha o hacia la izquierda.
Ahora, alguien nos dice que el mundo en el que vivimos no es verdaderamente
unidimensional, sino que esconde otra dimensión. ¿Cómo es posible?
Sería como decir que el mundo es un pequeño tubo, con esta estructura, que tiene la
dimensión X y, además, otra dimensión.
Si este tubo es muy pequeño, o bien si no podemos ver las distancias muy pequeñas, este
mundo parecería tener una sola dimensión.
Pero si miráramos con mucha atención, podríamos ver que hay aquí un pequeño círculo
sobre el que podríamos movernos y al que podríamos dar la vuelta.
Esta es la otra dimensión, la segunda dimensión.
La diferencia es que esta dimensión es cerrada, volveríamos al mismo punto. Es muy
pequeña. Y, a menos que no observemos cuidadosamente, no la notaríamos.
Según la teoría de las cuerdas, así tiene que ser la estructura del mundo.
Tiene que haber 3 dimensiones grandes, que son las que conocemos, y 6 de esas
pequeñas que no podemos ver.
Y la razón por la que no podemos verlas es porque sus tamaños tienen que ser todos
de las mismas características, son minúsculos.
Para que la teoría de las cuerdas se imponga como una teoría convincente de la
unificación de las partículas elementales y sus fuerzas, tendría que poder comprobarse
experimentalmente.
Pero no la comprendemos todavía lo bastante bien como para hacer predicciones
definitivas y decir a los colegas experimentadores que tomen medidas de esto o lo otro y
que si encuentran tal resultado, nuestra teoría será la correcta pero que si no, la teoría
estará mal.
Esperamos que llegue el día en que podamos hacer predicciones de esta naturaleza, pero
todavía es imposible. A corto plazo, nuestros objetivos son más modestos.
Uno de los más razonables es el de poder explicar los resultados conocidos en el marco
de la teoría de las cuerdas.
Pero, al mismo tiempo, hay que esperar la posibilidad de descubrir nuevas características
provechosas que serían observables.
Esperamos que tales predicciones lleguen algún día, pero no sabemos todavía lo que
pasará. No obstante, hay algunas eventualidades a las cuales, los experimentadores
deberían permanecer atentos: una de ellas sería el descubrimiento de la súper simetría.
La mecánica cuántica no permite hacer predicciones definitivas, sino solamente
predicciones de probabilidades.
En la teoría clásica de Newton y sus sucesores, se suponía posible, dando las posiciones y
velocidades de todos los constituyentes elementales de la materia en un momento dado,
predecir su comportamiento futuro con exactitud.
Pero con la aparición de la mecánica cuántica, hace ya 65 años, sabemos que eso es
imposible. Incluso conociendo a la perfección las leyes que gobiernan todas las partículas
elementales, los constituyentes de la materia y el estado inicial del Universo, no podría
más que calcularse las probabilidades para diferentes historias alternativas del Universo.
Esto representa un gran cambio en nuestro conocimiento.
Nuestro interés se centra fundamentalmente no en el conocimiento de las posibles
historias del Universo, sino en determinadas cosas de la historia particular que estamos
experimentando.
Y por ello, las dos ramas de la física fundamental, la física de partículas elementales y la
cosmología, que buscan, respectivamente, las leyes de las partículas elementales y el
estado inicial del Universo, no pueden más que darnos las leyes fundamentales del cálculo
de probabilidades de las diferentes historias del Universo.
Sólo la observación puede decirnos cuál es la historia que estamos experimentando. Y este
Universo particular que es el nuestro, con nuestra galaxia particular, nuestro sol particular,
nuestro planeta particular, la Tierra, y las particulares formas de vida y organismos que
han evolucionado, dependen todos ellos de las fluctuaciones cuánticas que, por definición,
son imprevisibles.
Es interesante destacar que además de la indeterminación fundamental de la mecánica
cuántica, de donde resulta la única posibilidad de predecir probabilidades para las diversas
historias posibles del Universo, incluso en la aproximación clásica (que utiliza las leyes
newtonianas en vigor, en vez de la mecánica cuántica), incluso cuando la no linealidad de
estos fenómenos está totalmente explotada, aparece una indeterminación suplementaria.
Estas son las situaciones caóticas, en las cuales el resultado es infinitamente sensible a las
condiciones iniciales. Y como, en la práctica, no se conocen jamás las condiciones iniciales
a la perfección, es virtualmente imposible hacer las predicciones, incluso con la
aproximación clásica. Y por consiguiente, el fenómeno del caos amplifica aún más la
indeterminación cuántica.
Las ciencias como la astronomía, la geología, la geofísica, la biología, la psicología o la
antropología se construyen, en un principio, bajo la física fundamental, puesto que todas
estas disciplinas dependen de las leyes fundamentales del Universo, de las de las partículas
elementales y de las condiciones iniciales del Universo.
Sin embargo, no son derivables, en principio, de estas leyes, puesto que ellas son el resto
de las características especiales de la historia especial del Universo que estamos viviendo.
No se pueden predecir, deben observarse.
Pero debemos tener cuidado al decirlo y no ir demasiado lejos, evitando llegar a
conclusiones equivocadas.
Recordemos que hay muchos farsantes que se sirven de estas propiedades de la
mecánica cuántica para decir verdaderas barbaridades.
Así, cuando decimos que las propiedades de nuestra galaxia particular, de nuestra
particular estrella, de la biología terrestre particular, de los organismos particulares que
aquí han evolucionado, de los seres humanos y su historia, no se podrán derivar de las
leyes de la física fundamental, esto no quiere decir que exista una clase especial de fuerza
vital fuera de la física que determine la biología, o cosas por el estilo.
No hay una fuerza psicológica especial que, ausente en el resto de la biología, caracterice a
los seres humanos.
Únicamente decimos que hechos específicos, objetos específicos y la historia específica del
Universo se pueden predecir sólo probabilística mente mediante las ciencias
fundamentales.
La mecánica cuántica tiene una considerable influencia en nuestras vidas, en algunas
aplicaciones técnicas, como el plástico, por ejemplo.
La invención del plástico proviene de una mejor comprensión de la química, muy
mejorada por la mecánica cuántica.
Y hay muchos otros ejemplos: las microondas y la televisión no podrían tenerse si no llega
a ser por las aportaciones de la mecánica cuántica.
Así, y a pesar de su extraña naturaleza, la mecánica cuántica ha tenido un gran impacto en
nuestra civilización, aunque no siempre positiva (recordemos la bomba atómica).
Quizá ahora empiecen a cambiar las cosas.
Espero que, al menos, no se utilice nunca más.
Antes de la mecánica cuántica, la física se interesaba en la elasticidad o en la electricidad,
pero no en las propiedades de los materiales, mientras que la química decía, por ejemplo,
que el agua se componía de oxígeno e hidrógeno.
Estaban claramente separadas. Hoy en día, gracias a la mecánica cuántica, se empieza a
comprender mejor la estructura del átomo y, por lo tanto, por qué en la molécula del
agua, un átomo de oxígeno se une a dos de hidrógeno.
Así, lo que antes era una declaración química, ahora se puede explicar en términos
físicos. La mecánica cuántica unifica pues la química y la física.
Rutherford demostró que un átomo se componía de un pequeño núcleo positivo rodeado
de electrones negativos.
Y, si pensamos en términos de la época, esto es, los electrones y los núcleos serían
partículas, automáticamente nos vendría a la cabeza que el átomo sería similar a un
sistema planetario.
Pero éste no era el caso, no funcionaba. Pues si consideráramos los átomos como
pequeños sistemas planetarios donde el núcleo sería el centro y los electrones girarían
alrededor de él como si fueran planetas, no se explicarían las propiedades del átomo.
Así, si dos átomos entraran en colisión, lo que ocurre muchas veces por segundo en el
aire que respiramos, por ejemplo, aquellos cambiarían completamente sus propiedades.
Si nuestro sistema planetario chocara con otro, todas las órbitas se modificarían. Pero
nosotros sabemos que los átomos tienen unas propiedades bien definidas, siempre las
mismas.
El oro es oro y el hidrógeno, hidrógeno. Algo fallaba en la explicación. A esto se le
conoce como el problema de la estabilidad de la estructura atómica.
Fue casi un milagro el descubrimiento (en el que la aportación del francés de Broglie fue
decisivo) que los electrones se comportaban a veces como partículas, que es lo que
siempre se pensaba, pero, además, como ondas.
Este es el aspecto realmente interesante de la mecánica cuántica: el hecho de que esta
dualidad sea posible.
Bohr la denominó "complementariedad". Para comprender el conjunto de las propiedades
del electrón son necesarias dos imágenes.
Lo más misterioso es que esto era no sólo cierto para los electrones, sino también para la
luz.
La luz es una onda electromagnética, una onda de campos eléctricos y, al mismo tiempo,
se comporta como un cuanto, esto es, como partícula de luz.
Y esto era, por supuesto, muy difícil de entender. Sólo unos cuantos años después de la
idea de de Broglie, fue posible mostrar, mediante un experimento, que un haz de
electrones se comportaba como una onda, lo que era muy extraño, puesto que hay una
tremenda diferencia entre ondas y partículas.
El electrón no es ni una partícula ni una onda, sino sólo a veces una partícula, otras una
onda.
El descubrimiento de las propiedades ondulatorias del electrón ha permitido comprender
la estabilidad atómica. Es de todos conocidos que ondas confinadas sólo pueden tomar
formas muy definidas.
Es como una cuerda de violín confinada por sus dos extremos: se puede deformar de esta
forma o de esta otra, pero no de todas.
Una cuerda de violín es una especie de portadora de onda. Las propiedades ondulatorias
explican entonces las propiedades atómicas, pues los electrones están perfectamente
confinados a las cercanías del núcleo y no se pueden escapar.
Si los electrones tienen propiedades ondulatorias, deberán tener formas de vibración bien
definidas.
Schršdinger calculó la frecuencia de estas vibraciones y descubrió, para gran sorpresa de
la comunidad científica, que correspondían exactamente a los niveles de energía
observados en los átomos.
Había, pues, una relación fundamental entre frecuencia y energía que de Broglie, Einstein
y Planck habían descubierto a principio de siglo.
Y es una gran sensación que se puedan explicar determinadas propiedades del átomo de
esta forma. Se explica también así la estabilidad atómica.
En efecto, para cambiar de vibración, de una forma a otra, hace falta cambiar de fecuencia,
esto es, de energía.
Cuando las partículas se mueven en el aire, la energía calorífica no es demasiado alta. Los
átomos permanecen entonces en su estado fundamental, lo que explica que sus
propiedades no cambien.
Pero si se les bombardea con una enorme energía, cambian de estado cuántico y pierden
su estabilidad. He aquí el origen de la estabilidad de los átomos. Esto fue, desde luego, un
gran descubrimiento.
El átomo está constituido por un núcleo y por los electrones que gravitan alrededor de él.
Uno se pregunta ahora: ¿de qué esta constituido el núcleo?
En los años 30 se descubrió que el núcleo esta compuesto por protones y neutrones,
unidos por una fuerza que les retiene en el interior del núcleo.
Esta fuerza es la responsable de la reacción nuclear y está en el origen de la bomba.
Uno continúa preguntándose: ¿son los protones y los neutrones elementales o tienen algo
en su interior? En los años 60, no hace mucho, se encontró algo a lo que se le llamó
"quark", nombre que no me gusta pero que así lo inventaron.
Y todavía podríamos ir más lejos y preguntarnos: ¿de qué están hechos los quarks?
Quizás de nada, pero aún no lo sabemos.
La física de partículas es, en cierta forma, una prolongación de la mecánica cuántica.
Cuando se consideran los protones y los neutrones del interior del núcleo, éstos son
parcialmente ondas y parcialmente partículas y adoptan las mismas formas de vibración
de las que hablé antes.
Los quarks que están en el interior del protón y del neutrón adoptan igualmente estas
formas.
De alguna forma es otra vez mecánica cuántica a un nivel más profundo.
Para estudiarla, hacen falta energías muy elevadas, inexistentes en la Tierra, y fabricar
más aceleradores, como el que tenemos en el CERN, en Ginebra.
La mecánica cuántica, que es, quizá, la mayor revolución del siglo en la física, es, desde
el punto de vista de un físico, innegablemente correcta.
Ninguna de nuestras exploraciones de las nuevas estructuras de la materia, ni de nuestras
tentativas de construir una teoría unificada, han puesto en duda las leyes de la mecánica
cuántica.
Mucha gente creía que la búsqueda en lo infinitamente pequeño conllevaría una revisión
de la mecánica cuántica. Los inventores de la teoría creían ellos mismos que, para
describir la fuerza nuclear, tendrían que revisar la mecánica cuántica. Eso no ha sido
necesario.
Unas de las grandes ideas de la mecánica cuántica es que toda medida física perturba el
sistema que se está midiendo.
Entonces, conviene distinguir el observador del sistema observado.
Cuando hacemos experimentos sobre un sistema, lo hacemos cambiar de estado. La
mecánica cuántica nos dice también que podemos describir un sistema mediante una
función de onda que establece las probabilidades de cada uno de los resultados posibles
del experimento.
La forma más sencilla de entender esto, y lo que hacemos en nuestros laboratorios, es
decir que los resultados de la mecánica cuántica son unas probabilidades.
Estas probabilidades se calculan repitiendo el experimento varias veces.
Si, por ejemplo, tenemos un caso sobre dos de tener un spin alto, 50 veces de cada 100 el
spin es alto y 50 de cada 100 es bajo.
Si consideramos un sistema en el que el spin sea alto o bajo, la mecánica cuántica nos dice
que repitamos el experimento 10 veces y 5 veces será alto y las otras 5 será bajo.
Pero ¿cuál es el estado del sistema? es una superposición: alto y bajo en un 50%. Esta
respuesta nos conviene si se puede repetir el experimento tantas veces como queramos, lo
que ocurre normalmente en la naturaleza.
El único momento en el que la mecánica cuántica encuentra dificultades, no tanto
desacuerdos, sino más bien dificultades de orden conceptual, con la experiencia, es que no
sabemos cómo formular correctamente las preguntas cuando aplicamos la mecánica
cuántica a todo el Universo.
Es un problema insoportable, porque toda la mecánica cuántica reposa en el dualismo
entre el experimento, el proceso físico, y el observador.
Y cuando hablamos del Universo en su conjunto, ¿quién es el observador?
Así sabremos realmente de qué hablamos cuando aplicamos la mecánica cuántica a todo el
Universo.
Si consideramos el Universo, no lo podemos dividir en observador y sistema observado.
Nadie puede salir del Universo y observarlo.
El observador representa una parte del Universo y el sistema observado es otra, y ambas
son inseparables.
No podemos tampoco repetir un experimento.
No podemos preparar el Universo en un cierto estado, observarlo y volver a repetir la
operación.
¿Qué significan entonces las probabilidades? El Universo existe una sola vez y no puede
tratarse como una tema de experimentación.
Lo único posible es considerar una parte y su interacción con otra parte.
Cuando intentamos servirnos de las ecuaciones y del equipo axiomático a nuestra
disposición para describir el Universo, encontramos el siguiente problema de
interpretación: ¿qué significa la función de onda del Universo?
Y encontramos apasionante que hoy estemos obligados a reflexionar sobre estas
preguntas, no en un contexto filosófico o metafísico, que tienden a no llegar a ninguna
parte, sino en el contexto del verdadero problema de la física.
Predecir el origen del Universo es un auténtico problema de física.
El problema se hace arduo cuando intentamos estudiar la historia del Universo antes
de los 3 primeros minutos, pasados 10 elevado a la -44 segundos desde su nacimiento, esto
es, a los 0'000.000.000.000.000 .000.000.000.000.000.000.000.000.000.01s.
En este momento, la temperatura era tan elevada que la gravedad producida, como las
otras formas de energía, era tan intensa como la fuerza nuclear fuerte.
¡Ninguna de nuestras teorías es capaz de describir este tipo de física! Nuestro problema
viene entonces al aplicar la mecánica cuántica a todo el Universo.
En efecto, en este preciso momento, cada partícula estaba potencialmente en todo el
Universo, como si dicha partícula ocupara la totalidad del Universo.
Se vuelve imposible así separar el Universo en partes diferenciadas como una estrella o
una galaxia, por ejemplo, y trabajar en ellas con el Universo de fondo.
La separación entre fenómenos locales y globales desaparece.
Y creo que ningún físico sabe calcular lo que pasó en este instante preciso o antes de él.
Es por lo que hay que ser muy prudente cuando se aborde el nacimiento del Universo.
Porque el nacimiento del Universo, si lo hubo, tuvo lugar antes del instante donde
todavía no podemos aplicar nuestras teorías matemáticas o físicas.
Bohr y Einstein abordaron por vías muy distintas los problemas de la mecánica
cuántica. Bohr, por su formación, tenía un espíritu revolucionario y estaba dispuesto a
creer que los numerosos conceptos que tenían los físicos no se podían aplicar ya a la
física atómica.
El no intentó exprimir al máximo un esquema matemático que se aplicaba tanto a los
objetos pequeños como a los grandes.
Quería dejar claro que existía una diferencia fundamental entre lo que vemos a nuestro
alrededor (y de lo que estamos seguros) y lo infinitamente pequeño (como los electrones,
en los que debemos extrapolar lo mejor posible).
Einstein no era revolucionario en ese sentido, sino, más bien, conservador, y pensaba
que los métodos de la física matemática eran aún válidos.
El esperaba que un esquema global pudiera cubrir a la vez lo infinitamente pequeño y lo
infinitamente grande.
Podría dar más detalles al respecto pero, yo creo que la diferencia esencial entre los dos
es que Einstein insistía en la claridad y plenitud de la teoría física, mientras que Bohr era
más partidario de aceptar un ensamblaje un poco oscuro de las leyes de los grandes
objetos y las de los pequeños.
Einstein quería una imagen dentro del espacio y del tiempo de todo lo que pasa, incluso
a la más pequeña escala, mientras que Bohr afirmaba que no teníamos derecho a tal
imagen y que nunca podríamos construirla.
Como consecuencia de esto, Einstein se obsesionó por conseguir la imagen satisfactoria y
se aisló de sus colegas, que, en su mayor parte, siguieron a Bohr y toleraron la
ambigüedad de su teoría.
Esta tuvo un enorme éxito y todavía sigue vigente.
Me he fijado en un detalle particular de la controversia que mantenían Einstein y
Bohr.
Einstein no apreciaba la mecánica cuántica por su no-localidad aparente.
Estaba seguro de que lo que ocurría en un cierto espacio no podía tener consecuencias
inmediatas en una zona alejada de dicho espacio.
El teorema de Bell, desarrollado tanto por él como por otros equipos, analiza las
implicaciones de la idea de causalidad según la cual, las causas de los hechos están
relacionadas e, incluso, las causas indirectas no están más alejadas de lo que permita la
velocidad de la luz, que es el límite superior de la propagación de los cambios de la causa
y su efecto.
Este fue el tema que mantuvo enfrentados a Bohr y Einstein, aunque en términos
cualitativos, y por el que me decidí a efectuar un análisis cuantitativo y descubrir que la
idea de causalidad local lleva a algunas contradicciones con las predicciones de la
mecánica cuántica.
Encontré que las respuestas de la mecánica cuántica eran incompatibles con las ideas de
Einstein, siendo un resultado puramente teórico.
Ciertas teorías no son compatibles con otras y no necesitamos la experiencia para
demostrarlo.
Es una deducción puramente teórica. Si la teoría de la mecánica cuántica es correcta,
Einstein estaba equivocado.
Pero la gente se preguntaba lógicamente si no era la mecánica cuántica la que está
equivocada.
Se realizaron numerosos experimentos por numerosas personas y las predicciones de la
mecánica cuántica se confirmaron.
Hubiera sido más estimulante para mí que la teoría ortodoxa no se hubiese confirmado.
El hecho de la confirmación era algo que yo esperaba y, desde luego, interesante en sí
mismo.
Pero, no obstante, un resultado diferente hubiera sido mucho más espectacular y yo lo
hubiera deseado así.
Creo que el debate entre Bohr y Einstein todavía sigue abierto, como lo demuestra la
multiplicación de conferencias dedicadas al problema de la mecánica cuántica.
Es más, creo que aparecerán más y más, por lo que, en este sentido, el debate sigue
todavía abierto.
Y hablando en profundidad, creo que las reservas manifestadas por Einstein estaban
absolutamente fundamentadas y tienen que ser mejor estudiadas.
Que Einstein tuviera o no razón sobre la cuestión de la localidad ha decepcionado a los
partidarios de Einstein, pero no ha cerrado el debate.
Empecemos por las Partículas elementales

¿Que son Partículas elementales?, en principio..., son unidades de materia considerada


fundamentales; en la actualidad, las partículas subatómicas en general.

¿Y La física de partículas? — Es el estudio de las partículas elementales y sus


interacciones también se llama física de altas energías porque la energía necesaria para
estudiar distancias extremadamente pequeñas es muy elevada, como consecuencia del
principio de incertidumbre. Originalmente se aplicó el término “partícula elemental” a
estos constituyentes de la materia porque se creían indivisibles.
Hoy se sabe que muchas de estas partículas son sumamente complejas, pero se las
sigue llamando partículas elementales.
El Auge de la física de Particular-

La física de partículas es la última etapa en el estudio de componentes de la materia cada


vez más pequeños. Antes del siglo XX, los físicos estudiaban las propiedades de la
materia macroscópica, a gran escala. Sin embargo, a finales del siglo XIX su atención se
centró en la física de átomos y moléculas. Los átomos y las moléculas tienen diámetros
del orden de 10-10 m, y el estudio de sus estructuras provocó grandes avances de la teoría
cuántica entre 1925 y 1930. A principios de la década de 1930, los científicos empezaron a
investigar la estructura de los núcleos atómicos, que tienen diámetros de entre 10-15 y 10-
14 metros. Los conocimientos sobre la estructura nuclear avanzaron hasta el punto de
hacer posible el uso de la energía nuclear, tanto en las centrales nucleares como en las
armas nucleares. En los años que siguieron a la II Guerra Mundial, los físicos se dieron
cuenta de la necesidad de estudiar más en profundidad las partículas elementales para
comprender la estructura fundamental de los núcleos atómicos.
Clasificación-
En la actualidad se conocen experimentalmente varios cientos de partículas elementales.
Pueden dividirse en distintas categorías generales. Los hadrones y leptones se definen
según los tipos de fuerza que actúan sobre ellos. Las fuerzas se transmiten mediante otro
tipo de partículas llamadas portadoras.
Los protones y neutrones son los componentes básicos de los núcleos atómicos, que en
combinación con los electrones forman los átomos.
Los fotones son las unidades fundamentales de la radiación electromagnética, que
incluye las ondas de radio, la luz visible y los rayos X.
El neutrón es inestable como partícula aislada, y se desintegra para dar lugar a un
protón, un electrón y un antineutrino electrónico. Este proceso se simboliza de la
forma siguiente:
n → p + e +V e
Los neutrones tienen una vida media de 887 segundos. Sin embargo, cuando se
combinan con protones para formar determinados núcleos atómicos, como el oxígeno
16 o el hierro 56, los neutrones se estabilizan.
La mayoría de las partículas elementales conocidas han sido descubiertas después de
1945, algunas en rayos cósmicos y el resto en experimentos con aceleradores de alta
energía. Se ha postulado la existencia de muchas otras partículas, como el gravitón,
que se cree que transmite la fuerza gravitatoria.
En 1930, el físico británico Paul A. M. Dirac predijo, por motivos teóricos, que a cada
tipo de partícula elemental le corresponde otro tipo conocido como antipartícula de la
primera. La antipartícula del electrón fue descubierta en 1932 por el físico
estadounidense Carl D. Anderson, que la llamó positrón.
El antiprotón fue descubierto en 1955 por los físicos estadounidenses Owen
Chamberlain y Emilio Segre. En la actualidad se sabe que la predicción de Dirac es
válida para todas las partículas elementales, aunque algunas, como el fotón, son sus
propias antipartículas.
Los físicos suelen utilizar una barra horizontal para indicar las antipartículas.
Así, Ve es la antipartícula de ve.
Las partículas también pueden clasificarse según su espín, o momento angular intrínseco,
en bosones y fermiones. El espín de los bosones es un múltiplo entero de una constante, h;
el de los fermiones es un múltiplo semientero de dicha constante, como, por ejemplo,
(3/2) h.
Fuerzas Fundamentales
Las partículas elementales ejercen fuerzas sobre las demás partículas y son continuamente
creadas y aniquiladas. En realidad, las fuerzas y los procesos de creación y aniquilación
son fenómenos relacionados, y se denominan colectivamente interacciones o fuerzas
fundamentales. Se conocen cuatro tipos de interacción (aunque se han postulado más):
Intensidad relativa
Interacción nuclear fuerte............................................ ..1
Interacción electromagnética..........................................10 -2
Interacción nuclear débil................................................ 10 -13
Interacción gravitatoria.................................................. 10 -32
La interacción nuclear fuerte es la más intensa, y es la responsable de la vinculación de
protones y neutrones para formar núcleos. Le sigue en intensidad la interacción
electromagnética, que une los electrones a los núcleos en átomos y moléculas. Desde el
punto de vista práctico, esta unión reviste una gran importancia porque todas las reacciones
químicas conllevan transformaciones de esta unión electromagnética de los electrones y los
núcleos.
La llamada interacción débil, o fuerza nuclear débil, es mucho menos intensa. Rige la
desintegración radiactiva de los núcleos atómicos, que fue observada por primera vez
(1896-1898) por los físicos y químicos franceses Antoine H. Becquerel, Pierre y Marie
Curie.
La interacción gravitatoria es importante a gran escala, aunque es la más débil de las
interacciones entre partículas elementales.

Leyes de Conservación-
La dinámica de las interacciones de las partículas elementales se rige por ecuaciones de
movimiento que son generalizaciones de las tres leyes fundamentales de la dinámica de
Newton En la mecánica newtoniana, la energía, el momento y el momento angular no
se crean ni se destruyen: son magnitudes que se conservan.
Aunque la energía existe en muchas formas que pueden transformarse unas en otras, la
energía total no cambia.
En las interacciones entre partículas elementales siguen estando vigentes estas leyes de
conservación, pero se han descubierto leyes de conservación adicionales de gran
importancia en la estructura y las interacciones de los núcleos atómicos y las partículas
elementales.
Simetría y Números Cuánticos-
Hasta comienzos del siglo XX, los principios de simetría se aplicaban en física casi
exclusivamente a problemas de mecánica de fluidos y cristalografía. Después de 1925, con
el éxito cada vez mayor de la teoría cuántica en la descripción del átomo y los procesos
atómicos, los físicos descubrieron que las consideraciones de simetría implicaban números
cuánticos (que describen los estados atómicos) y reglas de selección (que rigen las
transiciones entre estados atómicos). Como los números cuánticos y las reglas de selección
son necesarios para describir los fenómenos atómicos y subatómicos, las consideraciones de
simetría resultan esenciales en la física de las partículas elementales.
Polaridad (P)-
La mayoría de los principios de simetría afirman que un fenómeno determinado es
invariante (no cambia) cuando se transforman ciertas coordenadas espaciales de un modo
determinado. El principio de simetría de reflexión espacial, o conservación de la paridad
(P), afirma que las leyes de la naturaleza son invariantes cuando las tres coordenadas
espaciales x, y, z de todas las partículas se reflejan (es decir, cuando se cambian de signo;
esta operación también se denomina paridad). Por ejemplo, supongamos que una reacción
(colisión o interacción) entre dos partículas A y B con momentos pA y pB tiene una
determinada probabilidad de producir otras dos partículas C y D con momentos pC y pD.
Llamemos R a esta reacción: A + B → C + D(R)
Si las partículas A y B con momentos -pA y -pB producen las partículas C y D con
momentos -pC y -pD con la misma probabilidad que R, significa que la reacción es
invariante bajo paridad (P).
Simetría de conjugación de carga (C)-
Para ilustrar el principio de simetría de conjugación de carga emplearemos la misma
reacción R. Si se sustituyen las partículas A, B, C y D por sus antipartículas s A,  B,C, y D,
R se convierte en la siguiente reacción (que puede o no tener lugar en la realidad):

A + B→ C + DC(R)
Llamemos a esta reacción hipotética C(R): es la reacción conjugada de R. Si C(R) tiene
lugar y se produce con la misma probabilidad que R, la reacción es invariante bajo
conjugación de carga (C).

Simetría de inversion temporal (T)-


El principio de simetría de inversión temporal, o reversibilidad del tiempo, se define de
forma similar. El principio afirma que si una reacción R es invariante bajo T, la
probabilidad de la reacción inversa

C+D→A+ BT(R)
es igual a la probabilidad de R.
Simetría e intensidad de las interacciones-
Se ha demostrado que los cuatro tipos de interacción presentan clases de simetría muy
diferentes.
Antes de 1957, se creía que la simetría de reflexión espacial (o conservación de la
paridad) se daba en todas las interacciones.
En 1956, los físicos estadounidenses de origen chino Tsung Dao Lee y Chen Ning Yang
indicaron que en realidad no se había comprobado la conservación de la paridad en la
interacción débil, y sugirieron varios experimentos para hacerlo.
Uno de ellos fue realizado al año siguiente por la física estadounidense de origen chino
Chien-Shiung Wu y sus colaboradores: descubrieron que la paridad no se conservaba en
esa interacción.
La consecuencia fue el descubrimiento de que las partículas emitidas en la interacción
débil tienden a mostrar “quiralidad”, una relación determinada entre su espín y su
sentido de movimiento.
En particular, los neutrinos ve y vµ, que sólo están implicados en las interacciones débil
y gravitatoria, siempre tienen un espín levógiro; es decir, el espín de la partícula tiene
sentido opuesto a su movimiento.
Los físicos estadounidenses James W. Cronin y Val L. Fitch y sus colaboradores
descubrieron en 1964 que la interacción débil no es simétrica bajo inversión temporal.
Simetría y Quarks -
La clasificación de las partículas elementales se basa en sus números cuánticos, por lo que
está muy relacionada con las ideas sobre simetría. Basándose en estas consideraciones, los
físicos estadounidenses Murray Gell-Mann y George Zweig propusieron
independientemente en 1963 que los bariones y los mesones están formados por
componentes más pequeños, que Gell-Mann llamó quarks.
Sugirieron tres tipos de quark, cada uno con su correspondiente antiquark.
Se han acumulado pruebas indirectas muy convincentes del modelo de quark para los
bariones y mesones, sobre todo después de que, en 1974, los físicos estadounidenses
Samuel C. C. Ting y Burton Richter descubrieran las partículas Ji-Psí. Actualmente se
acepta de forma generalizada la existencia de seis tipos de quark.

Teoría de campo de las interacciones –


Hasta mediados del siglo XIX se creía que las interacciones o fuerzas fundamentales
actuaban a distancia. El científico británico Michael Faraday lanzó la idea de que las
interacciones se transmiten de un cuerpo a otro a través de un campo.
El físico británico James Clerk Maxwell dio forma matemática a las ideas de Faraday, con
lo que estableció la primera teoría de campo, que incluye las ecuaciones de Maxwell para
las interacciones electromagnéticas.
En 1916, Albert Einstein publicó su teoría de la interacción gravitatoria, que se convirtió
en la segunda teoría de campo. Hoy se cree que las otras dos interacciones, nuclear fuerte
y débil, también pueden ser descritas por teorías de campo.
Con el desarrollo de la mecánica cuántica, en las décadas de 1930 y 1940 surgieron
ciertas dificultades en relación con las teorías de campo, dificultades relacionadas con los
campos extremadamente intensos que deben existir en las inmediaciones de una partícula;
se denominaron dificultades de divergencia. Estos problemas fueron eliminados en parte
por un método llamado renormalización, desarrollado en los años 1947-1949 por el físico
japonés Shin’ichirō Tomonaga, los estadounidenses Julian S. Schwinger y Richard
Feynman y el físico estadounidense de origen británico Freeman Dyson. Los métodos de
renormalización mostraron que las dificultades de divergencia pueden aislarse y
eliminarse de forma sistemática. Este proyecto logró grandes éxitos prácticos, pero la
base de la teoría de campo sigue siendo poco satisfactoria.

Unificación de las teorías de campos-


Los cuatro tipos de interacción son muy distintos entre sí. El esfuerzo para unificarlos en
un único todo conceptual fue iniciado por Albert Einstein antes de 1920. En 1979, los
físicos estadounidenses Sheldon Glashow y Steven Weinberg y el físico paquistaní Abdus
Salam compartieron el Premio Nobel de Física por su trabajo en un modelo que unificaba
con éxito las teorías de las interacciones electromagnética y débil. Esto se logró
empleando una teoría matemática conocida como simetría de gauge que fue desarrollada
por el matemático alemán Hermann Weyl, el antes citado Yang y el físico estadounidense
Robert Laurence Mills, así como los conceptos de simetría rota desarrollados por el físico
estadounidense de origen japonés Yoichiro Nambu, el físico británico Peter W. Higgs y
otros ( Campo de Higgs).
Una contribución muy importante a estos avances se debió al físico holandés Gerardus ‘t
Hooft, que impulsó el proyecto de renormalización para estas teorías.
El panorama conceptual que ha surgido de estos esfuerzos se denomina modelo estándar.
De acuerdo con este modelo, los hadrones están formados por parejas o tríos de quarks, e
interaccionan intercambiando partículas portadoras de la interacción fuerte, llamadas
gluones.
Los leptones son una familia distinta de partículas entre las que figuran los electrones y los
neutrinos, e interaccionan a través de la fuerza nuclear débil, transmitida por las llamadas
partículas W y Z.

Perspectivas de Futuro -
Ahora se sabe que las propiedades de todas las interacciones vienen dictadas por distintas
formas de simetría de gauge .
Esta idea la utilizó por primera vez Einstein en la búsqueda de una teoría de la gravitación
que fuera simétrica con respecto a transformaciones de coordenadas, búsqueda que
culminó en la teoría de la relatividad general en 1916.
El uso de estas ideas será con toda seguridad una característica importante en la física de
partículas de los próximos años.
Ya se ha intentado —con las teorías de la supersimetría y la supergravedad— una
ampliación cualitativa del concepto de simetría de gauge para tratar de unificar todas las
interacciones. No cabe duda de que estos avances continuarán.
El objetivo último es comprender la estructura fundamental de la materia a partir de unos
principios de simetría unificados. Desgraciadamente, no es probable que se alcance esta
meta en un futuro cercano, ya que existen muchas dificultades de tipo teórico y
experimental.
En el aspecto teórico, las complejidades matemáticas de la teoría cuántica de gauge son
muy grandes.
En el aspecto experimental, el estudio de la estructura de partículas elementales de
dimensiones cada vez más pequeñas exige aceleradores y detectores de partículas cada vez
mayores.
Los recursos humanos y financieros necesarios para seguir avanzando son tan tremendos
que el ritmo del avance decrecerá inevitablemente.

“La mayor aventura de la historia del hombre,


es la que nos lleva a la comprensión del Universo,
de cómo funciona y de donde viene.
Es difícil creer que unos pocos habitantes de un pequeño planeta, en orbita alrededor
de una estrella insignificante, dentro de una pequeña galaxia, puedan llegar a
comprender el Universo, un punto de la creación convencidos... de que son capaces
de entender la Totalidad”
-Murray Gell-Mann.
Premio Nobel de Fisica.
Algunas Notas de Interés
Campo de Higgs -
En física de partículas, campo o campos de energía situados en lo que sería un vacío
perfecto.
Los campos de Higgs son una construcción teórica del físico británico Peter W. Higgs, con
los que intentó contribuir a la explicación de las partículas conocidas como bosones de
gauge masivo sin romper las leyes de simetría de la física moderna.
El concepto se ha empleado para tratar de desarrollar una teoría del campo unificado que
incorporara todas las interacciones fundamentales de la materia.
Recientes descubrimientos de partículas han apoyado este concepto. Uno de los campos de
Higgs requiere la existencia de la llamada partícula de Higgs, que sería un bosón sin espín
intrínseco ni carga eléctrica.
Aunque todavía no ha sido observada, en las últimas investigaciones que se llevaron a cabo
en el acelerador de partículas LEP, el gran colisionador de electrones-positrones del CERN,
se obtuvieron indicios de señales de esta partícula.
Otros experimentos de alta precisión realizados también en este acelerador han llevado a la
evidencia de forma indirecta de la existencia del bosón de Higgs.
Cerrado el LEP, a finales de 2000, está previsto que las investigaciones sobre esta partícula
continúen en el LHC, un nuevo y más potente acelerador del CERN, que deberá estar en
funcionamiento en el año 2006.
Teoría cuántica de campos -
Teoría cuántica de campos, teoría formal que, mediante el procedimiento denominado de
segunda cuantificación, extiende la mecánica cuántica a los campos dinámicos,
proporcionando la explicación de fenómenos que no se pueden interpretar a la luz de la
teoría clásica.
La teoría explica, por ejemplo, el proceso de creación y absorción de partículas durante los
casos de colisión; la creación de parejas de partículas en presencia de energía
suficientemente alta, y su consiguiente aniquilación; la energía de punto cero, por la cual
un sistema cuántico, en su estado fundamental, posee una energía que no es nula; la
existencia de la antimateria, por la que a cada partícula elemental corresponde una partícula
igual en todo a ella, pero diferente por la carga eléctrica o por alguna otra propiedad
cuántica, y también, en el ámbito de la física del estado sólido, los fenómenos de la
superconductividad y de la superfluidez.
En el modelo que ofrece la teoría cuántica de campos, las partículas están representadas
como los estados excitados cuantizados de los campos correspondientes.
Así, en el ámbito de la electrodinámica cuántica—la teoría surgida de la aplicación de la
teoría cuántica de campos a la interacción electromagnética—, el fotón y el electrón se
definen como los cuantos del campo electromagnético.
La electrodinámica cuántica fue la primera de las teorías cuánticas de campo, formulada
hacia finales de la década de 1920 por los fundadores de la mecánica cuántica.
A finales de la década de los cuarenta, los físicos estadounidenses Richard Feynman y
J. Schwinger, junto con el físico japonés S. Tomonaga, reformularon la teoría cuántica de
campos a la luz de los principios de la relatividad, ofreciendo una exposición
relativistamente invariante.
Las consecuencias más importantes de esta operación fueron la previsión de la existencia
de la antimateria y la determinación de la relación existente entre el espín de las partículas
y el tipo de estadística seguido por éste, con la distinción entre partículas de Fermi-Dirac, o
fermiones, y partículas de Bose-Einstein, o bosones.
El éxito de la electrodinámica cuántica, debido a la eficacia del formalismo introducido por
ella y a las numerosas confirmaciones experimentales que siguieron, indujo a los físicos a
aplicar el esquema formal de la teoría cuántica de campos a otros tipos de interacción
(fuerzas fundamentales) conocidos en la naturaleza.
De ahí surgieron la cromodinámica cuántica, para la interacción fuerte, y la teoría de la
interacción débil, que confluyó pronto, junto a la electrodinámica cuántica, con la teoría
electrodébil del físico estadounidense Steven Weinberg y del físico paquistaní Abdus
Salam. La cromo dinámica cuántica, la teoría electro débil y la relatividad general
constituyen el denominado modelo estándar. Algunas dificultades de naturaleza formal,
que complican el equilibrio matemático de estas teorías de campo —haciendo necesarios
procedimientos de ‘renormalización’—, junto al hecho de que falta aún una teoría cuántica
apropiada para la interacción gravitacional, son la causa de que la unificación de las
diversas interacciones conocidas en una única teoría denominada teoría del todo no haya
encontrado todavía una formulación definitiva.
Lexico:
Bosón. (De Bose-Einstein, estadística que sigue esta partícula, y -ón2). Partícula
elemental que, como el fotón, ejerce la interacción entre fermiones.

Fermión. (De E. Fermi, 1901-1954, físico italiano, y -ón2).


Partícula elemental que, como el protón y el electrón, sigue la estadística de Fermi-Dirac.

Mesón 2. (De meso- y -ón2).


Cada una de las partículas efímeras producidas en ciertas reacciones nucleares, con masa
intermedia entre el electrón y el nucleón.

Neutrino. (De neutro e -ino).


Partícula eléctricamente neutra, cuya masa es inapreciable.

Quark. (Voz ingl. ).Tipo de partículas elementales, componentes de otras partículas


subatómicas, como el protón y el neutrón, y que no existen de manera aislada.

Leptón. Partícula elemental; fermión de los más ligeros, como el electrón, el muon, sus
neutrinos y las correspondientes antipartículas.
Muon o muón. Partícula elemental inestable del grupo de los leptones, de carga igual a la
del electrón. (Símb. µ).

Espín o Spin, Momento angular intrínseco de una partícula subatómica. En la física


atómica y de partículas existen dos tipos de momento angular: el momento angular de
espín y el momento angular orbital. El espín es una propiedad fundamental de todas las
partículas elementales, y existe incluso aunque la partícula no se mueva; el momento
angular orbital se debe al movimiento de la partícula. Por ejemplo, un electrón en un
átomo tiene momento angular orbital, causado por el movimiento del electrón alrededor
del núcleo, y momento angular de espín. El momento angular total de una partícula es
una combinación de los momentos angulares orbital y de espín.
Muchas Gracias
Por su Atención

Maestro Sri Deva Fénix

ciudadelafenix@yahoo.es

Anda mungkin juga menyukai