Anda di halaman 1dari 343

EL BIG BANG NUNCA OCURRIÓ

Eric J. Lerner
(1992)
ÍNDICE

Prefacio a la Vintage Edition

Introducción

Primera parte EL DEBATE COSMOLÓGICO

1. El Big Bang Nunca Sucedió


2. Una historia de la creación
3. El auge de la ciencia
4. La Extraña Carrera de la Cosmología Moderna
5. Las Lanzas de Odín
6. El Universo Plasmático

Segunda Parte IMPLICACIONES

7. El Flujo Infinito del Tiempo


8. Materia
9. Infinito en el tiempo y el espacio
10. Cosmos y Sociedad

Apéndice
Bibliografía
PREFACIO A LA EDICIÓN ANTIGUA

Hace cuatrocientos años, Galileo rompió los lazos que habían


enredado la ciencia con la religión. Desafiando el compromiso casi
unánime de sus compañeros científicos con el universo finito y
centrado en la tierra de Ptolomeo, Galileo defendió el ilimitado
cosmos centrado en el sol de Corpernicus. Argumentó que la
observación, y no la autoridad científica o religiosa, debe ser la
prueba de la teoría cosmológica. La ciencia y la religión deben estar
separadas, declaró: "La religión enseña cómo ir al cielo, no cómo
van los cielos."
Pero ahora, cuatro siglos después de la Revolución Científica, parece
que hemos cerrado el círculo: "El descubrimiento histórico del Big
Bang puede probar la existencia de Dios", dice el titular de una
historia de Associated Press fechada el 25 de abril de 1992. Se cita a
cosmólogos destacados que dicen que los recientes descubrimientos
astronómicos "son como mirar a Dios", que prueban la realidad del
Big Bang, una versión científica de la historia bíblica de la Creación.
La cosmología parece estar de nuevo enredada con la religión, al
menos en los titulares y en las mentes de algunos cosmólogos.
Sin duda, los titulares de estos periódicos han contado una historia
confusa. En enero de 1991, los titulares afirmaron audazmente que la
idea de un nacimiento explosivo del universo, el Big Bang, estaba
muerta: "La teoría del Big Bang va a la quiebra", decía uno de ellos
en el Washington Post. Pero en abril de 1992, otro titular del New
York Times informó: "Los astrónomos detectan la prueba del Big
Bang: una visión profunda de cómo comenzó el tiempo" ¿Qué
explica este repentino cambio en los cielos? Según los informes, esta
prueba decisiva del Big Bang, este "descubrimiento científico del
siglo, de todos los tiempos", esta evidencia clave de la Creación y de
la Deidad, fue el descubrimiento de pequeñas ondas en la intensidad
del fondo de microondas, una especie de siseo de radio universal. Por
lo tanto, si creemos en los informes, el hallazgo de pequeñas
fluctuaciones en la radiación de fondo eclipsa en importancia el
descubrimiento de la energía nuclear, el ADN, los antibióticos, la
teoría de la relatividad y la teoría cuántica de la materia, entre otras
ideas científicas de menor importancia.
Pero la realidad es diferente de los titulares. De hecho, la abrumadora
masa de evidencia científica todavía contradice el Big Bang, como
este libro se esfuerza por mostrar. Al momento de escribir este libro -
mayo de 1992- el Big Bang sigue estando en problemas tan
profundos como siempre, con una divergencia aún mayor con
respecto a la observación que cuando se completó la primera edición
de este libro a fines de 1990. La ventisca de comunicados de prensa
que acompañó el descubrimiento de estas fluctuaciones por el satélite
Cosmological Background Explorer (COBE) no son meras
declaraciones objetivas de hechos, sino una salva en el debate
cosmológico en desarrollo, un debate que crece constantemente y
que tiene profundas implicaciones para la ciencia, y de hecho para la
sociedad.
En el año y medio transcurrido desde que se escribió este libro, la
evidencia contra el Big Bang se ha fortalecido, y los resultados del
COBE, lejos de "probar" la teoría, no han resuelto en modo alguno
los problemas planteados por otros descubrimientos. El problema
clave, como describo en el Capítulo Uno, es que hay objetos en el
universo - enormes conglomerados de galaxias - que son
simplemente demasiado grandes para haberse formado en el tiempo
desde el Big Bang, objetos cuya edad es mayor que la edad que los
cosmólogos del Big Bang asignan al universo mismo. Estas
aglomeraciones se extienden a lo largo de más de mil millones de
años luz y fueron descubiertas por primera vez en 1986. En enero de
1991, mientras se imprimía la primera edición de este libro, un
equipo de astrónomos liderado por Will Saunders de Oxford reveló
un estudio de galaxias que confirmaba sin lugar a dudas la existencia
de estos conglomerados, denominados complejos de superclusters. El
estudio, basado en datos del Satélite Astronómico Infrarrojo (IRAS),
mostró la prevalencia de estas grandes estructuras. Ya que ninguna
versión del Big Bang predijo la existencia de estructuras tan vastas,
los cosmólogos vieron el nuevo hallazgo con alarma. Fue este
descubrimiento el que llevó a los titulares a principios de 1991 que la
teoría del Big Bang estaba muerta o al menos en gran duda.
Esta alarma fue con razón. Al medir las velocidades que las galaxias
viajan hoy en día, y la distancia que la materia debe haber viajado
para formar tales estructuras, los astrónomos pueden estimar el
tiempo que tomó construir estos complejos, la edad que tienen. La
respuesta a esta última es: aproximadamente 60.000 millones de
años. Pero la teoría del Big Bang dice que el universo tiene entre
diez y veinte mil millones de años. La existencia de objetos "más
antiguos que el Big Bang" es una contradicción directa con la idea
misma de que el universo surgió repentinamente en una gran
explosión.
Esta crisis de la "edad del universo" está empeorando rápidamente
porque la estimación teórica de esa edad se está reduciendo cada
mes. Los astrónomos han sabido desde la década de 1920 que cuanto
más lejos está una galaxia de nosotros, más rápido parece que se
aleja. A partir de este hecho básico, el astrónomo George Lemaitre
propuso por primera vez que, en un momento dado, toda la materia
se apretaba y explotaba hacia afuera en una explosión gigante: el Big
Bang. (Como veremos en el Capítulo Seis, esta no es de ninguna
manera la única explicación posible). Por lo tanto, los teóricos del
Big Bang argumentan que midiendo la distancia a las galaxias, y sus
velocidades hoy en día, podemos determinar el tiempo transcurrido
desde el Big Bang y la edad del Universo.
Ahora, medir distancias a las galaxias es difícil. Alguna "vela
estándar" que sea de un brillo conocido debe ser usada para que, a
partir de su brillo aparente aquí en la tierra, se pueda determinar la
distancia a la galaxia. En el último año, muchas de las diferentes
estimaciones parecían converger en una respuesta: el tiempo
transcurrido desde el Big Bang, según estas observaciones, es como
mucho de trece a dieciséis mil millones de años. Aunque esto puede
parecer mucho tiempo, para los astrónomos es incómodamente corto.
Los astrónomos están de acuerdo en que saben lo suficiente sobre las
estrellas como para medir sus edades cuando se reúnen en cúmulos
globulares -bolas esféricas de cientos de miles de estrellas en nuestra
propia galaxia y en otras galaxias. Los cúmulos más antiguos de
nuestra propia galaxia tienen al menos entre quince y dieciocho mil
millones de años de antigüedad, cerca o más allá del máximo que
permiten las estimaciones del Big Bang sobre la edad del universo.
Sin embargo, el asunto es peor que eso. Como se explicará en el
Capítulo Uno, los cosmólogos han predicho una densidad para el
universo que es cien veces mayor que la densidad que los
astrónomos observan al contar galaxias. Esta hipotética "materia
oscura" es esencial para el Big Bang. Pero mucha materia, en la
teoría del Big Bang, frenaría la expansión del universo. En el pasado,
la expansión habría sido más rápida, y por lo tanto la edad del
universo aún más corta: de ocho a once mil millones de años. Así
que no solo los grandes complejos de superclusters son cinco veces
mas viejos que la"edad del universo" - incluso las estrellas humildes
en nuestra propia galaxia son cuatro a siete billones de años mas
viejas!
¿Cuál ha sido la respuesta de los cosmólogos a esta crisis de la edad?
De manera característica, no se ha considerado la idea de que la
teoría del Big Bang en sí misma podría estar equivocada. En cambio,
ha habido dos enfoques generales que mantienen la fe. Por un lado,
muchos partidarios del Big Bang simplemente dicen: "Sí, es cierto
que no podemos explicar las estructuras a gran escala, pero este es un
mero detalle que no afecta a la validez del Big Bang en sí."Esto es
muy parecido a un dicho fundamentalista: "Sí, parece que las
montañas tienen millones de años, pero es un mero detalle que no
afecta a la idea de que la tierra tiene seis mil años", es simplemente
un abandono de la idea de que las hipótesis científicas pueden ser
probadas contra la observación.
El segundo, y cada vez más popular, es añadir nuevas hipótesis -algo
que los cosmólogos del Big Bang están acostumbrados a hacer (ver
Capítulo Cuatro). La última idea es de alguna manera empujar el Big
Bang más atrás en el tiempo, manteniendo que la expansión fue más
lenta en el pasado. Los cosmólogos teorizan que una fuerza de
expansión cosmológica de origen desconocido está acelerando la
expansión. Pero una fuerza tan acelerada, además de ser
completamente arrancada del aire, creó conflictos propios con la
observación.
No sólo ha empeorado la crisis de la edad en el último año, sino que
ha surgido un problema totalmente nuevo para el Big Bang. Las
únicas predicciones cuantitativas del Big Bang son la abundancia de
ciertos elementos ligeros: helio, litio y deuterio (la forma pesada del
hidrógeno). La teoría predice estas abundancias como una función de
la densidad de la materia en el universo. En el pasado, estas
predicciones parecían concordar razonablemente bien con la
observación, y esto se consideraba un apoyo clave para la teoría (ver
página 153). Pero a partir de abril de 1991, un número creciente de
observaciones demostró que estas predicciones también eran
erróneas. Hay menos helio en el universo de lo que la teoría predice,
y mucho menos deuterio y litio (Fig. 1). Uno puede ajustar la
cantidad de lium observado con una densidad asumida, deuterio con
otra, y litio con una tercera, pero ninguna cantidad de materia sale
bien para las tres. En particular, si el helio es correcto (no más del 23
por ciento del universo), entonces se predice que el deuterio es ocho
veces más abundante de lo que se observa (dieciséis en lugar de dos
partes en cien mil).
Este es otro desafío fundamental para el Big Bang, ya que con estos
elementos ligeros fuera de acuerdo con la teoría, no hay una sola
pieza de datos que los teóricos puedan señalar como confirmación de
la teoría. Por supuesto, una vez más se han hecho esfuerzos para
arreglar las cosas. Tal vez casi todo el deuterio fue quemado en
estrellas, así que sólo queda una octava parte, argumentan algunos
cosmólogos. Tal vez hubo pequeños bultos en el Big Bang, de modo
que se crearon diferentes cantidades de elementos. Pero ninguna de
estas correcciones puede dar cuenta de todos los datos.
Las observaciones del COBE, anunciadas en abril de 1992, no
tuvieron absolutamente ningún impacto en ninguno de estos
problemas. El COBE detectó fluctuaciones de una parte en cien mil
en la suave radiación cósmica de fondo. Según la teoría del Big
Bang, estas fluctuaciones son reliquias de variaciones igualmente
sutiles en la densidad de la materia poco después del Big Bang. Tales
fluctuaciones, afirma la teoría, atraen gradualmente a la materia a su
alrededor para que se convierta en grandes estructuras en el universo
actual. Pero esto no explica de ninguna manera cómo las estructuras
pudieron haber crecido lo suficientemente rápido, ni cómo el
universo pudo ser más joven que algunas de sus propias estrellas, ni
por qué las abundancias de los elementos de luz están todas
equivocadas.
Ni siquiera los teóricos del Big Bang predijeron con precisión la
magnitud de las fluctuaciones. Las predicciones originales del Big
Bang en la década de 1970 decían que se necesitarían fluctuaciones
de una parte entre mil para que la materia se condensara en cualquier
estructura, incluso en las relativamente pequeñas como las galaxias.
(Esto es cien veces mayor que la fluctuación que COBE encontró
veinte años después.) Cuando estas ondas más grandes que
predijeron no fueron encontradas, los teóricos decidieron que la
materia debe ser cien veces más densa que lo indicado por la
observación, para que una fuerza gravitacional más fuerte pueda
acelerar el crecimiento de las estructuras (ver página 33). Esta era la
famosa "materia oscura", pero con esta materia oscura, las
predicciones se volvieron lo suficientemente flexibles como para
adaptarse a casi cualquier resultado. En los meses previos al anuncio
de los resultados del COBE, las predicciones del Big Bang variaban
desde la fluctuación de unas pocas partes en cientos de miles hasta
una parte en diez millones, cien veces más pequeñas que los
resultados del COBE. Dado que ningún resultado COBE podría
contradecir este patrón de predicciones de escopeta, ninguno pudo
confirmarlas tampoco.

Fig. 1. La teoría del Big Bang predice la abundancia de helio, deuterio y litio en
función de la densidad, medida aquí como protones por cada diez mil millones
de fotones. (Las abundancias son relativas al hidrógeno, el elemento más
abundante.) Las curvas muestran las abundancias pronosticadas del Big Bang.
Las bandas sombreadas muestran las densidades que son compatibles con las
abundancias observadas de cada uno de los elementos. Ninguna densidad se
ajusta correctamente a las tres abundancias y existe una gran brecha entre el
deuterio y el helio. Esto está en fuerte contradicción con las predicciones del Big
Bang.

Los resultados ni siquiera demostraron que el fondo cósmico sea de


hecho un eco del Big Bang. Otros científicos, entre ellos yo y el Dr.
Anthony Peratt del Laboratorio Nacional de Los Álamos, hemos
formulado la hipótesis de que el fondo es el resplandor de una niebla
de radio producida en el universo actual. Las irregularidades en esta
niebla producirían fluctuaciones de aproximadamente el tamaño
observado, como predijimos antes de estos resultados. Y otra
evidencia observacional respalda la idea de que tal niebla existe entre
las galaxias (ver página 276).
Entonces, ¿por qué hubo tal celebración de los hallazgos de COBE?
Para la mayoría de los cosmólogos, que han pasado sus vidas
elaborando la teoría del Big Bang, se ha convertido en un artículo de
fe, no en una hipótesis a ser probada o refutada por la evidencia.
Después de dos años en los que cada nueva observación producía
una nueva contradicción, los resultados del COBE, que no
contradecían la teoría (de hecho no podía tenerla), fueron tomados
como una forma de defender la fe. Los cosmólogos proclamaron en
voz alta que ahora nadie podía cuestionar su teoría.
La prensa tomó la palabra a los cosmólogos, a las autoridades
existentes. Ninguno parece haber dudado de las afirmaciones
exageradas, cuestionado exactamente cómo estas ondas disiparon
todos los problemas de la teoría, o pedido a cualquiera de las docenas
de críticos de la teoría que hicieran comentarios. En una época de
incertidumbre, los periodistas estaban dispuestos a informar que las
autoridades tenían el cosmos bien controlado, que ahora se conocían
las verdades finales, que la ciencia y la religión hablaban con una
sola voz.
Este nuevo entrelazamiento de ciencia, autoridad y fe, este intento de
contrarrevolución científica, es peligroso para toda la empresa
científica. Si se aceptan las afirmaciones teóricas más descabelladas
sólo sobre la palabra de la autoridad científica, se rompe el vínculo
con la observación. Y si las apelaciones a la autoridad se extienden a
la Escritura, si uno acepta que la prueba del Big Bang es la prueba de
una variedad de doctrina judeo-cristiana, entonces los ataques a esta
teoría científica se convierten en herejía, como los ataques de Galileo
a Tolomeo fueron considerados hace cuatrocientos años. Este es un
retorno a una cosmología construida sobre la fe, no sobre la
observación, una tendencia que es uno de los temas principales de
este libro.
Afortunadamente, esta no es la única tendencia en cosmología. La
publicación de la primera edición de este libro en mayo de 1991 ha
agudizado considerablemente el debate cosmológico y lo ha llevado
a la atención de un público amplio, fuera de los estrechos confines de
la cosmología misma. La idea de que existe una alternativa científica
al Big Bang ha sido discutida en la página editorial del New York
Times, en revistas populares de astronomía como Sky y Telescope,
en decenas de estaciones de radio y en varios noticieros de
televisión. En el pasado, los cosmólogos del Big Bang simplemente
han ignorado a los críticos de la teoría. Ahora están empezando a
debatir de mala gana con estos críticos. Quizás lo más importante es
que los partidarios del Big Bang han tenido que tomar en serio el
desafío que planteamos en sus propios círculos científicos. En un
seminario reciente impartido por un cosmólogo destacado en el
Laboratorio Nacional de Los Álamos, el orador comenzó con la
lectura de este libro y aseguró a su audiencia que el Big Bang seguía
siendo válido. Cuando di un seminario sobre el fracaso de la
cosmología del Big Bang y la alternativa del plasma en la
Universidad de Princeton, asistieron varios investigadores destacados
y su rebaño de estudiantes graduados. Significativamente, en la
discusión que siguió, hubo pocas defensas del Big Bang, y los
comentarios de los cosmólogos se centraron en sus críticas a la
cosmología del plasma. Cuando comenté esto, un partidario del Big
Bang se encogió de hombros y dijo: "Todos sabemos que el Big
Bang tiene muchos problemas. Pero si no hay alternativa, debemos
seguir con ella".
Hoy en día, este debate apenas comienza a ser difundido en la prensa
popular y en las revistas científicas. Sin embargo, está ocurriendo y
creciendo. Este libro es un informe sobre ese debate emergente, sus
raíces y sus consecuencias. Y puesto que, como demuestra
abundantemente la historia, los puntos de vista de las personas sobre
el universo están ligados a sus puntos de vista sobre sí mismas y
sobre su sociedad, este debate tiene implicaciones que van mucho
más allá del ámbito de la ciencia, ya que el núcleo del debate
cosmológico es una cuestión de cómo se conoce la verdad.
¿Debemos confiar en los expertos, cuyas declaraciones, por muy
absurdas que parezcan, son aceptadas por la fe, o confiamos en la
evidencia de los sentidos, en nuestra observación del mundo? Esta
pregunta también está en el centro de los acontecimientos sociales de
hoy. Mientras escribo, no hay un gobierno, ni del este ni del oeste,
que goce hoy de la confianza de su pueblo o que pueda prometerles
de manera creíble alguna mejora en su futuro. El declive global de la
producción y de los niveles de vida, iniciado hace veinte años, se ha
acelerado. Para sacar a la sociedad de este torbellino, ¿debemos
confiar en "los expertos" que, tanto en el este como en el oeste, piden
insistentemente políticas que beneficien a unos pocos y sacrifiquen a
muchos? ¿O podemos confiar en nuestro propio juicio para tomar en
nuestras propias manos -las manos de los que trabajan- la dirección
de la sociedad y de la economía que la sustenta? La forma en que se
respondan estas preguntas moldeará no sólo la historia de la ciencia,
sino también la historia de la humanidad.

Eric J. Lerner

Mayo de 1992
INTRODUCCIÓN

Cuando los principales científicos predicen públicamente que la


ciencia pronto alcanzará su objetivo final, que dentro de una década
todo estará explicado, puedes estar seguro de que están equivocados.
Hace un siglo, uno de los principales científicos de la época, Lord
Kelvin, afirmó que el futuro de la física estaba "en el último lugar
decimal", y que todos los problemas principales, según él, se habían
resuelto, sólo se necesitaba más precisión. Sin embargo, en dos
décadas, el descubrimiento de la radiactividad, la teoría de la
relatividad y el desarrollo de la mecánica cuántica habían
transformado completamente la física y cambiado profundamente la
visión de la humanidad sobre el universo.
Hoy volvemos a escuchar a científicos de renombre, como Stephen
Hawking, que afirman que tienen a su alcance una "Teoría del Todo",
que casi han llegado a un único conjunto de ecuaciones que
explicarán todos los fenómenos de la naturaleza -gravitación,
electricidad y magnetismo, radioactividad y energía nuclear- desde el
reino de los átomos hasta el reino de las galaxias y desde el principio
del universo hasta el fin de los tiempos. Y una vez más, están
equivocados. Porque silenciosamente, sin mucha fanfarria, está
comenzando una nueva revolución que es probable que derrote
muchas de las ideas dominantes de la ciencia actual, al tiempo que
incorpora lo que es válido en una nueva y más amplia síntesis.
La teoría del Big Bang de la cosmología -la idea de que el universo
se originó en una sola explosión cataclísmica hace unos diez o veinte
mil millones de años- se popularizó en los años cincuenta y sesenta,
y se ha convertido en el centro no sólo de la astronomía, sino
también de todas las teorías actuales sobre la estructura básica de la
materia y la energía. Sin embargo, en los últimos años, observación
tras observación ha contradicho las predicciones de esta teoría. Más
bien, tales observaciones son mucho más consistentes con las nuevas
teorías basadas en la idea de que el universo ha existido por un
tiempo infinito, sin principio ni fin.
Hasta ahora, tales teorías alternativas, conocidas como "cosmología
plasmática", han sido desarrolladas por un grupo relativamente
pequeño de físicos y astrónomos, siendo el más notable el Premio
Nobel sueco Hannes Alfven. Pero a medida que aumenta la
evidencia, más y más científicos cuestionan sus suposiciones básicas
y sostenidas desde hace mucho tiempo.
La revolución emergente en la ciencia va más allá de la cosmología.
Hoy en día, el estudio de la estructura subyacente de la materia, la
física de partículas, está íntimamente ligada a la cosmología: la
estructura del universo, argumentan los teóricos, es el resultado de
los acontecimientos en los primeros instantes del tiempo. Si la
hipótesis del Big Bang es errónea, entonces los cimientos de la física
moderna de partículas se derrumban y se requieren enfoques
completamente nuevos. De hecho, la física de partículas también
sufre de una creciente contradicción entre la teoría y el experimento.
Igualmente importante, si el Big Bang nunca ocurrió, nuestro
concepto de tiempo también debe cambiar. En lugar de un universo
finito en el tiempo, que desciende desde un comienzo ardiente hasta
un final polvoriento y oscuro, el universo tendrá una duración
infinita, en continua evolución. Tal concepto del tiempo como
evolución está surgiendo de nuevos estudios en el campo de la
termodinámica.
Los cambios en estos tres campos -cosmología, física de partículas y
termodinámica- se están fusionando en una única transformación
global de cómo la ciencia ve el universo, una transformación
comparable a la que derrocó al cosmos ptolemaico e inició la ciencia
moderna.
Este libro es un primer esfuerzo para describir esa revolución
emergente y sus implicaciones. Dado que da la visión de lo que
actualmente es una minoría de la comunidad científica, las ideas
presentadas aquí son muy diferentes y contradictorias con las
creencias más comunes acerca de la cosmología y la física
fundamental. Sin embargo, lo que aquí describo no es una visión
marginal, una fantasía velikovskiana. Se trata de un resumen de los
trabajos presentados en miles de artículos publicados por las
principales revistas técnicas, trabajo que, aunque aún no ha sido
ampliamente aceptado, está comenzando a ser ampliamente
discutido. En el invierno de 1988, por ejemplo, Alfven fue invitado a
presentar sus puntos de vista en el Texas Symposium on Relativistic
Astrophysics, una de las conferencias más importantes de
cosmólogos.
Mi objetivo es explicar estas nuevas ideas al lector general, que está
interesado en los temas cruciales de la ciencia, pero que no tiene una
formación especial en la materia. Creo que si los temas se presentan
con claridad, los lectores podrán juzgar la validez de los argumentos
que intervienen en este debate.
La prueba final de las teorías científicas es la observación, y
enfatizaré cómo las observaciones entran en conflicto con, o apoyan,
varias ideas cosmológicas. Pero este debate implica más que dos
visiones del universo y sus orígenes: es una lucha entre dos formas
diferentes de aprender sobre el universo. Uno, el método de aprender
de la observación, es utilizado por la gran mayoría de los científicos
de hoy y por aquellos que proponen las nuevas ideas en cosmología.
El otro método, defendido por los cosmólogos y teóricos de las
partículas, es el método deductivo, que deduce matemáticamente
cómo debe ser el universo.
Ambos métodos se remontan a milenios atrás, y con el tiempo han
dominado alternativamente el estudio del universo y sus orígenes.
Para entender el debate actual en cosmología, debemos entender algo
de esta larga historia, cómo las ideas mismas -un universo sin
principio, un universo creado de la nada en un solo momento-
llegaron a existir. Porque la única manera real que tenemos de juzgar
estos métodos es por sus resultados: las consecuencias que tuvieron
para el desarrollo de la ciencia y para el desarrollo de la sociedad.
Esta historia, entonces, involucra más que la historia de la
cosmología, o incluso de la ciencia. Uno de los temas básicos
(aunque lejos de ser original) de este libro es que la ciencia está
íntimamente ligada a la sociedad, que las ideas sobre la sociedad,
sobre los acontecimientos aquí en la tierra, afectan a las ideas sobre
el universo, y viceversa. Esta interacción no se limita al mundo de
las ideas. Las estructuras sociales, políticas y económicas de una
sociedad tienen un vasto efecto en la forma en que piensa la gente; y
el pensamiento científico, a través de su impacto en la tecnología,
puede cambiar en gran medida el curso de la evolución económica y
social.
Así que ahora, como en el pasado, la evolución de la sociedad y la
evolución de la cosmología están entrelazadas, una afectando a la
otra. Esta interacción debe ser entendida antes de que uno pueda
comprender lo que está sucediendo en la cosmología hoy en día. De
lo contrario, es un misterio cómo ciertas ideas se desarrollan, salen a
la luz y son abandonadas, cómo la gran mayoría de los cosmólogos
pueden llegar a conclusiones tan claramente contradictorias con la
observación.
Hoy en día, los teóricos del Big Bang ven un universo muy parecido
al que imaginaban los eruditos medievales: un cosmos finito creado
ex nihilo, a partir de la nada, cuya perfección está en el pasado, y que
está degenerando hasta llegar a un fin último. Los principios
perfectos usados para formar este universo sólo pueden ser
conocidos por la razón pura, guiados por la autoridad,
independientemente de la observación. Tal mito cósmico surge en
períodos de crisis o retroceso social, y refuerza la separación entre
pensamiento y acción, gobernante y gobernado. Genera un
pesimismo fatalista que paraliza a la sociedad.
Por el contrario, la visión opuesta, la cosmología plasmática, es
empírica, producto del método científico de Galileo y Kepler. Sus
proponentes ven un universo infinito evolucionando en un tiempo
infinito. El universo puede ser estudiado sólo mediante la
observación: no hay una respuesta definitiva en la ciencia ni una
autoridad definitiva. Este enfoque, que une el pensamiento y la
acción, la teoría y la observación, ha demostrado ser, a lo largo de los
siglos, un arma de cambio social. La idea de progreso en el universo
siempre ha estado vinculada a la idea de progreso social en la tierra.

■ LA ESTRUCTURA DEL LIBRO

La primera parte de este libro explica el debate en curso en


cosmología. El Capítulo Uno comienza con la evidencia de que la
teoría del Big Bang está equivocada, y que las teorías alternativas,
basadas en el estudio de los gases conductores de electricidad,
llamados plasmas, son probablemente correctas. Luego doy un largo
paso atrás para rastrear la historia del debate cosmológico. El
capítulo dos muestra cómo los conceptos básicos de los métodos
empíricos y deductivos surgieron en la antigua Grecia y cómo
estaban relacionados con el conflicto entre el trabajo libre y el
trabajo esclavo. El desprecio del método deductivo por la
observación y la aplicación práctica de la ciencia se originó con el
desprecio del maestro esclavista por el trabajo manual, mientras que
el sistema del método empírico se basa en artesanos y comerciantes
libres que combinan teoría y observación.
En el primer giro del péndulo cosmológico, el método deductivo se
hizo dominante, conduciendo al universo estático y finito de
Ptolomeo. La idea central de la cosmología moderna, el origen del
universo de la nada, no surgió entonces del Génesis, sino de las
batallas ideológicas de los siglos III y IV d.C., cuando la sociedad
romana se desintegró y se sentaron las bases del feudalismo. Los
padres de la Iglesia, Tertuliano y San Agustín, introdujeron la
doctrina de la creación ex nihilo como fundamento de una visión del
mundo profundamente pesimista y autoritaria, una cosmología que
denigraba todo esfuerzo terrenal y condenaba la existencia material
como "creada de la nada, casi de la nada", decayendo
inevitablemente desde un principio perfecto hasta un fin
ignominioso. Esta cosmología debía servir como justificación
filosófica y religiosa para una sociedad rígida y cautivada.
El Capítulo Tres describe el siguiente largo giro del péndulo: los
siglos de lucha que llevaron a la revolución científica. El surgimiento
de un nuevo y más profundo método empírico fue de la mano con el
surgimiento de una nueva visión del universo -infinita en el espacio y
el tiempo, sin origen ni fin- y con el surgimiento de una nueva
sociedad, basada en el trabajo libre. A mediados del siglo XIX, la
visión científica del universo era la de un proceso interminable de
evolución, ya que los revolucionarios de los siglos XVIII y XIX
vieron un proceso interminable de evolución y progreso social.
El Big Bang y la cosmología del siglo XX constituyen un
sorprendente retorno a los desacreditados conceptos medievales,
como detalla el capítulo cuatro. La profunda crisis social del presente
siglo dio crédito a la vieja visión filosófica de un universo en
decadencia, degenerando desde sus orígenes perfectos, y al método
deductivo. Es a partir de estas premisas principalmente filosóficas,
más que de la observación, que se desarrolló la cosmología actual.
Por esta razón, como exploraremos en el Capítulo Cuatro, los
repetidos conflictos entre la teoría y la observación que han
perseguido el Big Bang nunca han llevado a su abandono.
Sin embargo, el desafío al Big Bang surgió de la observación. Los
Capítulos Cinco y Seis describen cómo la cosmología del plasma
surgió del estudio de laboratorio de los gases conductores y tiene sus
raíces en las tecnologías avanzadas del electromagnetismo. A medida
que las observaciones se han extendido desde la Tierra y el sistema
solar hasta las galaxias y el universo en su conjunto, las predicciones
de la cosmología del plasma se han ido confirmando cada vez más.
La segunda parte del libro trata de las implicaciones de un universo
que es infinito en el espacio y el tiempo, en continua evolución. En el
capítulo siete examino cómo los nuevos descubrimientos en la
naturaleza del tiempo muestran que tal cosmos puede existir
indefinidamente sin "agotarse" De hecho, el universo no se
caracteriza ni por la decadencia ni por un serpenteo aleatorio y sin
rumbo, ni por el progreso automático de los conceptos de finales del
siglo XIX. El cosmos, y de hecho cualquier sistema complejo,
progresa sólo a través de una serie de crisis cuyos resultados no están
predeterminados y pueden conducir, a corto plazo, a nuevos avances
o a retrocesos. El progreso, la aceleración de la evolución, es una
tendencia a largo plazo del universo, pero está lejos de ser un
proceso suave y mecánico.
El Capítulo Ocho examina los problemas igualmente profundos que
surgen con las ideas convencionales de la materia si se refuta el Big
Bang. No sólo las teorías más recientes, sino que gran parte de la
estructura subyacente de la teoría física adolece de inconsistencias
cruciales que aún no se han resuelto.
Finalmente, en los Capítulos Nueve y Diez, vemos el impacto que
tiene un cosmos infinito en la religión y la sociedad. Al igual que en
el siglo XVI, los dos enfoques de la cosmología actual implican
reacciones profundamente opuestas a una crisis cada vez más
profunda.
PRIMERA PARTE

EL DEBATE COSMOLÓGICO
1 - EL BIG BANG NUNCA OCURRIÓ

Es imposible que el Big Bang esté mal.


- JOSEPH SILK, 1988

Abajo el Big Bang.


- TÍTULO EDITORIAL, Naturaleza, 1989

Los cosmólogos casi todos están de acuerdo en que el cosmos nació


hace unos diez o veinte mil millones de años en una inmensa
explosión, el Big Bang. Creen que nuestro poderoso universo
comenzó en un solo instante como una bola de luz infinitamente
densa y puntiaguda, más pequeña que el átomo más pequeño. En un
trillón de trillones de segundo se expandió un trillón de trillones de
veces, creando todo el espacio, la materia y la energía que ahora
forman las galaxias y las estrellas.
El universo actual, las cenizas de esa explosión, es extraño, como lo
describe la cosmología. La mayor parte es materia oscura, partículas
exóticas que nunca pueden ser observadas. Está salpicado de
agujeros negros, que absorben corrientes de estrellas moribundas, y
está enhebrado por cuerdas cósmicas, rasgaduras en el tejido del
espacio mismo. El futuro de nuestro universo, nos dicen los
cosmólogos, es sombrío: está condenado a terminar en un
espectacular Big Crunch, colapsando en un agujero negro universal,
o a expandirse y descomponerse en la nada de una noche eterna.
Esta sorprendente visión cósmica, construida en los últimos
veinticinco años por cientos de teóricos y explicada en docenas de
libros, se ha hundido profundamente en la conciencia popular.
Muchos se han preguntado qué significado puede tener la vida en un
universo condenado a la decadencia, indescriptiblemente hostil y
ajeno a los propósitos humanos.
Sin duda, el concepto actual del universo es fantástico y extraño. Sin
embargo, a pesar de los esfuerzos y las firmes creencias de tantos
cosmólogos, también es casi seguro que está mal.
La validez de un concepto científico no está determinada por su
popularidad o por su apoyo entre los científicos más prominentes de
la época. Muchas doctrinas firmemente arraigadas, desde el cosmos
geocéntrico de Ptolomeo hasta la teoría flogística del calor, han
gozado del apoyo casi unánime de la comunidad científica, para
luego ser barridas.
En 1889 Samuel Pierpont Langley, un famoso astrónomo, presidente
de la Asociación Americana para el Avance de la Ciencia, y pronto
uno de los pioneros de la aviación, describió a la comunidad
científica como "una manada de sabuesos... donde los de voz más
alta llevan a muchos a seguirlos casi tan a menudo en un camino
equivocado como en uno correcto, donde se sabe que toda la manada
se ha movido corporalmente por un olor falso" 1.
La única prueba de la verdad científica es qué tan bien corresponde
una teoría al mundo que observamos. ¿Predice cosas que podemos
ver? ¿O nuestras observaciones de la naturaleza muestran cosas que
una teoría dice que son imposibles? No importa lo bien que le guste
una teoría, si la observación la contradice, entonces debe ser
rechazada. Para que la ciencia sea útil, debe proporcionar una
descripción cada vez más verdadera y profunda de la naturaleza, no
una prescripción de lo que debe ser la naturaleza.
En los últimos cuatro años, observaciones cruciales han contradicho
de plano las suposiciones y predicciones del Big Bang. Debido a que
el Big Bang supuestamente ocurrió hace sólo unos veinte mil
millones de años, nada en el cosmos puede ser más antiguo que esto.
Sin embargo, en 1986 los astrónomos descubrieron que las galaxias
componen enormes aglomeraciones de mil millones de años-luz de
diámetro; la formación de estos gigantescos cúmulos de materia debe
haber llevado cien mil millones de años. Así como la teoría
geológica temprana, que buscaba comprimir la historia de la tierra en
unos pocos miles de años bíblicos se desmoronó cuando se enfrentó
con los eones necesarios para construir una cordillera, así también el
concepto de un Big Bang es socavado por la existencia de estos
vastos y antiguos superclusters de galaxias.
Estas enormes cintas de materia, cuya realidad fue confirmada
durante 1990, también refutan una premisa básica del Big Bang- de
que el universo era, en su origen, perfectamente liso y homogéneo.
Los teóricos admiten que no ven la manera de pasar del universo
perfecto del Big Bang al universo torpe e imperfecto de hoy. Como
dijo George Field, del Harvard-Smithsonian Center for
Astrophysics:"Hay una crisis real".
También han surgido otros conflictos con la observación. La materia
oscura, una forma hipotética e inobservada de materia, es un
componente esencial de la teoría actual del Big Bang, un pegamento
invisible que la mantiene unida. Sin embargo, astrónomos
finlandeses y estadounidenses, analizando observaciones recientes,
han demostrado que la misteriosa materia oscura no es invisible, no
existe. Usando nuevos instrumentos sensibles, otros astrónomos
alrededor del mundo han descubierto galaxias extremadamente
antiguas que aparentemente se formaron mucho antes de que el
universo del Big Bang se enfriara lo suficiente. De hecho, a finales
de los años ochenta, nuevas contradicciones iban apareciendo cada
pocos meses.
En todo esto, los cosmólogos han permanecido totalmente firmes en
su aceptación de la teoría. Muchas de las nuevas observaciones han
sido anunciadas en las revistas más prominentes y discutidas en las
reuniones de astrónomos más grandes. En algunos casos, los
observadores se encuentran entre los astrónomos más respetados del
mundo. Sin embargo, los cosmólogos, con pocas excepciones, han
descartado las observaciones como defectuosas, o han insistido en
que las modificaciones menores de la teoría del Big Bang
reconciliarán las contradicciones "aparentes". Se necesitan unas
pocas cuerdas cósmicas o partículas oscuras - nada más.
Esta respuesta no es sorprendente: la mayoría de los cosmólogos han
pasado todas sus carreras, o al menos los últimos veinticinco años,
elaborando varios aspectos del Big Bang. Sería muy difícil para
ellos, como para cualquier científico, abandonar el trabajo de su vida.
Sin embargo, los observadores que presentan estas contradicciones
tampoco están dispuestos a renunciar al Big Bang. Los astrónomos
observadores han dejado generalmente la interpretación de los datos
a los teóricos mucho más numerosos. Y hasta hace poco parecía que
no había alternativa viable al Big Bang para ir si se abandonaba el
barco.
Pero ahora se ha desarrollado un concepto completamente diferente
del universo, aunque muchos astrónomos aún no lo conocen.
Comienza por el hecho conocido de que más del 99 por ciento de la
materia en el universo es plasma caliente, gases conductores de la
electricidad. (En los gases ordinarios, los electrones están unidos a
un átomo y no pueden moverse fácilmente, pero en un plasma los
electrones son eliminados por el calor intenso, permitiéndoles fluir
libremente.) Extrapolando del comportamiento de dicho plasma en el
laboratorio, los cosmólogos del plasma visualizan un universo
entrecruzado por vastas corrientes eléctricas y poderosos campos
magnéticos, ordenados por el contrapunto cósmico del
electromagnetismo y la gravedad.
Los fenómenos que el Big Bang busca explicar con un misterioso
cataclismo antiguo, las teorías del plasma atribuyen a los procesos
eléctricos y magnéticos que ocurren en el universo actual. Estos son
similares en especie, si no en magnitud, a los procesos vistos en el
laboratorio y utilizados en tecnología tan mundana como las luces de
neón y los hornos de microondas. En lugar de trabajar hacia adelante
desde un principio de tiempo teóricamente concebido, la cosmología
plasmática trabaja hacia atrás desde el universo actual, y hacia afuera
desde la tierra. Llega a un universo sin Big Bang, sin ningún
comienzo, un universo que siempre ha existido, que siempre está
evolucionando y que siempre evolucionará, sin límites de ningún
tipo.
Hasta ahora, la cosmología del plasma ha atraído poca atención entre
los astrónomos, en parte porque fue formulada por físicos del
plasma, que asisten a diferentes conferencias y publican en diferentes
revistas. Esta situación está cambiando rápidamente. A medida que
surgen más contradicciones del Big Bang, algunos astrónomos, en
particular los observadores con poca inversión en una sola teoría, han
comenzado a mirar con interés las nuevas ideas. Están empezando a
hacer preguntas y a medir tímidamente las viejas y nuevas
cosmologías entre sí. El Big Bang ya no es aceptado
incuestionablemente por las principales revistas fuera de la
cosmología. La revista británica Nature, por ejemplo, publicó en
agosto de 1988 un editorial titulado "Abajo el Big Bang", que
describía la teoría como "inaceptable" y predijo que "es improbable
que sobreviva la década venidera" y que ha comenzado un nuevo
debate cosmológico.

■ EL TAPIZ CÓSMICO

El desafío al Big Bang comienza con nuevas observaciones que


socavan los supuestos básicos de la cosmología convencional.
Quizás la más importante de estas suposiciones es la idea de que el
universo es, en las escalas más grandes, suave y homogéneo. Si un
universo tan suave está dominado sólo por la gravedad -una segunda
suposición importante-, entonces, de acuerdo con la teoría de la
gravitación de Einstein (relatividad general), el universo como un
todo debe contraerse o expandirse desde un solo punto, una
singularidad.
Pero parece que tenemos un universo "grumoso", que no deformaría
todo el espacio ni lo haría expandirse o contraerse. Cada macizo sólo
deja un hueco en el espacio a su alrededor. Las galaxias se agrupan
en vastos complejos de superclusters, que se extienden a través de
una parte sustancial del universo conocido.
Estos objetos, con mucho los más grandes jamás vistos, fueron
descubiertos en 1986 por Brent Tully, un astrónomo de la
Universidad de Hawaii y uno de los principales astrónomos ópticos
de la actualidad. Tully encontró que casi todas las galaxias a una
distancia de mil millones de años-luz de la Tierra están concentradas
en enormes cintas de materia de unos mil millones de años-luz de
largo, trescientos millones de años-luz de ancho y cien millones de
años-luz de espesor.
Su descubrimiento, aunque asombroso, era quizás de esperar.
Durante siglos, los astrónomos han estado descubriendo grupos cada
vez más grandes de materia en el universo, y tramos cada vez más
grandes de espacio entre ellos (Fig. 1.1). Desde el siglo XVII, los
astrónomos han sabido que la mayor parte de la masa del universo se
concentra en estrellas brillantes como nuestro sol, objetos densos
separados por años luz de espacio casi vacío. Hace ciento veinte
años, los astrónomos se dieron cuenta de que grupos de cien mil
millones o más de estrellas forman los grandes molinetes que vemos
como galaxias, y que éstos están separados por grandes extensiones
vacías. En los años treinta, a medida que los telescopios penetraban
más profundamente en el espacio, las observaciones mostraron que
incluso las galaxias están agrupadas en cúmulos, algunos de los
cuales contienen miles de galaxias.
Luego, a principios de los setenta, se hizo claro que estos cúmulos
esféricos están encadenados en filamentos más grandes llamados
super cúmulos. Mientras que las galaxias tienen apenas cien mil años
luz de diámetro y los cúmulos no superan los diez millones, un super
cúmulo podría serpentear a través de unos pocos cientos de millones
de años luz de espacio.
Los astrónomos, emocionados por estas últimas observaciones,
comenzaron a trazar la ubicación de las galaxias en el cielo para ver
qué patrones podrían aparecer. Un grupo, liderado por el Dr. P. J. E.
Peebles de Princeton, utilizó una supercomputadora para trazar casi
un millón de galaxias; el resultado es una filigrana de encaje de hilos
entrelazados, un patrón que un astrónomo apodó "el Tapiz Cósmico"
(Fig. 1.2).

Fig. 1.1. Las escalas relativas del espacio "grumoso".

Fig. 1.2. El Tapiz Cósmico. Cada punto representa una sola galaxia. El millón de
galaxias mostradas aquí (las visibles desde el Lick Observatory) se agrupan en
delicados filamentos (P. J. E. Peebles).

Pero esto era sólo un patrón en dos dimensiones, proyectado contra


el cielo; para ver dónde están realmente agrupadas las galaxias en el
espacio, era necesario trazarlas en tres dimensiones. Esto era muy
posible. Desde los años treinta, los astrónomos han conocido una
forma de medir la distancia a las galaxias - el corrimiento al rojo del
Hubble (ver cuadro). Habían descubierto que cuanto más lejos está
una galaxia, más se desplaza su luz hacia el extremo rojo del
espectro, como si se estuviera alejando de la Tierra. Por un lado, esto
se convirtió en la base de la idea de que el universo se está
expandiendo, una idea que condujo a la teoría del Big Bang. Por otro
lado, les dio a los astrónomos una herramienta poderosa: al medir la
luz de una galaxia, se podía calcular su distancia de la Tierra.

MIDIENDO LA DISTANCIA A UNA GALAXIA

A medida que un objeto se aleja, su luz se desplaza hacia el extremo


rojo del espectro, de la misma manera que el tono del silbato de un
tren disminuye al pasar. Las ondas de luz (u ondas sonoras) en el
lado que retrocede del objeto están más dispersas que en el lado que
se aproxima. Una longitud de onda más larga significa un cambio al
rojo (Fig. 1.3a). El corrimiento al rojo se puede utilizar para medir la
velocidad de un objeto.
Cuando la luz de una galaxia distante pasa a través de un prisma o
rejilla, produce un espectro con líneas oscuras características.
Comparando la frecuencia o el color de las líneas oscuras con las
producidas por los gases calentados en la tierra, los astrónomos en
los años veinte encontraron que las líneas de las galaxias se
desplazaban hacia el rojo, implicando que las galaxias están
retrocediendo a alta velocidad (Fig. 1.3b). El astrónomo Edward
Hubble encontró que cuanto más oscura es una galaxia, y por lo tanto
presumiblemente cuanto más distante está, mayor es la velocidad del
corrimiento al rojo (Fig. 1.3c). Los astrónomos pueden usar el
corrimiento al rojo para medir la distancia más allá de los límites de
otros métodos.
En los años setenta, Brent Tully y J. R. Fischer desarrollaron otro
método para determinar la distancia. Encontraron que el brillo
intrínseco de una galaxia era proporcional a la cuarta potencia de la
velocidad de rotación (Fig. 1.3d). Debido a que la velocidad de
rotación podría medirse desde la Tierra comparando los corrimientos
hacia el rojo a cada lado de una galaxia, se puede calcular el brillo
intrínseco. Sabiendo lo brillante que era la galaxia en el cielo,
entonces daría su distancia.

Fig. 1.3 a, b, c, d.

El Dr. Tully y su colega J. R. Fischer se propusieron utilizar las


mediciones de distancia de dos mil galaxias cercanas para crear un
atlas tridimensional de nuestra parte del universo. Estaban entre los
mejor calificados para la tarea, ya que ellos mismos habían
descubierto una forma complementaria de medir la distancia a una
galaxia, basada en la relación entre su velocidad de giro y su brillo.
Después de años de trazar y analizar los datos, ellos tenían su mapa,
el Atlas de las Galaxias Cercanas. Sorprendentemente, encontraron
que los patrones en el cielo eran completamente reales. Con menos
de dos docenas de excepciones, todas las miles de galaxias están
encadenadas como luces navideñas a lo largo de una red
interconectada de filamentos, una cuna de gato resplandeciente en el
cielo (Fig. 1.4). Los filamentos mismos, de sólo unos pocos millones
de años luz de diámetro, se extienden a lo largo de cientos de
millones de años luz, más allá de los límites de los mapas de Tully y
Fischer.
Fig. 1.4a. Los mapas de Tully y Fischer muestran que las galaxias dentro de los
cien millones de años luz de la Tierra están concentradas en filamentos. La vista
de la derecha es la vista hacia el norte y la izquierda hacia el sur (en ambos casos
nuestra galaxia está en el centro del mapa). El radio de la esfera mapeada es de
120 millones de años luz. Casi todas las galaxias se encuentran a lo largo de
unos pocos filamentos, cada uno de los cuales tiene menos de siete millones de
años luz de diámetro (R. B. Tully y J. R. Fischer).

Fig. 1.4b. A mayor escala, los cúmulos de galaxias también se concentran en


vastos complejos de superclusters. Aquí una esfera de mil millones de años-luz
de radio es mapeada, otra vez con nuestra galaxia en el centro. Los colores
indican la densidad, en este mapa tridimensional generado por computadora, con
las regiones más densas siendo amarillas y rosadas, mientras que las regiones
ligeramente menos densas son verdes (ver la parte posterior de la cubierta del
libro). Casi todos los racimos se encuentran en las densas columnas verdes y
amarillas, que ocupan sólo una fracción del volumen total mapeado. Observen el
largo filamento, de unos cien millones de años-luz de diámetro, y de más de mil
millones de años-luz, que serpentea hacia la izquierda. El cono rosa esculpe una
región del espacio que no está completamente cartografiada.

¿Cuánto más allá? Tully quería hacer un mapa más grande a mil
millones y medio de años luz de la Tierra. Para esa enorme distancia
no podía usar galaxias individuales. Los telescopios modernos
pueden ver galaxias tan lejos, pero hay demasiadas, un par de
millones. En cambio, Tully decidió hacer un mapa de la ubicación de
los grandes cúmulos de galaxias, cúmulos identificados cuarenta
años antes por el astrónomo George Abell.
El patrón de los racimos, para sorpresa de Tully, delineó las vastas
cintas, cada una compuesta de docenas de filamentos del
supercluster. Tully identificó cerca de cinco "complejos de
superclusters", cada uno conteniendo millones de trillones de
estrellas. La densidad de los racimos dentro de la cinta era
aproximadamente veinticinco veces mayor que la de los racimos
fuera de la cinta. Además, varios se extendían hasta los límites del
nuevo mapa de Tully y más allá, y todos ellos parecían estar en
planos paralelos -como si estuvieran apilados en el espacio- como
parte de una estructura aún más vasta.

■ DEMASIADO GRANDE PARA EL BIG BANG

Los complejos de superclusters contradicen directamente la


homogeneidad asumida por el Big Bang. Esta homogeneidad
siempre ha sido un problema, ya que está claro que el universo es tan
grumoso: ¿cómo llegó a ser así si empezó tan suave? La respuesta
general ha sido que había cúmulos muy pequeños en el universo
primitivo; a través de la atracción gravitacional estos cúmulos
gradualmente se hicieron más y más grandes, formando estrellas,
galaxias y cúmulos.
Por supuesto, cuanto más grande es el grupo, más largo es el tiempo
para formarse. Para las estrellas, unos pocos millones de años son
suficientes, para las galaxias se necesitan uno o dos mil millones de
años. Los racimos tardan aún más. Para cuando los superclusters
fueron descubiertos, habia una dificultad obvia, y en los ochenta los
cosmólogos estaban trabajando duro tratando de superarlos. Los
objetos de Tully hacían imposible la situación: eran demasiado
grandes para haberse formado en los veinte mil millones de años
transcurridos desde el Big Bang.
No es difícil ver por qué. Observando los corrimientos hacia el rojo
de las galaxias, los astrónomos pueden ver no sólo cuán lejos están,
sino más o menos cuán rápido se mueven uno con respecto al otro -
su verdadera velocidad, ignorando las velocidades del Hubble que
aumentan con la distancia. Recuerda, los corrimientos al rojo indican
la rapidez con la que un objeto se aleja de nosotros. Los
desplazamientos al rojo aumentan con la distancia, pero también con
la propia velocidad de un objeto, en relación con los objetos que lo
rodean. Es posible clasificar estas dos velocidades, utilizando otras
medidas de distancia, como la ideada por Tully y Fischer. Resulta
que las galaxias casi nunca se mueven mucho más rápido que mil
kilómetros por segundo, cerca de un trescientos por ciento tan rápido
como la velocidad de la luz.
Así, en los (a lo sumo) veinte mil millones de años desde el Big
Bang, una galaxia, o la materia que formaría una galaxia, podría
haberse movido sólo unos sesenta y cinco millones de años-luz. Pero
si empiezas con materia esparcida suavemente a través del espacio, y
si puedes moverla sólo sesenta y cinco millones de años-luz, no
puedes construir objetos tan vastos y densos como los complejos de
Tully. Para que estos objetos se formen, la materia debe haberse
movido al menos 270 millones de años luz. Esto habría tomado
alrededor de ochenta mil millones de años a mil kilómetros por
segundo, cuatro veces más que el tiempo permitido por los teóricos
del Big Bang.
La situación es realmente peor que esta, porque la cuestión tendría
que acelerarse primero a esta velocidad. Incluso antes de esto,
tendría que formarse una masa de semillas lo suficientemente grande
como para atraer materia a tales distancias. Así que una edad de cien
mil millones de años para tales complejos es conservadora. En pocas
palabras, si los objetos de Tully existen, el universo no puede haber
comenzado hace veinte mil millones de años.
La reacción inicial de la mayoría de los cosmólogos a las
observaciones de Tully fue rechazarlas por completo: "Creo que
Tully sólo está conectando los puntos al afirmar que ve estos grupos
de grupos", comentó despectivamente Marc Davis, cosmólogo de B
Berkeley. Pero esa posición se ha vuelto cada vez más insostenible.
Durante 1987 Tully analizó cuidadosamente sus datos, demostrando
que es extremadamente improbable que la agrupación pudiera haber
ocurrido como un arreglo aleatorio de agrupaciones dispersas al azar,
o como resultado de fallas en sus cálculos.
En 1990 la existencia de estos enormes objetos fue confirmada por
varios equipos de astrónomos. La obra más dramática fue la de
Margaret J. Geller y John P. Huchra del Harvard Smithsonian Center
for Astrophysics, quienes están mapeando galaxias a unos seiscientos
millones de años luz de la Tierra. En noviembre de 1989 anunciaron
sus últimos resultados, revelando lo que llamaron la "Gran Muralla",
una enorme hoja de galaxias que se extiende en todas direcciones
fuera de la región mapeada. La hoja, de más de doscientos millones
de años-luz de diámetro y setecientos millones de años-luz de largo,
pero sólo de unos veinte millones de años-luz de espesor, coincide
con una parte de uno de los complejos de superclusters mapeados por
Tully. La diferencia es que los nuevos resultados involucran a más de
cinco mil galaxias individuales, y por lo tanto son casi imposibles de
cuestionar como aletas de suerte estadísticas.
Un equipo internacional de observadores estadounidenses, británicos
y húngaros, entre ellos David Koo, del Lick Observatory, y T. J.
Broadhurst, de la Universidad de Durham, en Inglaterra,
descubrieron estructuras aún más grandes. El equipo miró muy de
cerca el recambio en dos direcciones opuestas, escaneando sólo
"pozos" estrechos en el espacio. Para su sorpresa, encontraron
galaxias agrupadas en finas bandas, espaciadas uniformemente a
unos seiscientos millones de años-luz de distancia como los peldaños
de una escalera titánica (Fig. 1.5). Todo el patrón se extendía a través
de un cuarto de diámetro del universo observable, una distancia de
más de siete mil millones de años-luz. Las galaxias parecían moverse
muy lentamente una con respecto a la otra, a no más de quinientos
kilómetros por segundo. A esa velocidad, el gigantesco patrón de
vacío y cáscara parece haber tomado por lo menos 150 mil millones
de años en formarse -siete u ocho veces el número de años desde que
el Big Bang supuestamente tuvo lugar.

Fig. 1.5. Un gráfico del número de galaxias frente a la distancia de la Tierra en


dos pequeños trozos de cielo. La distancia aumenta con el creciente corrimiento
hacia el rojo de la luz de las galaxias. Las galaxias están agrupadas en picos
estrechos separados por vacíos de unos 700 millones de años-luz de diámetro.

■ BUSCANDO UNA SALIDA

A medida que estas observaciones se volvieron más difíciles de


discutir, los cosmólogos comenzaron a introducir nuevos conceptos,
basados en leyes físicas totalmente nuevas, para salvar la brecha
entre las observaciones y las predicciones de la teoría del Big Bang.
Esto se ha convertido en un fenómeno cada vez más común en la
cosmología -por cada nueva contradicción se postula un nuevo
proceso.
La primera idea, propuesta por varios teóricos, es que la distribución
de la materia no está indicada con precisión por las galaxias que
observamos. La materia no es grumosa, dicen, sólo parece serlo. Si la
materia se distribuyera de manera bastante uniforme a través del
espacio, pero fuera más densa, digamos, en un 25 por ciento en
ciertas regiones, se formarían allí galaxias que delinearían estas
regiones con cuerpos luminosos. Los espacios menos densos, sin
embargo, no están realmente vacíos; la materia allí no se fusionó, por
alguna razón, así que no podemos verla. (Esta no es la famosa
"materia oscura", simplemente materia ordinaria difusa).
Si esta idea fuera cierta, señalaron los teóricos, no tendrían que
explicar el aglutinamiento extremo de la materia; la materia sigue
allí, entre los aglomerados, sólo ligeramente menos densa que la
brillante y brillante materia de las galaxias de la Gran Muralla o de
los complejos de Tully.
Esta teoría es totalmente ad hoc, es decir, fue inventada para salvar la
brecha entre la teoría y la observación. No hay razón para creer que
hay mucho gas en los vacíos, o que las galaxias no se formarían en
este gas. Pero más concretamente, la teoría de la "formación sesgada
de galaxias" se contradice con la observación.
Los astrónomos pueden deducir con bastante precisión cuánta
materia está realmente concentrada en objetos como la Gran Muralla
porque tales objetos masivos atraen todo lo que los rodea.
Observando las velocidades de las galaxias alrededor de dichos
objetos, es posible "pesarlos". Esto es exactamente lo que un
astrónomo, E. Shaya de la Universidad de Columbia, hizo en 1989.
Usando los mapas de Tully de la región dentro de 150 millones de
años-luz de la tierra, Shaya usó las velocidades galácticas observadas
para medir la densidad de la materia, asumiendo que toda ella está
concentrada en las regiones trazadas por las galaxias, es decir,
asumiendo que no hay materia tenue. Calculó que la densidad media
de materia es de aproximadamente un átomo por cada diez metros
cúbicos de espacio.
La pregunta es, ¿es esta toda la materia que hay, o puede haber
materia adicional, difusa, que no es detectable por su atracción
gravitacional? Resulta que la teoría del Big Bang en sí misma puede
predecir la cantidad y densidad de la materia ordinaria. Una de las
dos predicciones clave del Big Bang es la abundancia de helio y de
dos isótopos ligeros raros: el deuterio (hidrógeno pesado) y el litio.
Estas predicciones dependen de la densidad del universo: cuanto más
densa sea la sopa nuclear, más litio y menos deuterio y helio se
producirá.
Los astrónomos pueden medir la abundancia de estos elementos con
bastante precisión observando los espectros de luz de las estrellas y
otras galaxias; a partir de esto pueden calcular cuánto hay realmente
-cerca del 24 por ciento para el helio, una parte en cien mil para el
deuterio, y una parte en diez mil millones para el litio.
Para que la teoría coincida con la observación, la densidad total de la
materia debe estar alrededor de un átomo por cada diez metros
cúbicos, justo lo que Shaya obtuvo al "pesar" la materia concentrada
en los cúmulos de galaxias. Así que si la teoría del Big Bang de la
creación de elementos es correcta, no puede quedar nada de materia
para llenar los vacíos, y la idea del "sesgo" es errónea. Por otro lado,
si aceptamos la idea de que hay mucha más materia ordinaria de la
que vemos, las predicciones básicas del Big Bang sobre la cantidad
de helio, litio y deuterio que se producen son erróneas. Como
resultado de tales contradicciones, la popularidad de esta noción ha
disminuido drásticamente.
Otras ideas también se han quedado en el camino. Por ejemplo, el Dr.
Jeremiah Ostriker de la Universidad de Princeton y otros propusieron
la idea de la cuerda cósmica -objetos infinitamente delgados e
infinitamente densos, pero que se extienden en longitud de un lado
del universo observable al otro. Mientras que esta cuerda notable
podría enhebrar la aguja más fina, sería difícil de coser, ya que se
mueve a casi la velocidad de la luz, y un metro de la materia pesa
tanto como la luna.
Una cuerda cósmica, debido a su inmensa masa, puede tirar de la
materia desde una distancia enorme, formando las largas cintas de
los superclusters. Desafortunadamente, incluso las cuerdas cósmicas
no pudieron ayudar a superar el problema principal, la cantidad de
tiempo que toma formar complejos de superclusters. Tienen otra
seria desventaja -no hay absolutamente ninguna evidencia de que
existan fuera de los pizarrones y computadoras de los cosmólogos.
Son entidades hipotéticas, predichas por teorías que no tienen
verificación experimental.
Y que hay del problema de la aparente edad de los complejos del
supercluster: "Tal vez la materia se movió más rápido en el pasado
de lo que lo hace ahora", especulan los cosmólogos, "por lo que los
objetos grandes podrían construirse más rápido", de modo que un
proceso desconocido acelera la materia a alta velocidad, volándola
de los vacíos, mientras que otro proceso desconocido
convenientemente frena, desacelerando la materia a las velocidades
observadas de sedación antes de que se formen las galaxias.
Pero se necesitarían enormes velocidades para formar la Gran
Muralla y los complejos de superclusters en el tiempo desde el Big
Bang-alrededor de 2,000 km/seg para la Gran Muralla, 3,000 km/seg
para los complejos de Tully, y un rápido 5,000 km/seg para vaciar los
vacíos observados por el equipo Americano-Británico-Húngaro. Si
este asunto se mueve ahora a tan sólo 500 km/seg, la energía atada en
su movimiento tuvo que ser disipada. Así como los frenos de un
coche convierten la energía del movimiento en calor, el cual es
irradiado al aire, así también la vasta energía de la materia primordial
tendría que ser irradiada. La materia colisionando a varios miles de
kilómetros por segundo irradiaría rayos X muy intensos. Y hay de
hecho un fondo de rayos X universal, pero la cantidad de energía en
él es cien veces menor que la que se liberaría al frenar el exceso de
velocidad de la materia. Entonces, ¿dónde está esa energía?
Los teóricos especulan que un tercer proceso desconocido podría
convertir esta radiación de rayos X de alta energía en otro tipo de
radiación. Los astrónomos han observado sólo un tipo de radiación lo
suficientemente intensa como para contener la enorme cantidad de
energía que resultaría del hipotético "frenado" de la materia - el
fondo cósmico de microondas. Este baño uniforme de microondas,
ondas de radio de aproximadamente un milímetro de largo cada una,
viene de todas partes del cielo y se considera la pieza clave de
evidencia de que hubo un Big Bang. Según la cosmología
convencional, el fondo es el resplandor diluido de la explosión
titánica que creó el universo. Refleja el estado del universo sólo unos
pocos cientos de miles de años después del Big Bang. Si las
estructuras a gran escala se crearan después de este tiempo, la
energía liberada al disminuir la velocidad de la materia aparecería en
la radiación de fondo.
La radiación se puede describir por su espectro, una curva que
muestra cuánta potencia tiene la radiación a varias frecuencias. La
teoría del Big Bang predice que la radiación cósmica de fondo debe
tener un espectro de cuerpo negro, es decir, el espectro de un objeto
en equilibrio térmico, que no absorbe ni cede calor a su entorno.
Obviamente, si el origen de la radiación de fondo es una explosión
que involucra a todo el universo, debe estar en equilibrio; no hay
alrededores de donde obtener energía o a los que dársela.
El espectro de cuerpo negro se describe mediante una simple fórmula
matemática elaborada por Max Planck a principios de siglo. Trazado
en un gráfico, sube lentamente a un pico a medida que aumenta la
frecuencia, y luego disminuye rápidamente. Esta forma es la misma
independientemente de la temperatura del objeto que emite la
radiación; sólo la frecuencia del pico y su potencia cambian a medida
que cambia la temperatura.
Después del descubrimiento de la radiación de fondo, los astrónomos
utilizaron radiotelescopios para medir su espectro en longitudes de
onda cada vez más cortas. En todos los casos, las mediciones se
ajustan a la curva de cuerpo negro prevista por la teoría. Esto fue
considerado una gran confirmación del Big Bang.
Pero, a medida que el problema de la estructura a gran escala se hizo
evidente, los cosmólogos esperaban que a longitudes de onda cortas
el espectro observado diferiría ligeramente de un cuerpo negro.
Predijeron que tendría un pequeño bulto que indicaría la liberación
de energía después del Big Bang, la energía necesaria para iniciar y
detener los movimientos a gran escala. Puesto que la atmósfera
terrestre absorbe las microondas de menor longitud de onda, los
radiotelescopios tendrían que elevarse por encima de la atmósfera en
globos, cohetes o satélites. En 1987, un cohete japonés con un
instrumento americano diseñado por Paul Richards y sus colegas de
Berkeley logró finalmente medir el espectro de longitud de onda
corta en tres frecuencias y, de hecho, detectaron un exceso de
radiación sobre el cuerpo negro previsto. El problema era que el
exceso era algo demasiado bueno. Era tan grande, una décima parte
de la energía total del fondo, que no podía ser explicada por la
ralentización de la materia o por cualquier otra cosa. En lugar de
ayudar a la teoría del Big Bang, los nuevos datos sólo trajeron otro
dolor de cabeza a los teóricos.
Como resultado, los cosmólogos esperaban ansiosamente los
primeros resultados del Satélite del Explorador de Fondo Cósmico
(COBE). El COBE, lanzado por un cohete Delta de la NASA en
noviembre de 1989, llevaba tres instrumentos extremadamente
sensibles. Se esperaba que un espectrómetro infrarrojo produjera
resultados definitivos en el espectro del fondo, ya que lo mediría a
más de cien longitudes de onda entre cien micras y diez milímetros,
con una precisión del 0,1 por ciento. Los teóricos esperaban que el
COBE encontrara un menor exceso de radiación, quizás un tercio de
lo que Richards había encontrado.
Pero de nuevo se sintieron decepcionados. Los resultados
preliminares del COBE fueron anunciados en enero de 1990 en la
reunión de la Sociedad Astronómica Americana: para sorpresa de
todos, el instrumento no detectó ninguna variación con respecto a un
espectro de cuerpo negro (Fig. 1.6). No hubo liberación de energía en
exceso de alrededor del 1 por ciento de la energía en el fondo mismo,
no más de una décima parte de la medida por Richards. Dado que los
instrumentos COBE son altamente sensibles y llevan sus propias
calibraciones, parecía claro que los resultados de Richards eran
simplemente erróneos.

Fig. 1.6. Las mediciones del COBE del espectro del Fondo Cósmico (cuadrados)
no mostraron ninguna variación con respecto al espectro de cuerpo negro
(curva).

Ahora bien, inicialmente los cosmólogos pensaron que esto era


simplemente grandioso - la curva de cuerpo negro predicha por el
Big Bang era exactamente la correcta. Cuando los resultados fueron
anunciados en una reunión de la Sociedad Astronómica, hubo una
verdadera ovación (¡no es un evento común en las conferencias
científicas!). Pero después de unas horas, los teóricos se dieron
cuenta de que en realidad eran malas noticias: si el exceso de
radiación observado por Richards era demasiado caliente para el Big
Bang, la falta de cualquier exceso observado por COBE es
demasiado fría. Puesto que no hay variación de un espectro de
cuerpo negro, no hay un proceso energético lo suficientemente
vigoroso como para crear, en veinte mil millones de años, las
estructuras a gran escala que los astrónomos han observado o para
detener su movimiento precipitado una vez que fueron creadas.
Disipar la energía de la formación de la Gran Muralla en veinte mil
millones de años crearía una distorsión del 1 por ciento en el
espectro de fondo. Para las estructuras de Tully se necesitaría un 2
por ciento, y para la estructura descubierta por Koo y sus colegas, se
necesitaría un 5 por ciento de la energía del fondo. Los resultados del
COBE descartaron la posibilidad de que se produjera una liberación
de energía tan grande. La estrecha correspondencia con la curva de
cuerpo negro, vista como confirmación de la teoría del Big Bang,
descarta al mismo tiempo cualquier forma de formar la estructura a
gran escala del universo a partir del Big Bang.
Las estructuras tampoco pudieron formarse antes de la época del
fondo de microondas. Según la teoría del Big Bang, cualquier
concentración de materia presente en ese momento aparecería como
puntos más calientes y brillantes en la intensidad de la radiación de
fondo. Pero incluso antes de COBE, la observación en tierra había
descartado fluctuaciones de punto a punto de más de una parte en
treinta mil. El COBE confirmó estos resultados. Si las estructuras a
gran escala existían antes de que se formara el fondo, se deberían
haber observado grandes fluctuaciones de al menos mil veces
mayores.
Una vez más, esta suave perfección del fondo, la misma en todas las
direcciones, ha sido citada como evidencia clave del Big Bang y de
la homogeneidad del universo primitivo. Sin embargo, esta misma
perfección hace imposible que la teoría explique cómo podría haber
llegado a ser el universo de hoy en día. Así que simplemente no hay
manera de formar estos objetos en veinte mil millones de años.
Tampoco se puede retroceder en el tiempo con el Big Bang. La
estimación de que el Big Bang ocurrió hace diez o veinte mil
millones de años se basa en la medición de la distancia de las
galaxias a nosotros, y la velocidad a la que las galaxias parecen estar
retrocediendo unas de otras. Si las galaxias que retroceden a la mitad
de la velocidad de la luz parecen estar ahora a unos cinco o diez mil
millones de años-luz de distancia, los cosmólogos razonan que
estaban todas mucho más cerca hace diez o veinte mil millones de
años. Así que para retroceder el Big Bang cientos de miles de
millones de años, los cosmólogos deben formular la hipótesis de una
extraña expansión de dos pasos: una explosión inicial para poner las
cosas en marcha, una pausa de unos pocos cientos de miles de
millones de años para dar tiempo a que se formen objetos grandes, y
una explosión reanudada para poner las cosas en marcha de nuevo,
de modo que sólo parecen haber comenzado hace veinte mil millones
de años.
Aquí las preguntas se multiplican como conejos. Pero el problema
subyacente es básico para la ciencia. Una teoría se pone a prueba
comparando las predicciones derivadas de ella con las observaciones.
Si un teórico simplemente introduce alguna modificación nueva y
arbitraria en su teoría para ajustarse a las nuevas observaciones,
como los epiciclos del cosmos de Ptolomeo, el método científico es
abandonado.
Sin embargo, la teoría del Big Bang está apoyada en gran parte por
entidades arbitrarias e hipotéticas, como las cuerdas cósmicas. Como
dice Tully, "Es perturbador ver que hay una nueva teoría cada vez
que hay una nueva observación."
A pesar de las muchas hipótesis nuevas, no hay manera de comenzar
con el universo perfecto del Big Bang y llegar al universo complejo
y estructurado de hoy en veinte mil millones de años. Como dijo un
científico del COBE, George Smoot de la Universidad de California
en Berkeley: "Usando las fuerzas que ahora conocemos, no puedes
hacer el universo que ahora conocemos".

LA MATERIA OSCURA QUE NO ESTABA ALLÍ

El problema de la estructura a gran escala es en sí mismo un serio


desafío para el Big Bang, pero no es el único: un problema
estrechamente relacionado es la evidencia de que la materia oscura
no existe.
La materia oscura es quizás la característica más extraña de la
cosmología convencional. Según la mayoría de los cosmólogos, casi
el 99 por ciento del universo es inobservable, es decir, que no emite
radiación alguna. El universo que vemos -estrellas, galaxias y todo-
es sólo el 1 o 2 por ciento del total. El resto es una extraña y
desconocida forma de materia, partículas necesarias por la teoría
pero nunca observadas. Este curioso concepto fue introducido hace
una década y desde entonces se ha convertido en una parte
fundamental de la cosmología moderna del Big Bang.
Mucho antes de que surgiera la cuestión de la formación de
superclusters, los cosmólogos se dieron cuenta de que existe una
dificultad para formar incluso objetos como las galaxias. Como
hemos visto, la teoría del Big Bang asume que estos objetos
crecieron por atracción gravitacional de pequeños grupos, llamados
fluctuaciones, en el universo primitivo.
Ya en 1967 Peebles y Joseph Silk habían llegado a la conclusión de
que tales fluctuaciones primordiales deberían aparecer como
fluctuaciones en el brillo o la temperatura del fondo de microondas.
Si la materia estaba distribuida de manera desigual en el momento en
que se originó el fondo del microondas, alrededor de un millón de
años después del Big Bang, entonces el fondo producido por esa
materia caliente no sería isotrópico (uniforme), sino que tendría
puntos calientes irregulares, o "anisotrópicos", y para 1970 se había
calculado que esta variación de temperatura debería ser de cinco o
seis partes por mil.
En ese momento, las mediciones no eran lo suficientemente precisas
para probar esta predicción. Pero en 1973 los observadores
demostraron que la anisotropía no debe ser más que una parte entre
mil. A lo largo de los años setenta, los observadores bajaron
continuamente los límites de la anisotropía, y los teóricos
modificaron sus teorías para hacer nuevas predicciones por debajo de
estos límites. Desafortunadamente, para 1979 ya estaba claro que
este juego no podía continuar, ya que no había anisotropía ni siquiera
en una parte de cada diez mil, y cada teoría requería al menos unas
cuantas veces esa cantidad.
Los teóricos se dieron cuenta de que había muy poca materia en el
universo. Cuanta menos materia, menos gravedad, y por lo tanto,
más lentamente pequeñas fluctuaciones crecerían en grandes
galaxias. Por lo tanto, si las fluctuaciones eran muy pequeñas al
principio, se necesitaba más materia para hacerlas crecer más
rápidamente.
Los astrónomos tenían una idea bastante buena de cuánta materia
podemos ver. Simplemente contaron las galaxias. Sabiendo cuán
brillantes son las estrellas de una determinada masa, podrían calcular
aproximadamente cuánta masa hay en un determinado volumen de
espacio, de ahí la densidad del universo, algo así como un átomo por
cada diez metros cúbicos de espacio.
Los cosmólogos descubrieron que esto no era suficiente. Necesitaban
cien veces más. Calcularon que para que las galaxias se hayan
formado como resultado del Big Bang, debe haber tanta materia en el
universo que su gravitación eventualmente detendría su expansión.
Pero eso requería una densidad de unos diez átomos por metro
cúbico. Los cosmólogos decidieron representar la densidad del
universo como una relación entre la densidad necesaria para detener
la expansión, una relación que ellos llamaban "omega" Si hubiera
suficiente materia para detener la expansión, omega sería igual a 1.
Parecía, sin embargo, que omega era realmente alrededor de 0,01 o
0,02 -sólo unas pocas centésimas de la materia necesaria para detener
la expansión del universo, y demasiado poco para magnificar las
fluctuaciones lo suficientemente rápido como para formar galaxias.
Aquí es donde entró la materia oscura. Si omega es realmente 1, o
está cerca de él, entonces la gravedad actuaría tan rápidamente que
incluso una pequeña fluctuación podría haber crecido al tamaño de
una galaxia en el tiempo transcurrido desde el Big Bang. Así que los
teóricos simplemente asumieron que esto era cierto (si no lo era, toda
la teoría colapsaría). Pero los observadores no pudieron ver casi todo
este asunto, ni con telescopios ópticos ni con radiotelescopios. Como
tenía que existir pero no podía ser visto, sólo podía ser una cosa:
inobservable, "oscura". La materia oscura era "el hombrecito que no
estaba allí".
Pero eso no es todo: la materia oscura tenía que ser muy diferente de
la materia ordinaria. Como se mencionó anteriormente, una de las
dos predicciones clave del Big Bang fue la abundancia de helio y
ciertos isótopos ligeros raros: deuterio (hidrógeno pesado) y litio.
Estas predicciones también dependen de la densidad del universo. Si
la materia oscura fuera materia ordinaria, la sopa nuclear del Big
Bang se habría cocinado demasiado - demasiado helio y litio, no
suficiente deuterio. Para que la teoría coincida con la observación, la
omega para la materia ordinaria, ya sea oscura o brillante, tenía que
estar alrededor de 0,02 o 0,03, apenas más de lo que se podía ver.
Si no era materia ordinaria, ¿qué podía ser la materia oscura?
Alrededor de 1980 los cosmólogos preocupados se volvieron hacia
los físicos de partículas de alta energía. ¿Había alguna partícula que
pudiera proporcionar la materia oscura pero que no estropeara la
cocina nuclear? De hecho, es posible que lo haya. Los físicos de
partículas proporcionaron algunas posibilidades: neutrinos pesados,
axiones y WIMPs (Weakly Interacting Massive Particle, un término
general). Todas estas partículas podían proporcionar la masa
necesaria para un omega de 1, y eran casi imposibles de observar. Su
único inconveniente era que, como en el caso de las cuerdas
cósmicas, no había evidencia de que existieran. Pero a menos que
omega fuera igual a 1 (por lo tanto, mucha materia oscura), la teoría
del Big Bang ni siquiera era autoconsistente. Para que el Big Bang
funcionara, la omega tenía que ser 1, y la materia oscura tenía que
existir.
Así que, como la Reina Blanca en A Través del Espejo que se
convenció de varias cosas imposibles antes del desayuno, los
cosmólogos decidieron que el 99 por ciento del universo eran
partículas hipotéticas e inobservables. Pero los cosmólogos estaban
reconfortados de que había alguna evidencia de que podría existir
alguna materia oscura. Y si algunos, ¿por qué no más?

BUSCANDO MATERIA OSCURA

La evidencia estaba en estudios de la rotación de galaxias, y de los


movimientos de las galaxias en grupos y cúmulos. Las galaxias giran
como molinetes y se mueven a través de cúmulos galácticos en
órbitas en bucle. Al medir los corrimientos hacia el rojo de estrellas o
nubes de gas en galaxias, o de galaxias en cúmulos de galaxias, los
astrónomos podrían deducir la velocidad de rotación de las galaxias
y las velocidades de las galaxias mismas. Ahora bien, si las galaxias
y los cúmulos galácticos se mantuvieron unidos por la gravedad, los
astrónomos asumieron que debía ser así, la masa de una galaxia o un
cúmulo podría ser encontrada por la ley de gravedad de Newton.
Cuanto mayor sea la velocidad de las estrellas en una galaxia, o de
las galaxias en un cúmulo, mayor será la fuerza necesaria para
mantenerlas en órbita; cuanto más fuerte sea la gravedad, mayor será
la masa que produzca la atracción gravitacional. Esto es como medir
la fuerza de un lanzador de martillo olímpico midiendo cuán rápido
puede girar el martillo sin soltarlo. Cuanto más rápido gira el
martillo, más fuerte es el lanzador de martillo (Fig. 1.7).
Los astrónomos encontraron que parecía haber más masa en las
galaxias, medida de esta manera, de la que podrían explicar las
estrellas. También parecía haber más masa en los cúmulos que en las
galaxias que los formaban, de cinco a diez veces más. Tal vez,
pensaron los astrónomos, esta masa extra es la materia oscura.
Desafortunadamente, sólo había lo suficiente para elevar el omega
a .1, demasiado poco para "cerrar el universo" y resolver los diversos
problemas a los que se enfrentaba la teoría del Big Bang. Pero,
razonaron los cosmólogos, al menos hay algo de materia oscura, así
que quizás hay más materia oscura, más exótica, espaciada
uniformemente por todo el universo, que ni siquiera se revela por su
gravedad.

Fig. 1.7. Medición de la masa de un plumero. Usando corrimientos al rojo, los


astrónomos pueden medir las velocidades de las galaxias que se mueven en el
campo gravitacional de un cúmulo. También pueden medir la distancia (R) de
cada galaxia desde el centro del cúmulo. Conociendo ambos números, pueden
estimar la masa de la galaxia - cuanto mayor sea el cúmulo y más rápido sus
galaxias, mayor será su masa. Para ser exactos, la masa es sólo el producto del
cuadrado de la velocidad multiplicado por el radio de los objetos, dividido por
G, la constante gravitacional universal.

Este era, sin duda, un hilo muy delgado para colgar una teoría del
universo entero - y en 1984, ese hilo fue cortado.
Mauri Valtonen de la Universidad de Turku, Finlandia, y Gene Byrd
de la Universidad de Alabama se unieron para echar un vistazo
crítico a esta evidencia de materia oscura. Empezaron con cúmulos
galácticos, donde sabían que había una complicación potencial. El
corrimiento hacia el rojo de las galaxias estaba siendo usado para dos
propósitos: primero, para medir la distancia a las galaxias y así ver si
eran parte del cúmulo; y segundo, para medir sus velocidades dentro
del cúmulo. Había un potencial de error: una galaxia más cercana a
nosotros que el cúmulo al que parecía pertenecer podría ser
confundida con una en el cúmulo que se está moviendo hacia
nosotros, mientras que una más lejana podría ser mal identificada
como una galaxia cúmulo que se aleja (Fig. 1.8). Sería entonces un
"intruso", que parece ser parte del grupo, pero que en realidad está
muy por detrás de él. Si estos intrusos (que de hecho no son parte del
cúmulo) son incluidos en los cálculos, sus velocidades conducirían
hacia arriba la masa aparente del cúmulo, creando una masa aparente
donde no hay ninguna masa"faltante". Para volver al lanzador de
martillo, el error sería el mismo que ver una película del atleta y
medir accidentalmente la velocidad de un martillo volador en el
fondo, en lugar de la velocidad del martillo que está sosteniendo en
realidad. Si el martillo de fondo fuera mucho más rápido, se
sobreestimaría la fuerza del atleta, al igual que la masa del racimo.
Valtonen y Byrd encontraron una señal reveladora de que esto estaba
sucediendo. Los astrónomos habían observado el curioso hecho de
que en prácticamente todos los cúmulos de galaxias la galaxia más
brillante parecía alejarse más lentamente que el cúmulo al que
pertenecía, es decir, que el corrimiento al rojo de la galaxia más
brillante era siempre menor que el corrimiento al rojo promedio del
cúmulo como un todo.

Fig. 1.8 Supongamos que estamos estudiando un cúmulo de galaxias a


seiscientos millones de años-luz (Mly) de distancia. Su corrimiento al rojo
promedio indica una velocidad de expansión del Hubble de 10.000 km/seg, es
decir, se está alejando de nosotros a esa velocidad. Ahora vemos en la misma
línea de visión una galaxia con un corrimiento al rojo de 12.000 km/seg.
Podemos asumir que es parte del cúmulo y comparte su velocidad del Hubble de
10.000 km/seg - y por lo tanto que la diferencia de 2.000 km/seg es su velocidad
orbital relativa al centro del cúmulo. O podría tener muy poca velocidad y estar
localizado a 720 Mly de nosotros - de modo que el total de 12.000 km/segundo
es la velocidad de expansión del Hubble de la galaxia. En ese caso es de 120
Mly detrás del cúmulo y no forma parte de él en absoluto (un cúmulo típico
tiene sólo 10 ó 12 Mly de diámetro).

Valtonen y Byrd mostraron que esto debería esperarse si algunas de


las galaxias aparentemente en el cúmulo son realmente intrusas, no
miembros reales del cúmulo. Como el "cono" de nuestra visión se
ensancha con la distancia, habrá más intrusos detrás del grupo que
delante de él (Fig. 1.9), y se desplazarán al rojo en relación con el
verdadero centro del cúmulo. Si, como parece razonable, la galaxia
más brillante (porque es la más grande) está generalmente cerca del
centro, su corrimiento al rojo será menor que el promedio de todas
las galaxias que se cree que están en el grupo, incluyendo a los
intrusos predominantemente de fondo.

Fig. 1.9 Dado que el cono de visión hacia un cúmulo es más estrecho delante (A)
que detrás (B), habrá más intrusos rojos que azules, lo que hace que el
corrimiento al rojo promedio parezca más alto de lo que realmente es.

Había otra razón, encontraron los dos astrónomos, por la que la masa
del cúmulo podría estar sobreestimada. Los cúmulos tienden a estar
dominados por un par de galaxias elípticas extremadamente pesadas.
Los astrónomos creen que estas galaxias crecieron hasta ser mil
veces más masivas que nuestra propia galaxia al tragarse
gravitatoriamente a los vecinos más pequeños. Pero Byrd y Valtonen,
usando simulaciones por computadora, descubrieron que las galaxias
pequeñas podrían sufrir un destino diferente: podrían quedar
atrapadas en el campo gravitacional de la pareja y ser lanzadas fuera
del cúmulo a alta velocidad.
He aquí otra fuente de error. Si los astrónomos incluyeran a las
galaxias que escapan como miembros del cúmulo, pensando que
todavía están ligadas a él por la gravedad, nuevamente
sobreestimarían la gravedad del cúmulo y por lo tanto su masa, de la
misma manera que la fuerza del lanzador de martillo sería
sobreestimada si la velocidad del martillo se midiera después de que
él lo hubiera soltado. Si los astrónomos incluyeran en sus cálculos
tanto a las galaxias que habían sido expulsadas del cúmulo como a
los intrusos, la masa del cúmulo sería muy exagerada. De hecho,
Valtonen y Byrd encontraron que estos dos errores explicarían toda
la "masa faltante": en pares de galaxias, grupos de galaxias y
cúmulos no hay materia oscura. Y cuando examinaron los
movimientos de los pequeños compañeros cercanos, encontraron que
las galaxias pesaban tanto como la materia visible que las componía.
Los resultados de Valtonen y Byrd han recibido una importante
confirmación de la Columbia Shaya. Shaya midió las velocidades y
posiciones de cientos de galaxias en una amplia región, en efecto
pesando toda la materia en los cúmulos a la vez. Encontró un valor
de omega, 0,03, muy cercano al valor de 0,02 encontrado por Byrd y
Valtonen. Una vez más, no hay lugar para la materia oscura - cerca
de la mitad de la materia está en las galaxias y sus estrellas brillantes,
otra mitad en gases brillantes estrechamente ligados a los cúmulos y
super cúmulos, gas que puede ser observado por los radiotelescopios.
Estos resultados han sido publicados en las principales revistas, sin
embargo, han suscitado poca discusión y ningún intento de
refutación. Eliminan completamente cualquier evidencia de materia
oscura -lo que ves en el universo es lo que hay. La implicación es
que los muchos documentos escritos sobre los axiones, los neutrinos
pesados, la materia oscura fría y la materia oscura caliente no tienen
ningún fundamento real. Pero sin materia oscura, los teóricos del Big
Bang dicen que no se pueden formar galaxias, estrellas o planetas.
Como científico del equipo COBE, John Mather bromeó: "Si estas
teorías son correctas, no deberíamos estar aquí".

LA ALTERNATIVA DEL PLASMA

La prueba de la teoría científica es la correspondencia de las


predicciones y la observación, y el Big Bang ha fracasado. Predice
que no debería haber objetos en el universo de más de veinte mil
millones de años y más de 150 millones de años-luz de diámetro. Los
hay. Predice que el universo, a una escala tan grande, debería ser liso
y homogéneo. El universo no lo es. La teoría predice que, para
producir las galaxias que vemos a nuestro alrededor a partir de las
pequeñas fluctuaciones evidentes en el fondo de microondas, debe
haber cien veces más materia oscura que materia visible. No hay
evidencia de que haya materia oscura. Y si no hay materia oscura,
predice la teoría, no se formarán galaxias. Sin embargo, ahí están,
dispersos por el cielo. Vivimos en uno.
Cada mes se publican docenas de nuevos artículos sobre el Big
Bang, pero menos de un puñado cuestiona su validez básica. Con
tantos científicos asumiendo que es lo correcto, abandonarlo no es
tan fácil: "El Big Bang podría fracasar por completo", reconoció
George Field, de la Universidad de Harvard, "es una cuestión de
gusto cuando uno salta del barco y se va a lo desconocido". Yo
mismo soy conservador y me quedaré con él por ahora".
Históricamente, pocas teorías de la ciencia han sido abandonadas sin
una alternativa clara a la vista. Durante décadas, no ha habido una
cosmología alternativa evidente. Ahora hay una: la cosmología del
plasma. Su pionero es Hannes Alfven, premio Nobel sueco y
fundador virtual de la física moderna del plasma.
Para Alfven, la diferencia más crítica entre su enfoque y el de los
cosmólogos del Big Bang es el método: "Cuando los hombres
piensan en el universo, siempre hay un conflicto entre el enfoque
científico mítico y el empírico", explica. "Este es el método de la
cosmología convencional hoy en día: partir de una teoría
matemática, deducir de esa teoría cómo debe haber comenzado el
universo, y trabajar desde ese comienzo hasta el cosmos actual. El
Big Bang fracasa científicamente porque busca derivar el universo
presente e históricamente formado a partir de una hipotética
perfección en el pasado. Todas las contradicciones con la
observación se derivan de este defecto fundamental (como veremos
con más detalle en el Capítulo Cuatro).
El otro método es el que emplea el propio Alfven: "Siempre he
creído que la astrofísica debe ser la extrapolación de la física de
laboratorio, que debemos partir del universo actual y retroceder hasta
épocas progresivamente más remotas e inciertas" Este método
comienza con la observación-observación en el laboratorio, a partir
de sondas espaciales, la observación del universo en general, y
deriva teorías a partir de esa observación en lugar de partir de la
teoría y las matemáticas puras.
Según Alfven, la evolución del universo en el pasado debe ser
explicable en términos de los procesos que ocurren en el universo
hoy en día: los eventos que ocurren en las profundidades del espacio
pueden ser explicados en términos de los fenómenos que estudiamos
en el laboratorio de la Tierra. Tal enfoque descarta conceptos tales
como el origen del universo de la nada, el comienzo del tiempo o el
Big Bang. Puesto que en ninguna parte vemos que algo emerge de la
nada, no tenemos ninguna razón para pensar que esto ocurrió en un
pasado lejano. En cambio, la cosmología del plasma asume que,
debido a que ahora vemos un universo en evolución, cambiante, el
universo siempre ha existido y siempre ha evolucionado, y existirá y
evolucionará por un tiempo infinito por venir.
Hay una segunda diferencia crítica en los dos enfoques de la
cosmología. En contraste con el universo del Big Bang, el universo
del plasma, como Alfven llama a su concepción, está formado y
controlado por la electricidad y el magnetismo, no sólo por la
gravitación, sino que es, de hecho, incomprensible sin corrientes
eléctricas y campos magnéticos.
Las dos diferencias están relacionadas. El Big Bang ve el universo en
términos de gravedad solamente, en particular, la teoría de la
relatividad general de Einstein. La gravedad es una fuerza tan débil
que sus efectos son evidentes sólo cuando se trata de masas enormes,
como la tierra en la que vivimos. Sólo los campos gravitacionales
muy poderosos, mucho más poderosos que los de la Tierra, muestran
la principal consecuencia de la relatividad general -la curvatura del
espacio mediante cuerpos gravitatorios- como algo más que una
pequeña corrección a las leyes de Newton. Los efectos exóticos de
estos campos tan poderosos, centrales en la cosmología
convencional, no pueden ser estudiados ni aplicados en la tierra.
Además, las partículas exóticas creadas en el Big Bang son
imposibles de generar en la tierra, incluso en el más poderoso de los
aceleradores de partículas. Así que para el Big Bang hay una
separación completa entre lo celestial y lo mundano, entre lo que es
importante aquí en la tierra, en la tecnología, y lo que es importante
en el cosmos. La cosmología se ha convertido en la más pura de la
ciencia pura, desprovista de conexión o aplicación al humilde mundo
cotidiano.
Pero el electromagnetismo que es la base de la cosmología del
plasma es también la base de nuestra sociedad completamente
tecnológica: la electricidad y el magnetismo se aplican a cada
instante para hacer funcionar nuestras fábricas, televisores,
automóviles y computadoras. Los plasmas se estudian no sólo para
aprender sobre el universo, sino también para estudiar cómo se
propagan las ondas de radio y radar, cómo se pueden iluminar más
las pantallas de ordenador y cómo se puede generar energía más
barata. La cosmología del plasma deriva, necesariamente, de la
interacción entre los problemas de la astrofísica y los de la
tecnología, entre lo celestial y lo mundano.
El universo del plasma no sólo se estudia de manera diferente al
universo del Big Bang, sino que también se comporta de manera
diferente. `Nunca se ha pensado que se puede obtener el universo
extremadamente grumoso y heterogéneo que tenemos hoy en día a
partir de un universo suave y homogéneo dominado por la
gravitación," dice Alfven. Pero el plasma se vuelve inhomogéneo
naturalmente. Desde los años treinta, la carrera científica de Alfven
se ha dedicado a estudiar y explicar las múltiples formas en que el
plasma, las corrientes eléctricas y los campos magnéticos trabajan
para concentrar la materia y la energía, para hacer del universo el
lugar complejo, dinámico y desigual que es.

■ TORBELLINOS DE PLASMA

De niño en Suecia, a Alfven le fascinaba el espectacular despliegue


de la aurora boreal, las cortinas móviles de filamentos y púas:
"Nuestros antepasados las llamaban'las lanzas de Odín' y parecían
tan cercanas que podían caer sobre tu cabeza", bromea. Cuando era
un joven científico se enteró de que el físico noruego Kristian
Birkeland había explicado la aurora como el efecto de las corrientes
eléctricas que fluyen a través del plasma sobre la tierra. En sus
propios experimentos en laboratorios de física nuclear, Alfven vio los
mismos filamentos de encaje: "Cada vez que una pieza del equipo de
vacío empezaba a comportarse mal, ahí estaban", recuerda. También
estaban allí, en fotografías de las prominencias solares y de las
lejanas nebulosas Velo y Orión (Fig. 1.10).
Muchos investigadores habían analizado antes los filamentos del
laboratorio, así que Alfven sabía lo que eran: pequeños vórtices
electromagnéticos que serpentean a través de un plasma,
transportando corrientes eléctricas. Un hilo recto de corriente
eléctrica que fluye a través de un plasma produce un campo
magnético cilíndrico, que atrae otras corrientes que fluyen en la
misma dirección. De este modo, los pequeños hilos de corriente
tienden a "pellizcarse" entre sí, arrastrando el plasma con ellos (Fig.
1.11). Los hilos convergentes enlazan en una cuerda de plasma, de la
misma manera que el agua que converge hacia un desagüe genera un
vórtice arremolinado, o el aire se precipita en un tornado. Los
filamentos son torbellinos de plasma.

Fig. 1.10. La estructura filamentosa es evidente en la nebulosa de Orión. La


nebulosa es una masa de plasma caliente que rodea a las estrellas.

Casi cualquier plasma genera inhomogeneidad, pellizcándose a sí


mismo en filamentos densos y arremolinados, separados por vacíos
difusos. Alfven cree que los filamentos que se ven en el laboratorio,
en el sol, en las nebulosas, son todos un fenómeno.
Fig. 1.11 Una corriente eléctrica crea un campo magnético a su alrededor,
mientras que un campo magnético dobla una corriente eléctrica. Estos efectos
permiten que las corrientes paralelas en un plasma se atraigan entre sí y se
retuerzan en un filamento vortex de plasma con campos magnéticos y corrientes
eléctricas en el mismo patrón helicoidal.

Los campos magnéticos y las corrientes pueden concentrar la materia


y la energía mucho más rápido y más eficazmente que la gravedad.
La fuerza magnética de un hilo de plasma aumenta con la velocidad
del plasma. Esto conduce a un efecto de retroalimentación: a medida
que los hilos son arrastrados hacia el vórtice, se mueven más rápido,
lo que aumenta la fuerza sobre los hilos de la corriente y los arrastra
aún más rápido hacia el filamento. Además, una masa que se contrae
tiende a girar cada vez más rápido, como un patinador de hielo que
tira de sus brazos. Esto genera una fuerza centrífuga que combate la
contracción. Los filamentos magnéticos pueden llevar este exceso de
rotación, o momento angular, permitiendo una mayor contracción,
mientras que la gravedad no puede hacerlo.
Durante décadas, Alfven y un pequeño grupo de colegas aplicaron
conceptos aprendidos del estudio de laboratorio del plasma a los
misterios de los cielos. Propuso nuevas teorías para explicar los
rayos cósmicos, las llamaradas y prominencias solares, y el origen
del sistema solar, e inicialmente se encontró con una feroz oposición
o indiferencia. Sin embargo, con el paso de los años, la idea de que el
espacio está vivo con redes de corrientes eléctricas y campos
magnéticos llenos de filamentos de plasma fue confirmada por la
observación y gradualmente aceptada, a menudo después de que la
mayoría de los científicos se olvidaron de quién propuso las teorías
por primera vez, y después de que el propio Alfven había recurrido
por mucho tiempo a otros problemas.
El punto de inflexión se produjo a finales de los años sesenta, cuando
las sondas espaciales exploraron el sistema solar: "Tener sondas en el
espacio era como tener una catarata extirpada", dice Alfven,
"podíamos ver cosas que nunca antes se habían visto, al igual que
Galileo con su telescopio" Las primeras sondas demostraron que los
filamentos existen cerca de la tierra, donde las corrientes fluyen a lo
largo de las líneas del campo geomagnético y crean la aurora a
medida que golpean la atmósfera. Más tarde, en los años setenta, las
naves espaciales Pioneer y Voyager detectaron corrientes y
filamentos similares alrededor de Júpiter, Saturno y Urano.
Se sabe que existen corrientes y filamentos en todo el sistema solar,
y los astrónomos han llegado a aceptar las teorías de Alfven sobre el
origen del sistema solar y el origen electromagnético de los rayos
cósmicos.

UN UNIVERSO FILAMENTOSO

A finales de los años setenta muchos científicos que estudiaban el


sistema solar estaban convencidos de que las corrientes eléctricas y
los campos magnéticos sí producen una estructura filamentosa
compleja y altamente inhomogénea en el espacio, tal como Alfven
había teorizado. Para Alfven, sin embargo, una descripción del
sistema solar fue sólo un primer paso. Si podemos extrapolar del
laboratorio al sistema solar, que es cien billones de veces más
grande", se pregunta, "¿por qué entonces el plasma no debería
comportarse de la misma manera para todo el universo observable,
otros cien billones de veces más grande?
En 1977 aplicó sus conceptos al siguiente orden, las galaxias,
proponiendo una nueva forma de explicar los violentos estallidos de
energía que ocurren en sus núcleos. La sabiduría convencional
atribuye sus estallidos altamente concentrados a los agujeros negros,
objetos extraños con un campo gravitacional tan intenso que la luz
misma no puede escapar de él. Alfven tenía un concepto menos
exótico basado en la experiencia de laboratorio con sistemas
eléctricos.
En su teoría, una galaxia, girando en los campos magnéticos del
espacio intergaláctico, genera electricidad, como lo hace cualquier
conductor cuando se mueve a través de un campo magnético (el
mismo fenómeno está presente en cualquier generador eléctrico). La
enorme corriente eléctrica producida por la galaxia fluye en grandes
espirales filamentosas hacia el centro de la galaxia, donde gira y
fluye a lo largo del eje de rotación. Esta corriente galáctica entonces
hace cortocircuitos, conduciendo una gran cantidad de energía hacia
el núcleo galáctico. La galaxia "quema un fusible": en el núcleo se
crean poderosos campos eléctricos que aceleran intensos chorros de
electrones e iones a lo largo del eje.
De nuevo, pocos astrofísicos tomaron en serio la descripción de
Alfven de las corrientes eléctricas y los campos magnéticos de fuerza
galáctica. Pero la nueva teoría pronto recibió apoyo. En 1979 Tony
Peratt, un físico del plasma y antiguo alumno de Alfven, comenzó a
ver cosas en el laboratorio que parecían confirmar la teoría de
Alfven. Trabajando en el Laboratorio Maxwell de San Diego con
máquinas que producían potentes corrientes eléctricas en plasma, vio
cómo la corriente desarrollaba filamentos vorticiales, que se
retorcían en lo que parecían pequeñas galaxias espirales (Fig. 1.12),
un fenómeno que, según supo Peratt más tarde, se había observado
por primera vez en los años cincuenta. Curioso por estas pequeñas
"galaxias" de plasma, utilizó un programa de computadora
desarrollado recientemente para simular la acción del plasma a escala
galáctica.
Fig. 1.12. En el laboratorio se forman filamentos espirales de plasma actual y
brillante, de unos pocos milímetros de diámetro, que se asemejan a las poderosas
galaxias espirales del espacio (A. Peratt).

Fig. 1.13 Una simulación por computadora muestra cómo dos corrientes en el
espacio (vistas aquí en la sección transversal) interactúan a través de sus campos
magnéticos para producir una galaxia espiral (A. Peratt).

En su modelo creó dos filamentos de corriente, cada uno de cien mil


años-luz de espesor, y los reunió para ver qué pasaba. Los resultados
fueron dramáticos: los dos filamentos se fusionaron, generando las
formas elegantes de las galaxias espirales (Fig. 1.13). Como Alfven
había predicho, la simulación mostró corrientes que fluían a lo largo
de delgados filamentos hacia el núcleo galáctico, desde donde se
emitían intensas ráfagas de radiación.
Cuando Peratt comparó los detalles de su simulación con
observaciones de galaxias reales, hubo un excelente acuerdo:
"Encontré en los atlas fotográficos de las galaxias ejemplos de casi
todo lo que vi en las simulaciones: las formas, la emisión de radio,
todas eran las mismas que en la computadora".
Los astrofísicos ignoraron el trabajo o permanecieron escépticos de
que existieran corrientes tan grandes. Pero en el verano de 1984,
Farhad Yusef-Zadeh, de la Universidad de Columbia, y sus colegas
del radiotelescopio Very Large Array de Zoccoro, Nuevo México,
descubrieron filamentos de vórtices magnéticos a gran escala en el
corazón de nuestra propia galaxia de la Vía Láctea. Cientos de años
luz de largo, eran un ejemplo de libro de texto de los vórtices de
Alfven y Peratt: una capa externa de hélices en espiral y una capa
interna que corre casi recta a lo largo del eje de un cilindro (como en
la cubierta de este libro), todo el patrón saliendo del plano de la
galaxia directamente hacia su eje de rotación. Su fuerza de campo
magnético, por lo menos unas diez milésimas de la de la superficie
de la tierra, también era exactamente lo que predijeron las
simulaciones de Peratt, y muy por encima de lo que la mayoría de los
astrofísicos pensaban que era posible a tal escala.
Este descubrimiento convenció a varios astrofísicos, especialmente a
aquellos ya familiarizados con el trabajo sobre el plasma del sistema
solar, de la realidad de los filamentos actuales en el espacio. Las
alineaciones y la forma de los filamentos galácticos simplemente no
pudieron haber sido creadas por la gravedad.
Siguiendo con su trabajo de 1977 sobre tormentas magnéticas en el
núcleo galáctico, Alfven planteó en 1978 la hipótesis de que el
universo mismo debe tener una estructura celular no homogénea. En
cualquier plasma, desde el laboratorio hasta la escala intergaláctica,
los filamentos se forman naturalmente. Las corrientes que se mueven
en la misma dirección se atraen entre sí, y las pequeñas corrientes
formadas por el movimiento aleatorio del plasma se fusionan y
crecen en corrientes más grandes. Con el tiempo suficiente, las
corrientes y filamentos de cualquier magnitud, incluyendo los
complejos de superclusters, pueden formarse - de hecho, deben
formarse.
Peratt, al crear sus modelos de computadora, también había
planteado la hipótesis de que las galaxias mismas son creadas por
filamentos aún más grandes, que luego proporcionan los campos
magnéticos que impulsan a las galaxias a generar corrientes. Peratt
sabía por los experimentos que tales filamentos eran típicamente diez
mil veces más largos de lo que son anchos; por lo tanto, los
filamentos galácticos, de cien mil años-luz de diámetro, deberían
tener cerca de mil millones de años-luz de longitud. Desde el punto
de vista de la física del plasma, las galaxias deben ser encadenadas a
lo largo de tales filamentos, grupos de los cuales, a su vez, se
organizarían en cuerdas aún más grandes. Esto es, por supuesto,
exactamente lo que Tully, Fischer y otros observaron más tarde
mientras compilaban sus mapas. Como una astrónoma, Margaret
Haynes, comentó sobre los filamentos retorcidos de las galaxias que
ella y sus colegas habían descubierto, "El universo es sólo un cuenco
de espaguetis" Además, en 1989 un equipo de radioastrónomos
italianos y canadienses detectaron un filamento de emisiones de
radio que se extendía a lo largo de un supercluster, proveniente de la
región entre dos cúmulos de galaxias. Los electrones atrapados en un
campo magnético emiten radiación de radio, por lo que su hallazgo
proporcionó evidencia indirecta de un río de electricidad que fluye a
través del espacio vacío. El tamaño estimado de la corriente, unos
cinco o diez millones de trillones de amperios, era exactamente el
que predijo el modelo de Peratt. La existencia de filamentos a escala
supergaláctica -explícitamente predicha por un pequeño grupo de
teóricos del plasma- fue confirmada por la observación.

■ SIN UN COMIENZO

Las interacciones plasmáticas pueden, dados unos pocos cientos de


miles de millones de años, formar los complejos del supercluster.
Para Alfven y la banda de teóricos del plasma de lento crecimiento
como Peratt, el tiempo no es un problema. Si uno comienza desde el
presente e intenta retroceder en el tiempo, no hay razón para asumir
que alguna vez hubo un Big Bang o que el universo tuvo algún
comienzo.
Para desafiar el Big Bang, sin embargo, la cosmología del plasma
debe tomar en cuenta los tres fenómenos observados que el Big Bang
reclama como evidencia: la abundancia de helio, el fondo de
microondas, y la expansión del Hubble. Los dos primeros fenómenos
pueden ser explicados por las mismas estrellas masivas generadas en
la formación de galaxias. En 1978 el astrofísico de Cambridge
Martin J. Rees había propuesto que tales estrellas, en unos pocos
cientos de millones de años, producirían el 24 por ciento de helio que
ahora se observa: habiendo transformado parte de su combustible de
hidrógeno en helio, explotarían en supernova, distribuyendo el helio
a través del espacio. Más tarde, de este gas enriquecido con helio se
formarían estrellas más pequeñas. La energía que producen las
estrellas masivas sería absorbida por el polvo interestelar, el cual
emitiría el fondo de microondas.
Los cosmólogos convencionales plantearon una serie de objeciones a
esta propuesta, la más grave de las cuales se refiere a la isotropía del
fondo de microondas. Si las galaxias en desarrollo hubieran generado
la radiación de fondo, podríamos ver puntos calientes en el fondo
donde estaban las galaxias recién formadas. Mirar hacia afuera en el
espacio significa mirar hacia atrás en el tiempo, por lo que las
primeras galaxias aún podrían ser observadas como aglomeraciones
en el fondo de microondas; sin embargo, el fondo de microondas es
completamente liso. ¿Qué proceso podría suavizar el fondo del
microondas?
Los radioastrónomos sabían desde hace mucho tiempo que los
electrones, atrapados en campos magnéticos, emiten ondas de radio y
microondas, el proceso por el cual, como Alfven señaló por primera
vez en 1950, los objetos celestes producen radiación. (Este es, de
hecho, el principio detrás de un horno de microondas: los electrones
son forzados a moverse en un círculo por campos magnéticos.
Sin embargo, cualquier objeto que emita radiación también puede
absorberla, esta es la clave para el fondo de microondas. Mi propio
trabajo es relevante aquí. A principios de los años ochenta había
estado trabajando en líneas paralelas a Peratt, detallando teorías
plasmáticas de los núcleos galácticos. Me pregunté a mí mismo: ¿Por
qué los electrones en los campos magnéticos intergalácticos no
pueden absorber la radiación de microondas y luego volver a
emitirla? (La idea ocurrió casi simultáneamente a Peratt y a su colega
Bill Peter.) Como no habría relación entre la dirección en que la
radiación viajaba cuando fue absorbida y su dirección como
reemisión, las microondas se dispersarían. Después de algunas
dispersiones, la radiación se "alisaba", ya que las gotas de agua de
una luz de niebla se dispersan en un resplandor casi uniforme.
Me di cuenta, sin embargo, que un campo magnético mucho más
fuerte que el campo promedio entre las galaxias sería necesario.
¿Qué podría proporcionar un campo tan fuerte? El candidato obvio
eran los chorros emitidos por los núcleos galácticos. Estos tenían
poderosos campos magnéticos y electrones energéticos, y habían
sido observados en detalle. Mis cálculos mostraron que un matorral
de millones de estos filamentos actuaría como una niebla de radio,
dispersando los puntos calientes en un fondo de microondas suave.
Además, ellos mismos serían casi invisibles, ya que su radiación
sería la misma en todas partes, al igual que las gotas de niebla son
difíciles de ver en una niebla. Pero tendrían efectos fácilmente
observables: absorberían ondas de radio de objetos más distantes,
que sólo podrían observarse mirando a través de los agujeros
aleatorios en este matorral intergaláctico de filamentos. De hecho,
los objetos distantes deben parecer tener menos radiación de radio
que los objetos más cercanos.
En el otoño de 1990, publiqué un artículo que demostraba que esto es
exactamente lo que sucede. Las galaxias que son emisores infrarrojos
igualmente brillantes, igualmente "calientes", son fuentes de radio
más débiles y más débiles cuanto más lejos están de la Tierra. Esta es
una clara evidencia observacional de que algo está absorbiendo
ondas de radio, incluyendo microondas, a medida que viajan entre
las galaxias. Pero aún más significativo, esto muestra que la
explicación convencional del fondo de microondas debe ser errónea.
Tal absorción distorsionaría el espectro de cuerpo negro del fondo si
realmente fuera el débil eco del Big Bang. Dado que el espectro,
como mostró COBE, no está distorsionado, la radiación debe venir
de cerca, del propio medio intergaláctico. En equilibrio, tal medio
absorbente produciría sólo el espectro de cuerpo negro observado.
Por lo tanto, no sólo existe una explicación alternativa para el fondo
de microondas, que explica naturalmente su energía, suavidad y
espectro sin el Big Bang, sino que la evidencia observacional es
incompatible con un origen del Big Bang para la radiación cósmica
de fondo. No hay ninguna contradicción entre la suavidad del fondo
y la voluminosidad del universo. El fondo es liso por la misma razón
por la que una densa niebla se ve lisa en todas las direcciones, no
porque el universo mismo haya sido tan liso.
Y finalmente, ¿qué hay de la expansión del Hubble? Como ha
comentado Alfven, un Big Bang ciertamente producirá una
expansión, pero una expansión no requiere un Big Bang: "Esto es
como decir que porque todos los perros son animales, todos los
animales son perros", bromea. Hay, de hecho, un número de posibles
explicaciones de la relación con el Hubble aparte del Big Bang.
Ninguna está confirmada hasta ahora, o incluso totalmente
elaborada, pero está claro que existen alternativas.
Una de las sugerencias más sencillas, la de Alfven y su antiguo
maestro, el difunto Oskar Klein, parte del hecho conocido de que
cuando se produce materia, también se produce antimateria. La
antimateria y la materia tienen cargas eléctricas opuestas; por
ejemplo, los antiprotones tienen una carga negativa, mientras que los
protones tienen una carga positiva. Cuando se combinan, se
aniquilan unos a otros con una enorme liberación de energía. Como
en el laboratorio la materia y la antimateria siempre se crean en
cantidades iguales, Alfven y Klein razonaron que esto debe ser cierto
para el universo en su conjunto.
En general, los procesos de plasma separan las grandes regiones de
materia y antimateria para que no se mezclen. Sin embargo, Alfven y
Klein plantean la hipótesis de que hace muchos miles de millones de
años el pequeño rincón del universo infinito que podemos observar
comenzó a contraerse, bajo la influencia de su propia gravedad.
Cuando tenía una décima parte de su tamaño actual, la materia y la
antimateria comenzaron a mezclarse, aniquilándose entre sí y
generando enormes cantidades de electrones y positrones
energéticos. Atrapadas en campos magnéticos, estas partículas
separaron el plasma durante cientos de millones de años. Las
explosiones fueron lo suficientemente suaves como para no
interrumpir los filamentos de plasma previamente formados, por lo
que estos objetos mucho más antiguos aún existen hoy en día, en
forma expandida, de la misma manera que los diseños impresos en
un globo persisten mientras está inflado.
La explosión de esta época, hace unos diez o veinte mil millones de
años, envió el plasma desde el cual las galaxias luego se condensaron
volando hacia afuera -en la expansión del Hubble. Pero esto no era
de ninguna manera un Big Bang que creara materia, espacio y
tiempo. Fue sólo un big bang, una explosión en una parte del
universo. Alfven es el primero en admitir que esta explicación no es
la única posible. "El punto significativo," enfatiza, "es que hay
alternativas al Big Bang."
■ CIENCIA E IDEOLOGÍA

En capítulos posteriores trataré más a fondo las cuestiones científicas


que se han planteado hasta ahora. Pero de esta breve encuesta se
desprenden algunas conclusiones claras. El Big Bang surgió
inicialmente como una explicación para la expansión del Hubble -la
relación de los corrimientos hacia el rojo y las distancias de las
galaxias. Las observaciones de los últimos años han puesto en duda
esa teoría, contradiciendo todas sus predicciones, así como sus
supuestos básicos. Ha surgido una alternativa plausible, la
cosmología plasmática, y sus predicciones han sido confirmadas
sistemáticamente por la observación. Además, proporciona
explicaciones simples para fenómenos que el Big Bang no puede
explicar consistentemente - la estructura inhomogénea y filamentosa
del universo, la abundancia de helio, y el fondo de microondas.
Uno pensaría que estos desarrollos reabrirían un debate sobre la
correcta explicación de la expansión del Hubble, y redirigirían el
trabajo teórico desde los matices de las criaturas hipotéticas tales
como la materia oscura y las cuerdas cósmicas hacia un examen de la
validez de las suposiciones básicas de la cosmología. Sin embargo,
los cosmólogos han ignorado o descartado la teoría del plasma -
pocos se han molestado en leer sobre ella. Para P.J.E. Peebles, un
pionero del Big Bang, las ideas de Alfven son "simplemente tontas",
y su colega en Princeton, Jeremiah Ostriker, comenta: "No hay
evidencia observacional que yo sepa que indique que las fuerzas
eléctricas y magnéticas son importantes a escalas cosmológicas".
En parte, el problema es la creciente especialización de la ciencia. El
científico medio, no sólo el cosmólogo, lee ciertas revistas, asiste a
ciertas conferencias, se reúne básicamente con los mismos grupos de
especialistas año tras año. La cosmología del plasma no fue
desarrollada por astrónomos o cosmólogos teóricos, sino por físicos
del plasma, que publican en revistas de ingeniería eléctrica y otras
relacionadas, no en las revistas que la mayoría de los astrónomos
leen.
Sin duda, esto no es totalmente por elección. Alfven, así como otros
físicos del plasma mucho menos conocidos, han visto sus trabajos
rechazados repetidamente por las revistas astrofísicas porque
contradicen la sabiduría convencional. Una vez más, este no es un
problema exclusivo de la cosmología: "Cuando los científicos están
especializados", comenta Alfven, "es fácil que la ortodoxia se
desarrolle. Los mismos individuos que formulan la teoría ortodoxa la
aplican revisando los trabajos presentados a las revistas, y también
conceden propuestas. Desde este punto de vista, creo que la Iglesia
Católica fue demasiado culpada en el caso de Galilea: fue sólo una
víctima de la revisión de sus compañeros".
El sistema de revisión por pares -con todos los documentos y
propuestas de subvenciones controlados por un pequeño grupo de
"especialistas destacados"- ha tenido un efecto profundamente
conservador en todas las ramas de la ciencia, ya que los teóricos en
particular son reacios a admitir la verdad de los documentos que
contradicen sus décadas de trabajo. Sin embargo, mientras que la
revisión por pares explicaría el rechazo de la alternativa del plasma,
no puede explicar las reacciones a las nuevas observaciones que han
sido escritas por astrónomos líderes y publicadas en las principales
revistas cosmológicas. Desde hace una década, las contradicciones
acumuladas no se han encontrado con un reexamen de las
suposiciones básicas, sino con hipótesis de calderilla. Así como los
astrónomos medievales agregaron epicycle after epicycle a las
esferas de Ptolomeo con el fin de emparejar sus teorías geocéntricas
con el movimiento planetario observado, así también hoy los
cosmólogos agregan materia oscura a las cuerdas cósmicas a la
inflación, empapelando las grietas que bostezan en su teoría. "Es
imposible que el Big Bang esté mal", dice Joseph Silk, uno de los
principales astrofísicos de Berkeley, "Tal vez tengamos que
complicar la cobertura de las observaciones, pero es difícil pensar en
qué observaciones podrían refutar la teoría en sí".
Esta actitud no es en absoluto típica del resto de la ciencia o incluso
del resto de la física. En otras ramas de la física no se toleraría la
multiplicación de entidades no apoyadas para encubrir el fracaso de
una teoría. La capacidad de refutar una teoría científica es el criterio
clave que distingue a la ciencia de la metafísica. Si una teoría no
puede ser refutada, si no hay ninguna observación que la refute,
entonces nada puede probarla; no puede predecir nada, es un mito sin
valor.
Hay más que ciencia involucrada aquí. Mientras que el Big Bang
como teoría científica está cada vez menos respaldado por datos, su
prominencia en nuestra cultura ha aumentado. La prensa científica lo
ha tomado como una verdad incuestionable, una piedra de toque de
la perspectiva científica. En una prueba reciente de la alfabetización
científica del público estadounidense y británico, se utilizaron dos
preguntas para "poner a prueba la aceptación de la imagen del
mundo científico", y se pidió a la gente que estuviera de acuerdo o en
desacuerdo con dos proposiciones: "El universo comenzó con una
enorme explosión" y "Los seres humanos se desarrollaron a partir de
especies de animales anteriores", mientras que el desacuerdo con la
teoría del Big Bang se equiparó con el rechazo de la evolución y el
analfabetismo científico. (Evidentemente el Dr. Alfven habría
reprobado esta prueba en particular!)
Las ideas de la cosmología moderna también están cada vez más
ligadas a la teología. En libros como El Dios de Paul Davies y La
Nueva Física, que ahora llenan los estantes de las librerías, los
científicos y popularizadores argumentan que las teorías del Big
Bang conducen a una prueba de la existencia de Dios o al menos al
conocimiento de por qué el universo llegó a existir. Desde estas
bases podemos esperar, en palabras de Stephen Hawking, "conocer la
mente de Dios".
Para el lego interesado, mucho de esto parece extraño de hecho. La
teoría del Big Bang comienza con algunas premisas peculiares: el
universo era una vez más pequeño que la cabeza de un alfiler, y hubo
un comienzo en el tiempo. La respuesta natural es: ¿Qué había antes
de eso? Algunos cosmólogos, como Hawking, responden con ideas
aún más extrañas: tal vez especulan que pequeñas pulsaciones en el
espacio que nos rodea, incluso dentro de nosotros, están a cada
instante dando a luz universos submicroscópicos, pequeñas burbujas
de espacio-tiempo, que luego se separan de nuestro universo para
formar otro universo. Desde cada punto, incluso desde la punta de la
nariz, se están formando cuatrillones de universos cada segundo. La
nuestra es sólo una de ellas, formada presumiblemente por la punta
de la nariz de alguien en otro universo más antiguo.
Más extraño aún, muchos científicos proclaman que, a través de
estos cálculos matemáticos y teorías, se están acercando a la solución
de todos los misterios fundamentales del universo. En su reciente
libro, A Brief History of Time, Hawking expresó la creencia,
compartida por muchos de sus colegas, de que tal vez dentro de una
década la cosmología descubra una Teoría del Todo, un pequeño
conjunto de ecuaciones que describen toda la física-gravitación,
electromagnetismo y ecuaciones de fuerzas nucleares tan simples y
elegantes que, como se bromeaba, "pueden caber en una
camiseta"."De estas simples ecuaciones, la verdadera realidad del
universo fluirá por deducción lógica, no sólo el extraño zoológico de
cuerdas cósmicas y universo múltiple, sino también galaxias,
estrellas, planetas -todo.
Cualesquiera que sean los puntos de vista religiosos, estas
especulaciones parecen una forma extraña de llegar a un
conocimiento seguro de la existencia o inexistencia de Dios. Y
parece más extraño que prevalezcan mientras que los cosmólogos
ignoran las observaciones que parecen cortar en la base de esta torre
de fantasía teórica.
¿Cómo se desarrolló esta situación en primer lugar? Para obtener una
respuesta, debemos dar un largo paso atrás. Describir el debate
cosmológico de los años ochenta y noventa es como entrar en una
habitación en medio de una acalorada discusión. Uno necesita saber
cómo se desarrolló el argumento para entenderlo y juzgarlo hoy: la
oposición al Big Bang no comenzó en los años setenta, y el Big Bang
en sí mismo no surgió cuando se popularizó en los años cincuenta y
sesenta.
Esto es más que una discusión científica sobre observaciones y
teorías. El Big Bang se basa en un par de suposiciones que forman el
núcleo del método de la cosmología convencional: el universo nació
en un momento específico, creado de la nada, y podemos aprender
sobre la creación y el universo como un todo desarrollando teorías
matemáticas exactas, es decir, por nuestra propia razón, por
deducción lógica. Podemos, como argumentan Hawking y otros,
determinar cómo debe haber sido formado el universo, por pura
necesidad lógica, por qué leyes debe ser gobernado, y entonces
podemos adivinar sus propiedades "verdaderas" desde ese comienzo
necesario. Las leyes matemáticas que desarrollamos son la esencia
del universo, la realidad detrás de todos los fenómenos del cosmos
visible -"la mente de Dios".
La cosmología del plasma, sin embargo, asume que aprendemos
sobre el universo observando los procesos que actúan en la
naturaleza hoy en día. A partir de los patrones que discernimos,
podemos derivar generalizaciones que nos permiten adivinar cómo
estos mismos procesos condujeron a la configuración actual del
universo. Porque hoy en día nada viene de la nada, la hipótesis
razonable es que esto siempre ha sido cierto - el universo, en alguna
forma, siempre ha existido.
Estos dos enfoques para conocer el universo no son nuevos. Las
ideas subyacentes al Big Bang y a la cosmología del plasma no
tienen sus raíces en el siglo presente ni siquiera en el presente
milenio, sino en la Grecia de los siglos IV, V y VI a.C., y en la Roma
del siglo IV d.C. A lo largo de los siglos estos dos conceptos han
luchado, cada uno de ellos a su vez, dominando por un tiempo.
Alfven ha llamado a la alternancia de estas dos amplias ideas el
"péndulo cosmológico", una oscilación entre un enfoque mitológico
y uno científico. Para Alfven, la cosmología actual se basa en los
mismos puntos de vista mitológicos que los de los astrónomos
medievales, no en la tradición científica de Kepler y Galileo. Pero
este péndulo no se mueve en el alcance etéreo de las ideas puras.
Desde la antigüedad, la forma en que la gente ha mirado el universo
ha estado entrelazada con la forma en que veían su sociedad y las
necesidades de esa sociedad. La gente ha proyectado sus ideas
sociales en el universo y ha usado su cosmología, sus ideas sobre los
cielos, para justificar sus prácticas en la tierra. Las batallas entre
estas dos visiones del cosmos han estado vinculadas a las cuestiones
más cruciales de la sociedad y de la historia: ¿Es posible el progreso,
la mejora continua de la vida humana? ¿Debe haber siempre
gobernantes y gobernados, o los que trabajan deben decidir qué
trabajo se va a hacer? En la Edad Media, por ejemplo, la jerarquía de
las esferas celestiales del mundo ptolomeo se utilizó para justificar la
jerarquía de reyes, nobles, sacerdotes y plebeyos. Y en el siglo XVII,
los que luchaban por la democracia utilizaron el sistema copernicano
como modelo de sus ideales de igualdad ante la ley universal.
Para entender el debate cosmológico de hoy, debemos, por lo tanto,
trazar los orígenes de las suposiciones y métodos de cada parte, y los
contextos históricos de los que surgieron estas ideas.

NOTAS
1
. Samuel P. Langley, "Address as retiring President of the A.A.S.,"
American Journal of Science, Series 3, Volume 37, pp. 1-23, 1889.
2 - UNA HISTORIA DE LA CREACIÓN

Al principio, sólo existía el océano, sobre el cual apareció un huevo. Del huevo
salió el dios sol y de él mismo engendró cuatro hijos: Shu y Tefnut, Keb y Nut.
Todos ellos, con su padre, yacían en el océano del caos. Entonces Shu y Tefnut
se metieron entre Keb y Nut. Plantaron sus pies sobre Keb y levantaron a Nut en
lo alto para que Keb se convirtiera en la tierra y Nut en los cielos.
- MITO EGIPCIO, C. 2500 A.C.

Desde que los humanos han caminado por la tierra, se han


preguntado cómo han llegado a ser las cosas tal como son. Cómo
comenzó el mundo siempre ha sido central para saber lo que es y lo
que somos, así como uno necesita conocer la historia de una persona
para conocerla.
Desde el principio, la gente ha vinculado sus ideas sobre el origen
del mundo a su forma de aprender sobre el mundo. La primera
manera en que los hombres aprendieron sobre el universo fue a
través de la autoridad: las historias de los sacerdotes, los mitos. Sin
duda nuestros antepasados cavernícolas tenían sus propias ideas y
mitos, pero los primeros mitos de la creación que conocemos fueron
escritos en Mesopotamia y Egipto alrededor del año 2500 a.C. En
estas historias la creación es una reproducción mágico-biológica: los
dioses emergen de un océano primitivo y se aparean entre sí para
producir deidades adicionales -la tierra, el cielo, los cielos y los
océanos. Las pinturas egipcias muestran al dios del cielo Shu de pie
sobre el dios de la tierra Keb y sosteniendo la diosa del cielo Nut
(Fig. 2.1).
Fig. 2.1

Estos mitos sacerdotales reflejan cómo se dirigían estas sociedades.


Las primeras civilizaciones se basaron en la agricultura de riego a
gran escala, organizada por un sacerdocio centralizado encabezado
por un rey o faraón todopoderoso y divino. Las historias de la
creación relatan los orígenes de estas sociedades, cómo su gente
había organizado las tierras entre los ríos Tigris y Éufrates y en el
valle del Nilo, habían separado literalmente la tierra de las aguas
canalizando los pantanos en canales, que reemplazaron el caos de la
agricultura dependiente de las lluvias inconstantes y escasas. Los
sacerdotes dieron el crédito de esta vasta empresa social a los dioses,
los "antepasados" de los faraones.
De acuerdo con estos mitos, esta tarea no se llevó a cabo con la
razón, la planificación y el trabajo duro (como en realidad ocurrió),
sino con magia basada en la fertilidad. Esto también refleja cómo
funcionaban estas sociedades, ya que tenían poco uso de razón. Esto
puede parecer extraño, ya que las primeras civilizaciones
desarrollaron algunas de las invenciones más esenciales de la mente
humana: metalurgia, escritura, aritmética, geometría y astronomía.
Sin embargo, una vez que estas mejoras agrícolas fueron instituidas
por los agricultores neolíticos o por los primeros sacerdotes que
organizaron las obras de irrigación, estas sociedades persistieron sin
mayores avances técnicos durante más de mil quinientos años. La
organización social creada para crear las obras de irrigación -un rey y
un sacerdocio que dirigía el trabajo de millones de campesinos-
impidió por sí misma que se siguiera avanzando. Como señala el
historiador V. Gordon Childe, los campesinos que cultivaban
alimentos y los artesanos que trabajaban en los talleres reales estaban
totalmente aislados del alfabetizado sacerdocio, que tenía el poder
absoluto. Las tradiciones materiales de los campesinos y artesanos, y
el conocimiento científico del sacerdocio, separados unos de otros, se
transmitían sin cambios de generación en generación, mistificados
por el ritual y la magia. En las sociedades egipcias y mesopotámicas,
el conocimiento y el poder derivaban su autoridad del pasado divino:
cuanto más antiguo, mejor. Desviarse de la tradición era cortejar la
ira tanto de los dioses como del faraón.
Así que los mitos de los sacerdotes dieron la sanción divina al
funcionamiento de la sociedad. Los faraones y sacerdotes heredaron
poderes mágicos de los dioses y esto justificó e impuso su poder
absoluto sobre la sociedad. La magia y el ritual gobernaban aquí en
la tierra, y así debe haber sido en los cielos, en el principio.

LOS COMIENZOS DE LA CIENCIA

La formación del mundo comenzó con un vórtice, formado por el caos de la


Energía. Este vórtice comenzó en el centro y se extendió gradualmente. Separó
la materia en dos regiones, el material raro, caliente, seco y ligero, el éter, en las
regiones exteriores, y el material más pesado, más frío y húmedo, el aire, en las
regiones interiores. El aire se condensaba en el centro del vórtice, y fuera del
aire, las nubes, el agua y la tierra se separaban. Pero después de la formación de
la tierra, debido a la creciente violencia del movimiento rotatorio, el éter de
fuego que la rodeaba arrancaba piedras de la tierra y las encendía hasta
convertirlas en estrellas, de la misma manera que las piedras de un remolino se
precipitan hacia afuera más que el agua. El sol, la luna y todas las estrellas son
piedras en llamas, que se mueven alrededor por la revolución del éter.
- ANAXÁGORAS, C. 430 A.C.

El período del 2500 al 600 a.C., la época de estos mitos primitivos,


es el prólogo de nuestro principal drama cósmico. Los métodos
empíricos y deductivos, en conflicto hoy en día en la cosmología,
surgieron alrededor del año 500 a.C. Surgieron de un feroz conflicto
social para determinar qué tipo de sociedad sucedería a la
civilización de la Edad de Bronce: una sociedad de trabajo libre o
una de trabajo esclavo. En el primer acto de este drama, del 600 al
100 a.C., estas dos ideas conflictivas nacen en Grecia y se enfrentan
en batalla, dando como resultado una síntesis sesgada: el fantástico
cosmos de Ptolomeo con sus esferas y epiciclos.
¿Cómo surgieron estos métodos? Para que las nuevas ideas se
desarrollaran, la autoridad mágica y sacerdotal de la civilización de
la Edad de Bronce tenía que desaparecer. Y falleció, así fue.
Con una base técnica fija, la civilización de la Edad del Bronce sólo
podía sostener a su creciente población expandiéndose
geográficamente, y cuando se alcanzaron los límites naturales del
cultivo dentro de los valles aluviales, comenzó a colapsar. Los
esfuerzos de todos los reyes y faraones por exprimir más riqueza de
una producción estancada condujeron a un rápido agotamiento de la
población, a la decadencia de las obras de irrigación y, finalmente, a
la desintegración de la sociedad.
Egipto y el Cercano Oriente, sin embargo, dieron lugar a una nueva
sociedad que surgió de la ruina de la antigua concha. La nueva
sociedad trajo consigo nuevas tecnologías relacionadas con las
nuevas percepciones del cosmos. Necesitaba nuevas ideas, porque se
basaba en el comercio y, en parte, en el trabajo libre. Aunque la
confianza en la autoridad puede convenir a un sacerdote, es una mala
guía para un comerciante o artesano emprendedor. En cambio, el
comerciante tenía que aprender observando el mundo que lo rodeaba:
los vientos y las mareas. Y los artesanos libres aprendieron
cambiando la naturaleza, experimentando con nuevos materiales y
métodos.
Con la caída de los viejos imperios, se desarrollaron nuevos patrones
de comercio alrededor del Mediterráneo, patrones basados en la
agricultura especializada, por ejemplo, los agricultores de Grecia que
comerciaban aceite de oliva a cambio de grano procedente de Egipto.
Esto permitió una mayor expansión geográfica, ya que las zonas no
aptas para la agricultura intensiva de cereales podían ahora aportar
sus productos especializados a tierras extranjeras y alimentarse de
ellas.
La estricta división entre los que aprendían y los que trabajaban
comenzó a romperse: el aprendizaje se democratizó para servir a las
necesidades de los comerciantes y artesanos independientes. El
alfabeto fenicio económico sustituyó a los elaborados jeroglíficos de
los antiguos sacerdotes.
En ninguna parte los cambios fueron tan profundos como en las
colonias comerciales establecidas por los griegos en Jonia, en la
orilla oriental del Egeo (ahora parte de Turquía). Al igual que en el
caso de las colonias, los patrones sociales heredados quedaron atrás
cuando los más aventureros se instalaron en tierras nuevas, antes
despobladas.
Para el año 700 a.C., las ciudades comerciales jónicas, cada vez más
dependientes del comercio de productos agrícolas y artesanales
especializados, como los textiles, habían dejado atrás la anterior
subordinación a los grandes terratenientes de la Grecia continental.
Establecieron nuevas sociedades de comerciantes, artesanos y
campesinos de propiedad absoluta, los primeros intentos limitados de
democracias y repúblicas. Necesitaban nuevas ideas para dirigir esas
nuevas sociedades: los viejos dioses estaban anticuados.
Este cambio es evidente en la concepción jónica del universo y su
origen. Alrededor del año 580 a.C. Thales, oriundo del centro
comercial y textil Miletus, afirmó por primera vez que el mundo
estaba formado por procesos naturales que se podían observar en el
mundo. Él secularizó los viejos mitos de la creación. El mundo
comenzó con el agua, enseñó, pero evolucionó fuera del agua por
medios naturales, ya que los pantanos y la tierra seca pueden ser
recuperados del mar. La alteración de la naturaleza por parte del
hombre, observable día a día, fue el combustible de una nueva
filosofía que suplantó al pasado mítico.
Mientras que los sacerdotes de la Edad de Bronce habían visto una
sociedad inmutable gobernada por los ciclos invariables de las
estaciones, los jonios veían una sociedad en medio de cambios
convulsivos mientras los aristócratas terratenientes, comerciantes,
artesanos y campesinos luchaban por el poder. Habiendo
experimentado tumultuosos derrocamientos del gobierno, Heráclito
concluyó que el universo estaba en constante cambio, como un
fuego, siempre cambiante.
Después de que Jonia fue conquistada por los persas, las nuevas
ideas se extendieron a Atenas, en la Grecia continental. Aquí
nacieron algunas de las teorías más sorprendentes de la cosmología
primitiva. Anaxágoras, oriundo de Jonia y más tarde amigo del líder
ateniense Pericles, derivó su teoría de los orígenes de la observación
de la naturaleza. Viendo cómo los remolinos en la naturaleza ordenan
el caótico flujo de agua y materiales separados de diferentes
densidades -lodo y madera son atraídos hacia el centro, mientras que
piedras y guijarros son arrojados hacia afuera- razonó que tales
vórtices, impulsados por un poder primigenio (nous) podrían separar
el aire de la tierra. El sol y las estrellas son rocas más grandes que
toda Grecia, arrancadas de la tierra, arrojadas hacia afuera y
calentadas por la fricción hasta su estado actual de fuego. Las
estrellas, adivinó correctamente, son soles demasiado lejanos para
que podamos sentir su calor.
A partir de la simple observación de las piscinas de la naturaleza, el
metal ardiente de la fragua del herrero, la luz lejana de los fuegos de
los mercaderes, Anaxágoras planteó la hipótesis de una teoría
naturalista de los orígenes cósmicos que era esencialmente correcta.
Para Anaxágoras, el universo es infinito, poblado por una multitud de
mundos diferentes, muchos de ellos habitados. No hay diferencia
entre los cielos y la tierra, no hay tierra finita rodeada de un cielo
desconocido. En cambio, todos operan bajo los mismos principios
que se pueden ver en la vida diaria, en el funcionamiento de la
naturaleza y la tecnología.
Así, en el siglo V a.C. se había desarrollado el germen del método
científico empírico. El método se basó en observaciones de la
naturaleza en el aquí y ahora y llevó a extrapolaciones de esas
observaciones a partes del universo distantes en el espacio o el
tiempo. Necesariamente tal método llevó a una teoría del origen del
mundo a través de los mismos procesos observables hoy en día:
procesos naturales sin intervención divina. Debido a que tal cosmos
evoluciona y cambia, nunca puede tener un comienzo en el tiempo,
una creación i'rom nada-ya que tales eventos nunca se ven ocurrir.
En cambio, es ilimitado en espacio y tiempo, porque no hay límites a
lo que se puede observar y aprender.
Así como la visión mágica primitiva del universo estaba ligada a una
sociedad estancada, donde el trabajo estaba subordinado a una
autoridad inmutable, así también la nueva visión empírica estaba
ligada a una sociedad progresista, donde el trabajo más libre podía y
mejoraba continuamente su técnica. La idea básica de la ciencia, un
cosmos cambiante regido por leyes naturales, fue inspirada por una
sociedad moldeada por el progreso técnico y social. Sin ese progreso,
la ciencia perdió su necesidad y su inspiración, mientras que sin la
observación científica, la base del progreso técnico se marchitó.

DIOS COMO MATEMÁTICO

¿Estaba el mundo siempre en existencia y sin principio o creado, y tenía un


principio? Creado, respondo, siendo visible y tangible y por lo tanto sensible; y
todas las cosas sensibles son creadas. . . . ¿Cuál de los patrones tenía el Artífice a
la vista cuando hizo el mundo - el patrón de lo inmutable o de lo que es creado?
Si el mundo es en verdad justo y el Artífice bueno, es manifiesto que Él debe
haber mirado a lo que es eterno; así, cuando todas las cosas estaban en desorden,
Dios creó en cada cosa todas las medidas y armonías que posiblemente podrían
recibir. Porque en aquellos días nada tenía proporción, excepto por accidente, ni
las cosas que ahora tienen nombre merecían ser nombradas en absoluto, ni el
fuego, ni el agua, ni los demás elementos. Todo esto fue puesto en orden por el
Creador y a partir de ellos construyó el universo.
- PLATO, TIMAEUS, C. 370 A.C.

La antigua Grecia originó no una, sino dos nuevas formas de


entender el cosmos y sus orígenes. El otro método imaginaba un
mundo gobernado ni por la magia ni por el proceso natural, sino por
el número -conocible no por la autoridad ni por la observación, sino
por la razón pura. Como otros métodos, esto refleja el desarrollo de
la sociedad. Porque Grecia no sólo se transformó con las nuevas
tecnologías, sino también con el dinero. Contenía no sólo a los
artesanos y campesinos libres, sino también a los esclavos y a los
dueños de esclavos.
Alrededor del año 600 a.C. comenzó una revolución económica con
el desarrollo de la acuñación de monedas. Antes de esto, el único
dinero era lingotes de oro pesados en el momento de una transacción.
Los pequeños agricultores y artesanos se vieron obligados a hacer
trueques. La introducción de monedas que los pequeños productores
podían utilizar trajo a la masa de la población los beneficios del
dinero. Como dice V. Gordon Childe, el artesano ya no estaba
condenado a comer su salario. Podía comprar productos con sus
ganancias, abriendo nuevos mercados para sus compañeros
artesanos. El pequeño agricultor era libre de seguir a los aristócratas
en la agricultura especializada para un mercado de exportación.
Pero el dinero era una bendición mixta, y a su paso siguió la usura,
las hipotecas y la esclavitud de la deuda. El dinero era poder. Todo
puede reducirse a números abstractos: el valor de una vasija, un
frasco de aceite, una parcela de tierra, un esclavo, todo puede
expresarse en números exactos de monedas, al igual que la riqueza y
el valor de cualquier ciudadano. Los números parecían tener poderes
mágicos. El dinero invertido a interés podría incluso multiplicarse
sin ningún esfuerzo por parte del prestamista.
Los jonios habían generalizado la experiencia social de los artesanos
y comerciantes libres en una visión del cosmos (la palabra "cosmos"
en sí misma se basa en una palabra anterior que significa la unión de
todos los clanes griegos). Otros pensadores griegos extrapolaron del
poder de los números en la sociedad a la idea de que los números
también gobiernan el universo. Pitágoras, que vivía en el siglo VI
a.C., entre Tales y Anaxágoras, fue testigo de los efectos del dinero
en los estados griegos. Para Pitágoras las relaciones puras de los
números en aritmética y geometría son la realidad inmutable detrás
de las apariencias cambiantes del mundo sensible. A diferencia de los
iónicos, Pitágoras enseñó que la realidad puede ser conocida no a
través de la observación sensorial, sino sólo a través de la razón pura,
que puede investigar las formas matemáticas abstractas que rigen el
mundo.
Anaxágoras debía enfatizar la similitud de los cielos y la tierra, pero
Pitágoras los contrastaba. Los cielos, enseñó, son el reino del número
puro, donde los objetos se mueven en círculos perfectos e
inmutables, el reino que mejor se puede percibir a través de la razón
pura. La tierra, reino de los sentidos y de las apariencias, es donde
las almas humanas son condenadas. Nuestra única liberación de
nuestro cuerpo terrenal, "la tumba del alma", es el retiro del mundo a
la contemplación desapasionada de la razón y de las matemáticas.
La división o dualidad en el pensamiento de Pitágoras, entre el
pensamiento y la acción, la razón y los sentidos, tan ajena a la de los
jonios y sus sucesores -como Childe y otros han señalado-, estaba
estrechamente ligada al auge de la esclavitud. A medida que la
economía monetaria se desarrollaba, también lo hacía la esclavitud
de bienes muebles. Tal institución, basada en la venta de esclavos, es
imposible sin el libre intercambio de dinero. La esclavitud
amenazaba con encadenar a los pequeños productores o con socavar
sus medios de subsistencia, devaluando así la actividad productiva.
Para los esclavistas griegos, el trabajo era algo que hacían los
esclavos, por lo que en sí mismo era degradante-banausico. Sólo el
pensamiento desapegado es digno. Así como la esclavitud separó el
pensamiento de la acción, también lo hizo la tendencia pitagórica en
la filosofía griega, glorificando la razón abstracta y denigrando la
observación física. La esclavitud también socavó el desarrollo de la
tecnología que requería y alimentó la observación: los dueños de
esclavos no necesitan dispositivos que ahorren trabajo.
Más allá de su justificación de la práctica social, la filosofía
pitagórica se justificó con descubrimientos indiscutibles y vitales en
la ciencia. A pesar de su teórico desprecio por los sentidos, los
pitagóricos hicieron en la práctica observaciones precisas de la
naturaleza. Las fantásticas teorías de Pitágoras sobre los cielos se
basaron en sus descubrimientos muy reales de las leyes de las
armonías musicales y de los poliedros regulares (formas sólidas
cuyos lados son polígonos idénticos).
Aspectos del dualismo pitagórico fueron elaborados en un poderoso
e inmensamente importante sistema de filosofía en la obra de Platón,
que nació medio siglo después de la muerte de Pitágoras. En los casi
veinticincocientos años transcurridos desde entonces, las ideas de
Platón se han vuelto tan omnipresentes que todavía hoy influyen en
la ciencia.
Gran parte del inmenso atractivo de Platón a través de los tiempos
reside en su defensa de la razón humana. La racionalidad, no la
autoridad antigua, es la guía de Platón al conocimiento y a la
moralidad, al Bien Supremo. Pero al mismo tiempo, Platón enfatiza
que el conocimiento viene sólo a través de la razón, disminuyendo el
papel de los sentidos y del reino terrenal como un todo. Según
Platón, el universo que vemos se basa en formas ideales, que están
imperfectamente encarnadas en varios objetos; por ejemplo, los
caballos individuales son encarnaciones de la forma ideal de un
caballo de la que deriva su existencia. Dado que estas formas ideales
son ideas, no pueden ser percibidas por los sentidos, sino sólo
descubiertas por el uso de la razón, guiadas por un uso crítico de la
lógica.
En el Timaeus Platón formula una historia de cosmología y creación
coherente con este concepto de conocimiento humano. Al principio
de los tiempos, un creador benéfico usaba las ideas o formas eternas
para moldear la materia preexistente y caótica. (Al igual que
Pitágoras, Platón creía que la base última de estas formas era
matemática y geométrica.) El creador moldeó la materia en
aproximaciones de estas formas ideales, creando un universo regido
por leyes matemáticas eternas, leyes que los humanos pueden
deducir a través de la razón. Estas leyes matemáticas eternas son la
verdadera realidad, mientras que el universo cambiante que vemos es
mera apariencia: la observación de la naturaleza es, por lo tanto,
poco fiable.
Platón enfatiza la implicación ética de esta distinción: las formas
ideales son la fuente de todo bien, mientras que la materia básica y
terrenal es la fuente de los males del mundo. El mundo mundano y
cambiante de la vida diaria no puede ser usado para entender los
cielos eternos, perfectos e inmutables. El movimiento más perfecto,
el movimiento circular, ocurre sólo en el cielo, no en la tierra.
Platón desarrolló así otro modo de pensar sobre el universo y la
creación. Contra la tradicional apelación a la autoridad, Platón
contrapone el poder de la razón humana. Pero Platón ataca la
observación como una ruta al conocimiento y separa estrictamente
los mundos de pensar y hacer, el espíritu y la carne, los cielos y la
tierra. De este modo, creó un mito matemático, una barrera
formidable para el desarrollo de la ciencia.
La creencia de Platón en la supremacía de la razón pura lo llevó
necesariamente a formular un mito para explicar los orígenes
racionales del universo, y así condujo al restablecimiento de la
autoridad como la fuente de todo conocimiento. Las observaciones
que Platón rechazó tan firmemente tienen la gran ventaja de la
objetividad. Pero una teoría del universo basada en formas
matemáticas ideales se basa en la autoridad de un sacerdocio de la
razón que puede dictar qué formas matemáticas son las más ideales,
las más bellas, las más perfectas: las que el creador eligió al
principio. La historia de la creación que se basa en tal autoridad
sacerdotal es tanto un mito como los cuentos egipcios de Keb y Nut.
Las matemáticas pueden hacer que el mito sea más impresionante,
pero no más objetivo.
Por lo tanto, no fue accidental que el mito matemático de Platón
integrara a los dioses griegos tradicionales, que eran los ayudantes
del creador, y que guiaban a los planetas y a las estrellas, los seres
divinos mismos, en sus senderos perfectos. El mito racional de
Platón hace que la mitología irracional anterior vuelva a ser
respetable, y produce una cosmología que separa de nuevo el
pensamiento y la acción, los cielos y la tierra. En el proceso, erige
más obstáculos para la ciencia: un mundo habitado por una multitud
de seres divinos que controlan las estrellas y los vientos no es un
tema adecuado para la investigación científica.
El concepto de Platón de las leyes matemáticas eternas es doble. La
creencia en tales leyes y la búsqueda de las mismas ha sido
inmensamente importante para la ciencia. Pero los científicos han
tenido dos puntos de vista opuestos sobre lo que son estas leyes,
puntos de vista que han coloreado sus investigaciones. Un punto de
vista sigue a Platón y cree que las leyes verdaderamente gobiernan el
universo, que el universo es la encarnación de las matemáticas
abstractas, "la mente de Dios", conocible sólo por la razón. El otro
punto de vista, bastante diferente, es que las leyes matemáticas son
descripciones de procesos físicos y patrones en la naturaleza - la
realidad es el proceso descrito por las matemáticas, el lenguaje de la
ciencia exacta. Estas diferentes interpretaciones de las leyes
matemáticas han afectado los debates en cosmología hasta el día de
hoy.

■ CIELO, TIERRA Y ESCLAVITUD

Platón concibió su visión del universo como coherente con su


concepto de la sociedad ideal y como un refuerzo de la misma. En
esa sociedad, esbozada en su diálogo La República, todo el
pensamiento debe ser hecho por reyes-filósofos, ayudados por una
pequeña élite de guardianes. Nadie más tiene derechos políticos o
sociales.
Como las ideas y la materia, el cielo y la tierra, están separados en la
creación, así los guardianes y los reyes-filósofos deben ser separados
de los que trabajan: los esclavos deben trabajar sin pensar, y los
reyes-filósofos deben pensar sin trabajar. Así como el creador dio las
leyes matemáticas eternas al universo, así los reyes-filósofos dan
leyes a la sociedad.
La República de Platón, un rechazo a la democracia ateniense, se
basó en Esparta, donde un pequeño grupo de terratenientes
gobernaba sobre una masa de siervos sin derechos, o helots. Sparta
había derrotado a Atenas en la Guerra del Peloponeso, que duró
treinta años y que comenzó en el año del nacimiento de Platón, en el
año 428 a.C. Atenas se vio privada de sus colonias tras la derrota, y
estalló en un conflicto social en el que los terratenientes ricos
lucharon contra los propietarios libres y los artesanos. Para
protegerse de las crecientes demandas de abolición de la deuda y
distribución de la tierra, los terratenientes buscaban combatir la
democracia política y construir una sociedad jerárquica. Platón se
convirtió en el teórico de esta nueva sociedad, racionalizada en la
República y justificada por la cosmología de Timeo.
Las dos formas de ver el universo que surgieron en la antigua Grecia
y que aún hoy combaten fueron desde el principio dos formas de
sociedad enredadas y justificadas. El dualismo platónico describe un
cosmos conocible sólo por la pura razón de los pocos que entonces
tenían el derecho de gobernar sobre los muchos, como los cielos
gobiernan la tierra, como el alma gobierna el cuerpo, como el amo
gobierna al esclavo. Era la visión del mundo de los esclavistas. La
ciencia alternativa jónica asumió un mundo conocible por la
observación, donde el pensamiento y el trabajo se unieron. Era la
visión del mundo de los artesanos y campesinos libres. El
conocimiento está al alcance de todos y, por lo tanto, el poder no
puede ser el monopolio de unos pocos. Esta ciencia era hija de la
democracia y del trabajo libre y sería, durante los próximos dos mil
años y más, el enemigo constante de la autoridad y la esclavitud.

IDEAL Y OBSERVACIÓN

Mientras que Grecia generó dos métodos de aprendizaje sobre el


cosmos, dos cosmologías, fue una especie de síntesis mestiza del
mito matemático con el método observacional lo que triunfó. Una
vez más, la razón radicaba en el desarrollo social. Ni la Esparta
autoritaria ni Jonia libre se convirtieron en el modelo de la evolución
social del Mediterráneo. En cambio, la esclavitud, el trabajo libre y
el comercio expandido coexistieron en los siglos que siguieron a la
caída de Atenas.
Donde el imperialismo ateniense había fracasado, el imperialismo
macedonio tuvo un éxito espectacular. Comenzando en 330 B.C.,
Alexander el grande conquistó el área ahora ocupada por Turquía,
Siria, Jordania, Iraq, Irán, y Egipto, y él estableció colonias de los
freeholders, de los artesanos, y de los comerciantes griegos. La
población libre aumentó, el comercio en todo el Mediterráneo
floreció y el nivel de vida aumentó.
A diferencia de los nobles de Esparta, los mercaderes del mundo
helenístico necesitaban observaciones de la naturaleza para acelerar
sus barcos a través del Mediterráneo y hacia los puertos de la India.
Incluso antes de la conquista de Alejandro, los estudiantes de Platón
habían comenzado a realizar observaciones astronómicas
sistemáticas para convertir sus ideas sobre los movimientos
circulares perfectos en una explicación de los movimientos
observados de los planetas. Uno de esos discípulos, Eudoxus, creó un
sistema de esferas en movimiento, con la tierra en su centro, que
llevaba a los planetas, el sol y la luna en sus complejos viajes. Este
fue el sistema cosmológico de movimiento perfecto que Aristóteles
popularizó (Fig. 2.2).

Fig. 2.2. Los cielos, según Eudoxus, estaban centrados en la tierra, y cada
planeta se llevaba en su propia esfera. Más tarde, Ptolomeo agregó epiciclos
(círculos pequeños) y compensó las esferas para que coincidieran mejor con las
observaciones.

Tras la muerte de Alejandro, los distintos herederos de su imperio y


de sus provincias comenzaron una larga lucha para hacer valer su
poder; el ímpetu para la observación sistemática aumentó. Los
Ptolomeo gobernantes (sin relación con el astrónomo) en Egipto
establecieron el Museo de Alejandría como una biblioteca de
investigación dotada de fondos liberales para generar y centralizar
tales observaciones. La astronomía alejandrina, por ejemplo, utilizó
la observación para resolver problemas prácticos de navegación.
A partir de estas observaciones se obtuvieron resultados teóricos
sorprendentes. Usando los descubrimientos de Euclides en
geometría, Aristarco de Samos estimó a partir de las observaciones
que el sol estaba a cinco millones de millas de distancia y seis veces
más grande que la tierra. Hiparco, a finales del siglo II a.C., refinó
estas medidas y obtuvo con precisión las distancias y tamaños reales
del sol y la luna. El sol, se dio cuenta, era cien veces más grande que
la tierra en diámetro, quizás un millón de veces más masivo.
Para Aristarco, la idea de que un sol mucho más grande, incluso seis
o siete veces más grande, debería girar a una gran distancia alrededor
de la pequeña tierra no parecía sensata. Más importante aún, la
creciente precisión de las observaciones le llevó a concluir alrededor
del año 250 a.C. que la idea de que los cuerpos celestes se mueven
en círculos perfectos alrededor de la tierra debe ser errónea. En
cambio, las observaciones podrían ser mucho mejor explicadas si se
asumiera que la tierra y los planetas orbitan el sol, la luna sola
orbitando la tierra, y la tierra girando sobre su eje.
Los puntos de vista correctos de Aristarco fueron rechazados por
otros científicos antiguos, incluyendo el posterior Hiparco, quien
calculó que el sol es mucho más grande de lo que incluso Aristarco
pensaba. Aceptar el sistema heliocéntrico de Aristarco significaba
abandonar la jerarquía platónica de los cielos y la tierra: el sol, y no
la tierra, quedaría inmóvil, y la tierra, junto con los demás planetas,
se movería en círculos perfectos. Pero tampoco podían aceptar
totalmente el desprecio de Platón por la observación; los mercaderes
que dependían de ellos ciertamente no podían permitírselo. Por el
contrario, sistematizaron la observación de una manera que los
jonios nunca tuvieron.
En cambio, los astrónomos se comprometieron, y en el proceso
forjaron un método científico que contenía en su interior las
tensiones de la sociedad antigua; y que, para bien o para mal,
perduraría durante milenios. Por un lado, las suposiciones básicas
sobre el universo deben provenir de la razón pura, que puede
comprender las leyes matemáticas de los pies de los cielos. Por otro
lado, la observación sirve para corregir estas leyes matemáticas
básicas en la práctica, modificándolas según sea necesario para
"salvar el fenómeno" o para ajustar las observaciones. Así que, en
lugar de desechar el geocentrismo y la filosofía platónica que lo
acompañaba, Hiparco y sus sucesores -sobre todo Ptolomeo-
agregaron nuevas suposiciones consistentes con sus ideas
matemáticas para cerrar la brecha entre la teoría y la observación. Al
simple movimiento circular de los objetos celestiales, añadieron
movimientos circulares menores (epiciclos), colocaron el centro de
una órbita en sí mismo en una órbita (deferentes), o añadieron
esferas inclinadas adicionales. El resultado fue un fantástico
mecanismo de relojería, un invento neoplatónico de Rube Goldberg.
Por supuesto, un método científico de este tipo puede producir
teorías que se ajustan a la observación. Pero una ciencia que lucha
por una nueva y arbitraria entidad que hará de jurado en el acuerdo
de la teoría y cada nueva observación no es ciencia en absoluto. La
capacidad de predecir lo que aún no se ha observado es el principal
uso de la ciencia para la humanidad. La mejor ciencia busca patrones
simples en la naturaleza, no porque la naturaleza sea de alguna
manera mística "simple", sino porque sólo los patrones simples son
de mucha utilidad para hacer predicciones.

EL PROBLEMA CON LOS EPICICLOS


Si un científico traza hoy una serie de medidas en un trozo de papel
cuadriculado, quiere saber una fórmula matemática que prediga
nuevas medidas, nuevos puntos en la curva, que todavía no se han
hecho. La fórmula así obtenida, si es confirmada por la observación,
salvará el trabajo de hacer las nuevas observaciones para cada nueva
situación y puede conducir a nuevos conceptos sobre la naturaleza.
Ahora hay maneras matemáticas de simplemente tomar cualquier
conjunto de, digamos, doce puntos y trazarlos en una curva, sin saber
nada de la relación física que subyace a la medición. Pero tal curva
tiene doce factores independientes, cada uno derivado de una sola
medición. La probabilidad de que tal curva pueda predecir con
precisión incluso la decimotercera medición, por no hablar de la
centésima, es cada vez menor. Sin embargo, si el científico, por
ensayo y error, u observando la relación física subyacente, encuentra
una fórmula con un solo factor que necesita ajustarse a, digamos, un
punto, y que luego se ajusta a los otros once, puede estar seguro de
que, por inducción, es probable que el centésimo punto también se
ajuste.
Pero si el científico se aferra a una noción preconcebida de lo que
(por razón) debe ser la relación matemática, e introduce factores
adicionales para salvar tanto la teoría como las observaciones, no
resultará ninguna teoría útil y predictiva. Es de esta manera que la
apelación platónica a la razón pura se ha interpuesto una y otra vez
en el camino del avance científico y técnico.
La síntesis lograda en el año 100 a.C. ensalzó la racionalidad
necesaria para el progreso técnico, un progreso esencial para la
supervivencia de los pequeños agricultores, artesanos y
comerciantes. Pero estaba dominada por un dualismo que justificaba
a los poderosos esclavistas que gobernaban la sociedad antigua. La
separación de la materia y el espíritu, la acción y el pensamiento, la
glorificación de la razón pura y la autoridad del mito y la tradición,
se convirtieron en los fundamentos ideológicos de la sociedad
esclava, una sociedad hostil al progreso técnico y a la investigación
científica.

LA GÉNESIS DE LA GÉNESIS

En el principio Dios creó el cielo y la tierra. Y la tierra estaba sin forma y vacía;
y las tinieblas estaban sobre la faz del abismo. Y el Espíritu de Dios se movía
sobre la faz de las aguas. Y dijo Dios:'Hágase la luz'; y hubo luz. Y Dios llamó a
la luz Día y a las tinieblas Noche. Y la tarde y la mañana fueron el primer día. Y
dijo Dios:'Haya un firmamento en medio del agua, y separe el agua del agua'; e
hizo Dios el firmamento, y separó las aguas que estaban debajo del firmamento
de las aguas que estaban sobre el firmamento; y así fue. Y llamó Dios al
firmamento Cielo, y la tarde y la mañana fueron el segundo día. Y dijo
Dios:'Reúnanse las aguas que están debajo del cielo en un solo lugar, y aparezca
la tierra seca'; y así fue. Y llamó Dios a la tierra seca, y a la reunión de las aguas
llamó mares; y vio Dios que era buena.
- GÉNESIS 1:1-10, c. 430 a.C.

Al final del primer acto, alrededor del año 100 a.C., una de las dos
ideas centrales de la cosmología convencional -un universo
conocible principalmente por la razón pura- había surgido en las
luchas por crear la sociedad antigua. En el segundo acto del drama,
desde el año 100 a.C. hasta el 400 d.C., la segunda gran idea de la
cosmología moderna -un universo creado de la nada y en decadencia
desde su origen perfecto- surge con la caída de la sociedad antigua.
La síntesis ptolemaica se divide en dos visiones opuestas del cielo y
de la tierra; de nuevo, el conflicto subyacente es entre el trabajo libre
y el trabajo forzado.
Una cosmología elabora el dualismo que separaba el cielo de la
tierra, y abandona la racionalidad platónica en una renovación de la
magia y lo oculto. Una tierra "creada de la nada y casi de la nada" se
convierte en la justificación cosmológica de una humanidad
justamente subyugada a la autoridad absoluta. La otra, la tendencia
antidualista, toma del platonismo sólo su apelación a la razón,
afirmando la bondad del mundo material y retrocediendo hacia las
ideas jónicas de la unidad del cielo y la tierra. En oposición a la
sociedad esclava, esta visión del mundo defiende las doctrinas
radicales de la igualdad y la libertad humanas.
Las ideas antidualistas surgieron de la tradición religiosa del
judaísmo y del cristianismo primitivo. Contrariamente a lo que se
supone comúnmente, la doctrina de la creación ex nihilo-creación de
la nada - no viene del primer capítulo del Génesis. El Génesis cuenta
cómo Dios creó los cielos y la tierra organizando un caos
preexistente, "las aguas": "La tierra estaba sin forma y vacía; y las
tinieblas estaban sobre la faz de las profundidades. Como dice el
biblista Nahun Sarna,"Génesis guarda silencio sobre el origen del
caos inicial, principalmente porque los sacerdotes que escribieron el
relato no tenían interés en esa cuestión. Su preocupación era cómo
Dios creó el orden en el universo".
Mientras que la creación ex nihilo surgió de una tradición dualista, el
primer capítulo del Génesis es, en gran medida, una polémica contra
el dualismo pagano y su denigración del mundo material. Existen,
sin duda, importantes similitudes entre el Génesis y las historias de la
creación platónica (ambas escritas alrededor del año 400 a.C.).
Ambos hablan de un único creador que hace el cosmos según un plan
razonado. Pero el creador de Platón puebla los cielos con seres
divinos: el sol, la luna y las estrellas, las divinidades de la religión
griega tradicional. Por el contrario, en el Génesis los cielos son
creados exactamente de la misma manera que la tierra y no tienen
más perfección. En lugar de que el sol y la luna sean divinidades,
Génesis las degrada a meros objetos funcionales: una luz mayor y
una luz menor. Ya sea creando el sol y la luna o los pájaros y las
bestias, Dios pronuncia el trabajo de cada día igualmente "bueno".
Así como los cielos no están llenos de perfección divina, tampoco la
tierra, la materia o la humanidad están subordinados, como lo están
en Platón. El hombre no es creado a partir de un alma separada y
superior con un cuerpo inferior. Dios simplemente crea al hombre y a
la mujer "a su propia imagen", de modo que los humanos, tanto
hombres como mujeres, participan en cierta medida en la perfección
de Dios, no sólo en sus almas, sino en todo el ser unificado.
Esta diferencia crucial no es sorprendente dada la historia de los
israelitas: con breves excepciones, su sociedad de campesinos y
pastores era continuamente oprimida por uno u otro grupo
conquistador. En este suelo, el desprecio platónico por este mundo, la
separación del pensamiento y la acción, amo y esclavo, no se arraigó.

EL COSMOS CRISTIANO PRIMITIVO

La idea de un origen de la nada tampoco surge en el cristianismo


primitivo. El cristianismo, originalmente una secta judía, surgió de
las tradiciones igualitarias del judaísmo. Jesús habló a los humildes
del mundo y atacó el dualismo y la desigualdad de la sociedad
pagana. Mientras el dualismo ponía una brecha insalvable entre la
perfección celestial y la corrupción terrenal, Jesús enseñó la
alcanzabilidad de la perfección en la tierra: "Sed, pues, vosotros
perfectos, como vuestro Padre que está en los cielos"; de hecho, tal
perfección llegaría pronto al Reino de Dios en la tierra.
Contra la autoridad de los sacerdotes judíos o de los filósofos
paganos, las parábolas de Jesús apelan al sentido común de la gente
común. Sus analogías, basadas en la experiencia común de las malas
hierbas, los árboles y las casas, son antitéticas a conceptos tan
abstrusos como la creación ex nihilo. Cuando los primeros cristianos
comenzaron a hacer proselitismo activamente en medio de la cultura
grecorromana, impregnada de ideas platónicas, el cristianismo siguió
oponiéndose al dualismo y a su cosmología. Clemente de Alejandría,
un destacado teórico cristiano que vivió a finales del siglo II d.C.,
atacó la división platónica entre cielo y tierra, hombre libre y
esclavo, denunciando la sociedad antigua y la ideología que la
justificaba. Mientras Clemente admira la glorificación de la razón de
Platón, niega la visión platónica de la materia como el origen del
mal. Clemente reafirma la bondad del hombre y de la materia, y sitúa
la fuente del mal en la ignorancia y la costumbre, que esclaviza a los
hombres con ideas irracionales.
Ni Clemente ni ningún otro cristiano primitivo era en un sentido
moderno abolicionista, pero para Clemente la esclavitud era un mal
absoluto. Como lo demuestra Elaine Pagels en Adán, Eva y la
Serpiente, Clemente y otros cristianos creían que "todas las personas
son engendradas por igual, con capacidad y habilidad para razonar y
emocionar, sin preferencia por la edad, el sexo o el estatus social".
Los primeros cristianos no desarrollaron cosmologías propias, pero
al atacar la esclavitud y el dualismo estaban erosionando los
principales obstáculos ideológicos, sociales y económicos que habían
impedido el avance científico en los siglos precedentes. (La
expansión comercial que había surgido de las conquistas de
Alejandro había terminado tres siglos antes, en el año 100 a.C., y la
dependencia de la sociedad helenística de la esclavitud impedía
cualquier avance en la tecnología de la producción). En lugar de
fomentar la cosmología platónica, los primeros cristianos la
desecharon. Sin embargo, después de la época de Clemente,
alrededor del año 200 d.C., un cambio repentino en el pensamiento
cristiano llevó a la idea de un mundo creado de la nada.

Y no había otra cosa aparte de ti, de la cual pudieras crearlos, oh Dios, Trinidad
Única y Unidad Trinitaria; y por eso de la nada creaste el cielo y la tierra; una
cosa grande y una cosa pequeña; pues tú eres Todopoderoso y Bueno, para hacer
todas las cosas buenas, aun el gran cielo y la tierra pequeña. Tú eras, y no había
nada más, de lo cual creaste los cielos y la tierra; cosas de dos clases: una cerca
de ti, la otra cerca de la nada; una a la que sólo tú debías ser superior, la otra a la
que nada debiera ser inferior.
- AGOSTO, CONFESIONES, XII. 7, c. 400 d.C.

LA CAÍDA DE ROMA Y EL ORIGEN DEL UNIVERSO

Como en la antigua Grecia, las inmensas acumulaciones de riqueza


en el Mediterráneo después del año 100 a.C. se basaron en la
conquista y el imperialismo. En la batalla por el imperio de
Alejandro, Roma emergió para tragarse todo el Mediterráneo. Las
legiones romanas impusieron impuestos ruinosos, saqueando la
riqueza existente pero no creando ninguna. La esclavitud se extendió
masivamente y los niveles de vida cayeron precipitadamente en todo
el imperio.
Aunque hubo un período de recuperación a principios del siglo I
d.C., a finales del siglo XX la derrota romana a manos de las tribus
germánicas puso fin a la expansión del imperio. Con el corte del
suministro de esclavos, las depredaciones internas de los romanos
aumentaron: los impuestos se dispararon y la población comenzó a
disminuir. En la juventud de Clemente una plaga diezmó a la
población debilitada, y en su madurez el imperio entró en un período
de crisis a medida que la revuelta y la persecución se extendió por
todas partes.
En esta larga época de creciente miseria y opresión, el cristianismo
se convirtió en la única oposición de todo el imperio al sistema de
esclavitud de Roma. El mensaje cristiano primitivo de la hermandad
universal de toda la humanidad, la antítesis de la regla de los
ladrones de la legión, apelaba a los esclavizados y a los pobres. A
medida que sectores más amplios de la población desertaron de la
lealtad a Roma, los cristianos educados formularon un poderoso
argumento racionalista antidualista contra la ideología que justificaba
el imperio.
Pero la oposición cristiana no dirigió una guerra santa contra la
Roma pagana. Por el contrario, el caos y las persecuciones salvajes
del tercer siglo crearon una fuerte ruptura con el cristianismo
primitivo. Creó entre muchos teólogos cristianos un creciente
pesimismo, un retiro de los dolores de esta vida, un retiro de la
racionalidad y una aceptación resignada de la sociedad y las ideas
existentes. En los siglos III y IV, el pensamiento cristiano se dividió
en dos tendencias: una transformó el cristianismo del principal
enemigo de la sociedad existente a su principal baluarte. La postura
opositora anterior se convirtió en la fe de una minoría herética.
Es en este contexto social donde nace la contribución cristiana a la
cosmología, la creación de la nada, como forma de reconciliar el
cristianismo con la sociedad existente y su estructura social dualista.
La doctrina fue formulada por primera vez por el teólogo-abogado
Tertuliano, contemporáneo de Clemente, que se convirtió al
cristianismo a principios del siglo III.
Tertuliano abrazó el dualismo platónico y rechazó su racionalidad.
Sólo importa la fe, no la razón: "Que el hijo de Dios haya muerto es
creíble porque es absurdo", escribió, "y el hecho de que haya
resucitado es cierto porque es imposible".
Para Tertuliano, como para los neoplatonistas paganos, el mundo
material es malo. Pero, ¿cómo podría un Dios omnipotente y bueno
haber creado un mundo malo? La solución de Tertuliano fue la
doctrina de la creación de la nada. El mundo material es malo,
argumenta Tertuliano, porque tuvo un comienzo en el tiempo: el
momento de la creación. Las cosas que tienen comienzos
necesariamente tienen fines, son finitas y están sujetas a la
decadencia, por lo tanto son imperfectas, de ahí la fuente del mal.
Por el contrario, sólo Dios, que es eterno e infinito, puede ser
totalmente bueno y divino. Su infinitud lo hace divino y lo separa del
mundo material finito.
La creación ex nihilo fue para Tertuliano lo que separó la tierra finita
y en decadencia del cielo infinito y divino. Veremos esta poderosa
idea de la finitud del mundo surgir repetidamente como un axioma
básico de la cosmología.

EL COSMOS AGUSTINIANO

La idea de un universo creado de la nada surgió como una forma de


reconciliar al Dios cada vez más abstracto del cristianismo con una
tierra y una sociedad degradadas. En las torturadas décadas del siglo
III, la negación del mundo y la racionalidad de Tertuliano se
convirtieron en la tendencia dominante en el movimiento cristiano.
Se elaboraría en una nueva cosmología a medida que la Iglesia y el
imperio se fusionaran en el siglo siguiente.
Del caos del siglo III, los emperadores Diocleciano y Constantino
reorganizaron completamente el Imperio Romano. Para entonces, el
comercio a gran escala había colapsado, y la esclavitud también se
había desintegrado, ya que los suministros se habían agotado y la
población había disminuido. El imperio reorganizado era una
sociedad basada en siervos empobrecidos, atados a la tierra y criando
alimentos de subsistencia para poderosos terratenientes:
prácticamente toda la población fue reducida a un nivel no muy
superior al de los esclavos. Era una prefiguración de la sociedad
medieval, pero mucho más opresiva, ya que las voraces demandas
del Estado imperial se superponían a la codicia de los terratenientes
locales.
En este imperio de compulsión universal no podía haber lealtades en
competencia. El cristianismo seguía siendo el único desafío posible:
tenía que ser extirpado o aceptado por el Estado imperial.
Diocleciano tomó el camino de la represión con persecuciones
salvajes y generalizadas. Cuando esto fracasó, Constantino tomó el
otro camino de la fusión, convirtiéndose al cristianismo y casi
inmediatamente sometiendo a la Iglesia al dominio imperial.
Muchos cristianos se rebelaron contra la idea de una alianza con el
imperio al que habían luchado tanto tiempo. Pero muchos más vieron
las ventajas para la Iglesia de un nuevo y poderoso amigo. El más
destacado de ellos fue Agustín, obispo de Hipona, una ciudad del
norte de África. Agustín formuló la ideología de la nueva alianza de
Iglesia y Estado, una alianza que daría forma a los próximos mil años
de la historia occidental. Trató de reconciliar a los cristianos con el
gobierno imperial -convirtiendo a la Iglesia en un poderoso sostén de
la autoridad secular-, así como de reconciliar con el cristianismo a
los paganos que dirigían el imperio.
El fundamento de esta doctrina era un nuevo mito cosmológico, y la
creación ex nihilo era central en ese mito. Para Agustín, como para
Tertuliano, la creación ex nihilo necesitaba la insalvable brecha entre
el cielo y la tierra, la denigración extrema del mundo material
"creado de la nada y casi de la nada".
La brecha infinita entre el eterno e ilimitado Dios perfecto y la tierra
transitoria y finita era un reflejo del imperio que Agustín aceptó
como una prisión necesaria para la voluntad rebelde del hombre: un
emperador con poderes divinos y súbditos sin el más mínimo indicio
de libertad.
Pero Agustín fue mucho más allá de Tertuliano, al crear una
justificación cosmológica para el dominio imperial. El sufrimiento y
la opresión derivan no sólo de la finitud abstracta de la creación, sino
también de un proceso continuo de decadencia desde la perfección
del principio. Dios ha sometido a la humanidad a una carga de
maldad siempre creciente como castigo justo por el pecado de Adán.
Agustín desarrolló una nueva cosmología y filosofía política a partir
de la historia del Edén.
La historia de Adán y Eva en la Biblia, que data de cuatro o cinco
siglos antes de la historia del primer capítulo del Génesis, implica
una actitud más ambigua hacia la bondad del mundo existente. 1
Agustín transformó esa ambigüedad en una condena categórica del
mundo material. Para Agustín, la naturaleza como un todo,
incluyendo la humanidad, fue corrompida irremediablemente por el
pecado de Adán. No sólo el dolor del parto, sino todo el sufrimiento,
la enfermedad, el hambre y la miseria de este mundo, y la muerte
misma, son el castigo justo de Dios por ese pecado que fue
transmitido por el acto sexual a todas las generaciones subsiguientes.
Para Agustín, los recién nacidos maldecidos con ceguera o
deformidad no están sufriendo inocentes, sino que están siendo
justamente castigados por el pecado de Adán; si mueren sin bautizar,
arderán eternamente en el infierno.
De este pecado inicial vinieron no sólo los males naturales sino
también los políticos. Agustín dice que después de la caída de Adán,
el hombre carece del libre albedrío para evitar el pecado. No sólo la
esclavitud, sino todas las formas de gobierno del hombre por el
hombre, incluido el propio imperio, son instituciones necesarias
impuestas a todos los seres humanos, cristianos e incrédulos por
igual, porque todos carecen de la voluntad de gobernarse a sí
mismos.
Para Agustín, es inevitable que estos males no sólo existan sino que
crezcan, a medida que el mundo degenera a partir de la época
perdida del Edén. Los cristianos anteriores habían considerado que el
progreso humano se veía frenado sólo por el peso de la ignorancia y

1. Génesis cuenta la historia de la creación dos veces, una vez en el capítulo 1,


los siete días, y otra vez en el capítulo 2, la historia del Edén. Los becarios
concuerdan en que ambos se compusieron por separado.
las costumbres paganas. Pero Agustín veía la sociedad existente
como necesaria, no como una barrera para el progreso. Para él, el
progreso no existía. En su gran obra La ciudad de Dios, Agustín
interpreta la caída de Roma a los visigodos y otras catástrofes
terrenales como consecuencia de la decadencia cósmica. El universo
había comenzado en un momento en el tiempo, de la nada, y
terminaría en un cierto momento, volviendo a la nada. Los males de
este mundo pasajero deben ser soportados. Sólo fijando firmemente
los ojos en el otro mundo se puede esperar la salvación.
Como Tertuliano, Agustín absorbió el dualismo y el pesimismo del
Platonismo tardío, su denigración de los sentidos. En un mundo
depravado, argumentó Agustín, no se puede confiar en los sentidos.
El conocimiento viene sólo del intelecto, de la autoridad de la
Iglesia.
Una consecuencia de la devaluación radical de Agustín del mundo
material (y de su deseo de reconciliar a paganos y cristianos) fue su
fácil aceptación de los dioses paganos. Los muchos dioses adorados
por los paganos pueden existir como criaturas del único Dios que
creó todo de la nada: los cristianos los llaman ángeles, escribió
Agustín, "pero si ellos[los platonistas] consideran apropiado llamar
dioses a estas criaturas benditas e inmortales, esto no tiene por qué
dar lugar a ninguna discusión seria entre nosotros".
Así, hacia el año 400 d.C. Agustín había elaborado una cosmología
extrañamente similar al Big Bang: un universo creado en un instante
de la nada, decayendo desde un origen perfecto hacia un fin
ignominioso, poblado por criaturas extrañas y milagrosas, y
conocible sólo por la mente, no por los sentidos. Estas concepciones
fundamentales surgieron como justificaciones religiosas y filosóficas
para una sociedad en decadencia y opresiva.
Ciertamente, los orígenes de estas suposiciones no invalidan
necesariamente ninguna teoría cosmológica moderna. Pero es
imposible entender por qué estas suposiciones han vuelto a estar tan
arraigadas en la cosmología sin conocer su historia. Porque como
veremos en el Capítulo Cuatro, el resurgimiento de estos axiomas en
el siglo XX está de nuevo enredado con el desarrollo de la sociedad
en su conjunto.

LA VICTORIA DE LA COSMOLOGÍA AGUSTINIANA

La conexión integral entre la cosmología, la teología, la moralidad y


la política de Agustín fue reconocida por sus oponentes de la época.
El más importante de ellos fue un monje británico, Pelagius, que
contrarrestó con una visión del mundo igualmente completa. La
enfermedad y los dolores de este mundo, la muerte misma,
enseñaron Pelagio y sus discípulos, no son castigo por los pecados,
sino el resultado de las leyes de la naturaleza. Puesto que la
naturaleza existe independientemente del hombre, es imposible que
la muerte, el dolor del parto, la deformidad y la enfermedad deriven
de la caída de Adán: "El mérito de una sola persona no es tal que
pueda cambiar la estructura del universo mismo", exclama Julián,
discípulo de Pelagio. Por primera vez en un milenio, Pelagio y Julián
revivieron la idea de los antiguos jonios de una naturaleza distinta de
la voluntad humana, una naturaleza cuyo funcionamiento y procesos,
cuyos nacimientos y muertes, pueden aprenderse mediante la
observación.
Esta visión de la naturaleza está más directamente relacionada con
las cuestiones sociales que en la época griega. Porque si la naturaleza
se rige por procesos que todos pueden ver, no por castigos ideados
por un Dios caprichoso, entonces lo mismo debe ocurrir con la
sociedad humana. La voluntad humana es libre y permanece libre
para el cristiano, que puede alterar sus propios impulsos y anhelos y
someterlos a su razón y moralidad. Para Pelagio, los males de la
sociedad tienen causas y curas en este mundo, no en el siguiente.
Pelagio ensalza la libertad humana y denuncia a los ricos que
empobrecen a los pobres. La orden de renunciar a toda riqueza debe
ser tomada literalmente. Julián añade: "Si no hay ricos, no habrá
pobres".
Estos diferentes puntos de vista sobre el cosmos y la sociedad no
eran meros argumentos académicos entre los sacerdotes. En Egipto y
en todo el norte de África, la oposición al imperio, su sistema social
y la alianza de la Iglesia y el Estado habían alimentado el
movimiento donativo en el cristianismo. Mientras los bárbaros del
norte invadían Italia, los donatistas dirigieron una rebelión abierta
contra Roma. Los campesinos donativos y los trabajadores agrícolas
aterrorizaron a los terratenientes, recaudadores de impuestos y
acreedores, liberando a los esclavos y destruyendo los rollos de renta
y los títulos de propiedad de la tierra, desentrañando el tejido del
dominio romano. Los donatistas, que controlaban las iglesias
nacionales del norte de África, organizaron una rebelión que las
legiones imperiales no pudieron derrotar.
Fue en este punto cuando Agustín, "el martillo de los donatistas",
promulgó una doctrina para justificar la persecución de los herejes
por parte de la Iglesia y el Estado, trabajando juntos: la primera
inquisición. Él movilizó los propios y vastos recursos de la Iglesia
para acosar a los líderes de la herejía donatista de una manera mucho
más efectiva de lo que el imperio en decadencia podría hacerlo.
Igualmente importante en esta guerra civil abierta, dio una amplia
justificación ideológica a la lucha contra el donatismo, ganando a los
indecisos y fortaleciendo a los ortodoxos. Su cosmología de un
universo depravado, creado de la nada y casi de la nada, una
humanidad justamente castigada con la esclavitud, dio la sanción
moral al cruel y sangriento trabajo de los primeros inquisidores.
Los donatistas fueron aplastados por la combinación de la
inquisición católica y la fuerza imperial. Cuando los vándalos
invasores, después de saquear Roma, conquistaron el norte de África
en el año 430, el año de la muerte de Agustín, fueron capaces de
tomar el control como una empresa en marcha de las vastas fincas y
la población del imperio.
Con el colapso del imperio en Occidente, la cosmología de Agustín
fue adoptada por los cristianos en el siguiente milenio. Esta visión de
un mundo creado de la nada, cargado de pecado y miseria, y
gobernado correctamente por la dura autoridad de la Iglesia y el
Estado, se ajustaba perfectamente a la sociedad petrificada de los
terratenientes autosuficientes, que no necesitaban ni mercaderes ni
filósofos ni científicos. Sólo requerían una religión que animara a los
siervos a aceptar su destino. El mundo de Agustín, como el del
paganismo que el campesino conocía antes, era un mundo con una
brecha enorme entre el cielo y la tierra, una tierra poblada por
demonios y espíritus, brujas y demonios. Así como la sociedad
romana se retiró hacia el nivel del ismo agrario primitivo y
empobrecido, la cosmología de Agustín se retiró hacia el mundo
mágico e irracional del mito.
La doctrina de la creación de Agustín ex nihilo se convirtió en la
sabiduría ortodoxa de Occidente. Para el año 400 d.C. las antiguas
cosmologías habían evolucionado, al menos en Europa, en una sola
doctrina. El dualismo triunfó, el papel de los sentidos y el valor de
este mundo fue rechazado. El conocimiento vino sólo a través del
intelecto, guiado severamente por la autoridad de la jerarquía
eclesiástica. El universo finito, clasificado en esferas celestiales, se
hacía eco de la jerarquía de poder en la tierra. Había nacido de la
nada y dependía para su existencia de una deidad inescrutable cuya
justicia se mostraba, en palabras de Agustín, "en las agonías de los
niños pequeños"; esta visión sombría era, por supuesto, hostil al
menor vestigio de la ciencia.
3 - EL AUGE DE LA CIENCIA

El ojo nunca puede tener demasiada visión, así que la mente nunca está
satisfecha con la suficiente verdad.
- NICHOLAS DE CUSA, Sobre la ignorancia aprendida, 1440

La religión enseña a los hombres cómo ir al cielo, no cómo van los cielos.
- GALILEO GALILEI, 1616

El resultado, por lo tanto, de esta investigación física es que no encontramos


ningún vestigio de un comienzo, ninguna perspectiva de un fin.
- JAMES HUTTON, Teoría de la Tierra, 1785

El segundo giro del péndulo cosmológico, el tercer acto del drama


cósmico del 400 al 1900 d.C., revirtió completamente esta situación.
Nuevamente, las cosmologías finitas e infinitas, los métodos
deductivos y empíricos lucharon, pero esta vez prevaleció el
universo infinito. A finales del siglo XIX el mundo medieval de
señor y siervo había desaparecido y con él la cosmología medieval.
Las esferas ptolemaicas que llevaban a los planetas en sus círculos
perfectos, que fueron creadas en un instante, fueron reemplazadas
por un universo infinito, eterno, que evolucionaba por procesos
naturales, un universo conocible por la observación y el experimento.
Los métodos jonios fueron nuevamente aceptados como sabiduría.
Los científicos habían ido mucho más allá, creando una historia
detallada del mundo natural y una descripción detallada de su
funcionamiento, lo que permitió a la sociedad generar una tecnología
poderosa. Pero antes de que el surgimiento de la cosmovisión
científica pudiera ocurrir, los dos conceptos centrales de la
cosmología medieval tuvieron que ser derrocados: la idea de un
universo en decadencia, finito en el tiempo y el espacio, y la creencia
de que el mundo podía ser conocido a través de la razón y la
autoridad.
Este vuelco habría sido imposible dentro de la vieja sociedad. Sólo
pudo suceder cuando surgió la nueva sociedad de comerciantes,
artesanos, fabricantes y campesinos libres, una sociedad basada en el
trabajo libre. A su vez, las nuevas ideas se convirtieron en potentes
armas políticas en los esfuerzos por derrocar el poder autoritario. El
triunfo de la ciencia estaba ligado al triunfo del sistema de trabajo
libre. Debido a este vínculo, la cosmología se convirtió de nuevo, en
el Renacimiento y la Reforma, en algo por lo que la gente mataba y
moría.

EL PROGRESO DE LA HEREJÍA

En el primer milenio de este período, de 400 a 1400 d.C., hubo tres


intentos fallidos de desarrollar una nueva visión científica del
universo. Cada vez, la resistencia de la sociedad circundante derrotó
los esfuerzos, pero cada vez se desarrollaron nuevos conceptos que
allanaron el camino para seguir avanzando.
El primer paso hacia una nueva cosmología no fue en el ámbito de la
ciencia, sino en el de la política y la teología. Mientras no se
cuestionara el dualismo que dominaba, el acto mismo de investigar la
naturaleza se mantenía sin valor. Y atacar el dualismo del cielo y la
tierra en el mundo antiguo significaba atacar el dualismo de amo y
esclavo, gobernante y gobernado.
Este desafío comenzó durante la vida de Agustín, cuando las
facciones de las iglesias orientales asumieron los argumentos
políticos y morales de Pelagio o desarrollaron independientemente
otros similares. En el este, tanto la resistencia a la dominación
romana como las tradiciones de investigación libre tenían raíces más
profundas que en el imperio occidental. La Iglesia se dividió cada
vez más a favor y en contra del imperialismo, una división que llegó
a ser definitiva bajo el gobierno de Justiniano cien años después de
Agustín.
El gobierno de Justiniano, que comenzó en el año 527 d.C., fue uno
de los más duros de la historia imperial. Para financiar sus campañas
de reconquista de Italia, Justiniano acumuló impuestos sobre los
impuestos, provocando violentas revueltas tanto en Constantinopla,
la capital, como en las provincias. La devastación causada por sus
depredaciones en casa y su salvaje conquista de Italia y el norte de
África allanaron el camino para la gran plaga de Justiniano en 542.
La oposición al imperio en el este cristalizó alrededor de una facción
de la Iglesia llamada los Monofisitas, liderada por Severus de
Antioquía. Como la Iglesia y el Estado, la teología y la política eran
una sola cosa, la escisión se centró primero en una cuestión teológica
aparentemente arcana: ¿Cuál es la naturaleza de Jesús? ¿Están sus
naturalezas divina y humana separadas, como sostenían los
ortodoxos proimperiales Diphysites, o hay sólo una naturaleza, que
combina tanto la divinidad como la humanidad, como argumentaban
los Monophysites? Detrás de este debate aparentemente abstruso
yace la política de vida o muerte del imperio. Así como la parte
humana de Jesús estaba sujeta a esta voluntad divina, argumentaban
los difisitas, así también las masas meramente humanas del imperio
deben estar sujetas al emperador, la imagen de Dios en la tierra. Para
los monofisarios, la unidad de lo divino y lo humano en Jesús
simbolizaba la idea de que todos los hombres comparten lo divino y,
por tanto, el derecho de autogobierno. Por lo tanto, el imperio no
tenía justificación.
Lo más importante para el futuro ascenso de la ciencia, Severus
atacó por primera vez la noción de que el alma y el cuerpo están
separados. Así como los lados divino y humano de Cristo se
combinan en una sola naturaleza, escribe Severus, el alma y el
cuerpo de un hombre son una sola entidad: "Tomemos el ejemplo de
un hombre que construye una casa: elabora un plan, decide en qué
lugar y en qué orden hacer las cosas, luego comienza a cavar y a
sellar, a martillar y aserrar, a techar y a pintar.
El ejemplo sencillo de Severus, aparentemente trivial para una mente
moderna, golpeó la base de la ideología dominante. Un hombre que
planea y construye su propia casa asume el trabajo libre, no la
esclavitud o la servidumbre. En el imperio, un amo o señor decidía
adónde iría la casa y sus esclavos, siervos o inquilinos se verían
obligados a construirla. La acción y el pensamiento se dividirían
entre gobernante y gobernado. Pero si un hombre es un todo
unificado, entonces es capaz de planificar su propia vida y
gobernarse a sí mismo. Al mismo tiempo, no hay justificación para la
glorificación de la teoría y la denigración de la observación que
abortó la ciencia. Saber y hacer es una sola acción.
Severus preparó el camino para el renacimiento de la ciencia de una
segunda manera al revivir la causalidad: la idea de que un evento
conduce a otros eventos, que el hombre y la naturaleza pueden ser
entendidos como fenómenos históricos, autónomos de la
intervención divina. La ciencia es imposible sin este concepto básico.
La cosmovisión platónico-agustiniana era antihistórica. Dios creó el
universo de una vez por todas, creando a todos los individuos para
siempre como buenos o malos, gobernantes o gobernados. La causa
y el efecto fueron excluidos - las cosas sucedieron porque Dios lo
quiso, y así la ciencia no pudo comenzar a echar raíces.
En contraste, Severus ve a los seres humanos como procesos cuya
individualidad se basa en su historia -su paternidad, su educación,
sus acciones y sus decisiones morales- que los moldean para ser lo
que son. El mal surge históricamente, de las relaciones de las
personas entre sí en la sociedad, más que de la inherente
pecaminosidad del hombre o de la materia. Por lo tanto, para
combatir el mal, la sociedad debe cambiar. Esta revolución
justificada. La teología de Severus se convirtió en un grito de guerra
para todos aquellos que deseaban la destrucción del imperio de
Justiniano.
La idea de que las raíces del mal se encuentran en el desarrollo
histórico de una sociedad, que las leyes de causa y efecto pueden
aplicarse a los asuntos de los hombres, ha sido durante mil
quinientos años una de las ideas más subversivas de la historia de la
humanidad. Pero si los asuntos de la humanidad pueden ser
entendidos en términos de causas y efectos históricos, entonces el
mundo como un todo puede ser entendido de la misma manera. El
cosmos medieval de demonios y ángeles, de una caprichosa voluntad
divina, es barrido y el terreno despejado para el estudio de causas y
efectos, es decir, para el desarrollo de la ciencia.
Severus revivió así la batalla entre un mundo en evolución y uno
creado de una vez por todas. Como veremos, las ideas de un universo
evolutivo y de una sociedad evolutiva han permanecido entrelazadas
durante los siglos siguientes hasta el presente.

■ EL RENACIMIENTO DE LA OBSERVACIÓN

Las nociones filosóficas de Severus implicaban un cosmos que


unificaba el cielo y la tierra, un universo no creado por decreto, sino
que se desarrollaba mediante un proceso histórico. Sin embargo, con
Severus estas nociones seguían siendo políticas y filosóficas. Juan
Philloponus, un filósofo monofisista y contemporáneo más joven de
Severus, aplicó la unidad del alma y la materia a la cosmología.
Reviviendo las ideas de los jonios, argumentó que estas mismas
ideas se aplican a los cielos y a la tierra. Las estrellas no son ni seres
divinos ni perfectos, sino cuerpos materiales en llamas. Los cielos no
son inmutables, sino que están gobernados por los mismos cambios
que los objetos terrenales.
Para contrarrestar la autoridad abrumadora de la Iglesia, Aristóteles y
Platón, Juan volvió al énfasis jónico en la observación y los
experimentos. Al apoyar su afirmación de que las estrellas están
iluminadas por el fuego, Juan señaló sus obvias diferencias de color:
esto demuestra que no pueden ser cuerpos simples, hechos de éter
puro (el medio enrarecido que llena los cielos), como lo afirmaba el
dualismo, ya que sabemos que en la tierra diferentes materiales
producen diferentes coloraciones en el fuego, por lo que las estrellas
deben estar compuestas de diferentes materiales, como los de la
tierra. (Juan golpeó sobre la base de la espectrografía, que siglos más
tarde permitió a los científicos averiguar de qué están hechas las
estrellas.)
El enfoque de Juan, sin embargo, era limitado: se refiere a los
experimentos y a la observación con frecuencia, pero aún así los
subordina a la investigación filosófica. Igualmente significativo, Juan
no cuestionó el universo finito y geocéntrico de la antigüedad tardía.
Aun sin estas serias limitaciones, la obra de Juan no podría haber
llevado a un pronto renacimiento de la ciencia, pues vivió durante el
colapso de la civilización mediterránea. El comercio que exigía y
apoyaba la investigación científica se vio perturbado por los intentos
bizantinos de reconquista y sus inútiles batallas con Persia. John
Philloponus representó el último destello de la ciencia antigua. El
siguiente paso debía ser dado por una sociedad diferente. Ese paso
fue el desarrollo de un método experimental sistemático.

■ EL RENACIMIENTO ISLÁMICO

El camino para un renacimiento del comercio, y posteriormente de la


ciencia, fue despejado por la conquista islámica. Para el año 613
d.C., cuando Mahoma comenzó a predicar sus nuevas revelaciones,
el otrora poderoso imperio bizantino era una cáscara vacía, que no
tenía influencia sobre el territorio periférico de Arabia. A diferencia
de Jesús, Mahoma entró en un vacío político virtual en el que pudo
poner en práctica inmediatamente sus ideas de justicia social
(probablemente influenciadas por la doctrina monofisica).
Esas ideas de justicia, basadas en los agravios de los comerciantes y
comerciantes del imperio, restringieron las depredaciones de los
recaudadores de impuestos y usureros, glorificaron el comercio justo
y el comercio, y crearon una sagrada obligación social de dedicar
una parte de toda la riqueza al bienestar social, para ayudar al
creyente empobrecido. La moralidad del Islam parecía tan
obviamente superior a la del imperio aún voraz y decadente que ganó
adeptos con velocidad de fuego. En el momento de su muerte en 632,
Mahoma había unificado las disputas entre las tribus árabes, y en
diez años, los ejércitos musulmanes se abrieron en abanico para
aplastar a las tropas imperiales, apoderándose de Siria en 636, de
Irak al año siguiente, y luego de Mesopotamia y Egipto. Los
musulmanes fueron recibidos en todas partes como liberadores por la
población alienada del imperio, que se había rebelado, liderada por
los monofisitas y otros grupos antiimperialistas. Los nuevos
gobernantes redujeron los impuestos en un tercio o la mitad y se
inició una lenta recuperación del comercio y la prosperidad en todo
el Mediterráneo.
Con esto vino un renacimiento gradual del apoyo a la ciencia. Hacia
el año 800, cuando el centro del dominio musulmán se trasladó a
Irán, los eruditos musulmanes, que a menudo trabajaban junto con
los monofisarios y otros colegas cristianos, estaban ocupados
absorbiendo lo que quedaba del antiguo aprendizaje de los griegos,
así como tomando prestado de la India. Pero los árabes no se
limitaron a transmitir conocimientos antiguos. Durante el apogeo de
la civilización árabe alrededor del año 1000, mientras que Europa
Occidental todavía estaba saliendo de la Edad Media, formularon por
primera vez el método científico moderno.
La persona más importante en este avance fue Ibn alHaytham,
conocido en el oeste como Al-Hazen. Principalmente en el campo de
la óptica, fue más allá de John Philloponus y toda la confianza en el
método especulativo de la antigua filosofía natural. Partió de
experimentos sistemáticos y repetidos, que se organizaron para
obtener mediciones cuantitativas, y a partir de ellos desarrolló
hipótesis expresadas en forma matemática. Estas fueron conjeturas
inspiradas en cuanto a las relaciones físicas que subyacen a varios
conjuntos de mediciones. Si se veía que una hipótesis se ajustaba a
las mediciones, se diseñaban experimentos adicionales para ver si la
relación propuesta podía predecir con precisión nuevas mediciones.
Aquí están las ideas básicas del método científico. La ciencia parte
de la observación sistemática y la medición, pero no se detiene ahí,
como un mero recolector de información sobre la naturaleza. El acto
creativo es generalizar a partir de los datos, hipotetizar un posible
proceso físico y describir el proceso en términos matemáticos. Las
matemáticas describen una relación observada en la naturaleza, en
lugar de pretender ser la realidad subyacente (como en el platonismo
o en la cosmología convencional actual). Finalmente, la hipótesis no
se juzga por su lógica intrínseca o por el debate, sino únicamente por
su capacidad de predecir con precisión otras mediciones.
Con este método Ibn al-Haytham demolió la antigua óptica de
Tolomeo y estableció el marco para una ciencia de la luz. Refutó
mediante experimentos cuantitativos las leyes de reflexión y
refracción lógicamente derivadas de Tolomeo y sus ideas sobre los
"rayos de visión" del ojo.
Mientras Ibn al-Haytham perfeccionaba el método científico, otros
pensadores islámicos comenzaron a desechar las ideas del mundo
antiguo. El filósofo, médico y científico Ibn Sina (conocido como
Avicena) abandonó los diversos mitos de la creación y estudió las
formaciones geológicas para conocer el origen de la tierra actual.
Concluyó correctamente que casi toda la tierra actual estaba una vez
bajo el agua, que las rocas sedimentarias se formaron bajo el agua, y
que la tierra fue posteriormente levantada por terremotos.
A pesar de los grandes avances de la ciencia islámica, el
renacimiento musulmán se desvaneció alrededor del año 1100 d.C.
Los pensadores del siglo X habían atacado una parte importante de la
cosmovisión existente, pero no habían formulado una alternativa
integral. Como Juan Fillopono, con quien estaban familiarizados,
desarrollaron un método de observación; pero a diferencia de él,
ninguno rechazó el contraste entre el cielo y la tierra. El método
científico no profundizó demasiado en cuestiones que, tanto en el
este islámico como en el oeste cristiano, estaban tan estrechamente
ligadas a la ortodoxia religiosa. Porque los imperios musulmanes
estaban tan estrechamente vinculados a las jerarquías religiosas
como lo estaban los estados feudales europeos. Y mientras los
musulmanes fomentaban el comercio y, hasta cierto punto, la
manufactura, el poder político descansaba en una clase terrateniente
cuyo poder estaba centralizado en los poderosos califas.
Los conflictos entre los ricos terratenientes, que explotaban a los
campesinos y esclavos en régimen de servidumbre, y los
comerciantes y fabricantes, que dependían del trabajo libre,
estallaron una y otra vez en luchas violentas. Al final, el poder de los
califas cayó en manos de los turcos invasores, que aplastaron las
economías mercantiles en ciernes y dispersaron las instituciones
científicas que habían apoyado. Los fundamentalistas atacaron a
filósofos como Ibn Sina por impíos y heréticos. El primer esfuerzo
serio para establecer empresas científicas autosuficientes había
fracasado. El avance crucial -una nueva cosmología científica- se
lograría en Occidente.

■ IGLESIA Y CIENCIA EN EUROPA

Mientras que el mundo islámico estaba decayendo, Europa se estaba


recuperando, y fue aquí donde se produjo la evolución de la ciencia,
porque fue en Europa donde el trabajo libre comenzó a desarrollarse
de nuevo, y con ello la necesidad de invenciones que ahorren mano
de obra, y por lo tanto de la ciencia. Hacia el año 800 d.C. el
comercio árabe ya estaba comenzando a estimular el renacimiento en
el oeste. En 900 la industria en una escala no vista en el período
antiguo comenzó a surgir en Flandes, donde la fabricación de telas
llevó a la formación de pequeñas ciudades industriales. A medida que
la población crecía, los hijos menores sin tierra de los siervos se iban
a las ciudades para ganarse la vida como vendedores ambulantes,
comerciantes o artesanos.
En la larga recuperación de la Edad Media, la tecnología europea
avanzó mucho más allá de la del mundo antiguo. La fuerza del agua
y la fuerza de los animales reemplazaron el uso generoso de la mano
de obra humana. Esta y otras innovaciones permitieron que los
campesinos dedicaran su energía a actividades más sofisticadas, de
modo que la economía europea pudiera mantener a la mayor parte de
su población, aunque alimentada con alimentos, ropa y vivienda
incomparablemente mejores que los que había en el mundo antiguo.
La mano de obra gratuita era relativamente escasa y costosa para el
nuevo fabricante, ya que la mayor parte de la población aún estaba
atada a la tierra. El trabajo esclavo estaba aún menos disponible.
Sólo en el este el nivel cultural era lo suficientemente bajo como
para que los europeos capturaran esclavos, los eslavos. Pero con el
auge de la tecnología más desarrollada, el trabajo libre, que era más
calificado, se volvió más productivo y, por lo tanto, más económico.
A medida que el trabajo libre reintrodujo el incentivo para la rápida
innovación y el crecimiento económico alentó la expansión del
comercio, una vez más se despertó el interés por la tecnología. Y no
por casualidad, nuevos aprendizajes se hicieron disponibles desde el
este. Los cruzados que regresaron trajeron a Europa las obras de los
científicos y filósofos árabes, y las traducciones, perdidas en el oeste,
de los antiguos griegos.
Alrededor de 1200, Robert Grosseteste, un monje británico, comenzó
a asimilar el método científico del Islam. En la siguiente generación,
Roger Bacon, un fraile franciscano, llevó a cabo el mismo trabajo.
Por primera vez en Occidente, Bacon afirmó que el propósito más
elevado del trabajo científico es su eventual aplicación práctica. En
famosos pasajes visionarios, Bacon esboza un futuro lleno de
maravillas tecnológicas: submarinos, máquinas voladoras y
vehículos autopropulsados. Pero su teoría científica era más utópica
que práctica.
Las nociones de Grosseteste y Bacon sobre la ciencia y sus métodos
eran más limitadas que las de los musulmanes. Ninguno de los dos
realizó por sí mismo experimentos significativos; en cambio, ambos
escribieron comentarios sobre cuestiones de método. Para ellos, los
experimentos, aunque importantes, jugaban un papel subordinado a
la verdad revelada. Bacon argumenta que, si bien la revelación es la
autoridad suprema, el experimento puede usarse para determinar qué
autoridad es válida y cuál es el resultado de una mala interpretación
o traducción. En ningún caso el experimento puede contradecir el
núcleo de la verdad autorizada. Sin embargo, las autoridades
eclesiásticas regañaron a Bacon, que aún era tímido, y lo pusieron
bajo la vigilancia de su orden franciscana.
Mientras Bacon intentaba absorber el nuevo aprendizaje de los
árabes, Tomás de Aquino integraba las traducciones de los griegos,
especialmente de Aristóteles, en la todavía dominante visión
agustiniana del mundo. Para Aquino, la fe y la revelación siguen
siendo la única fuente de conocimiento, con la razón como su
esclava. Donde la razón no puede determinar la verdad, como en, por
ejemplo, la cuestión de si el mundo tuvo un comienzo o no, la
revelación -en este caso, la Biblia- proporciona la verdadera
respuesta.
El papel limitado permitido a la ciencia medieval refleja el papel
limitado de la industria y el comercio medievales. Los siervos
pagaban sus excedentes a los señores, por lo que los burgueses y los
fabricantes dependían de la nobleza para su mercado. Como
resultado, el alcance de la expansión tecnológica y económica se vio
limitado por el viejo orden.
Pero el feudalismo necesitaba nuevas tierras para crecer. A medida
que la tierra cultivable se hizo escasa alrededor de 1300, la nobleza
pidió prestado a gran escala para financiar sus lujos y guerras,
gravando a sus súbditos para pagar las deudas. Las reservas de
cereales de los campesinos fueron derrochadas, la hambruna se
apoderó repetidamente de Europa, el hambre se apoderó de las sucias
ciudades, y en 1348 la sociedad feudal se derrumbó bajo las garras
de la Peste Negra, que se llevó a un tercio de la población de Europa.

LA CAÍDA DEL COSMOS JERÁRQUICO

La desintegración de la sociedad feudal a mediados del siglo XIV fue


el gran acontecimiento que abrió el camino para el desarrollo de la
ciencia y de la sociedad moderna. En los siguientes 250 años, la vieja
cosmología se derrumbó y una nueva visión del mundo triunfó.
La ciencia sólo podía comenzar a desarrollarse cuando la vieja
sociedad se debilitaba y sus ideas se desacreditaban. Al carecer de
los estados centralizados que permitieron que la sociedad antigua y
el mundo musulmán sobrevivieran a crisis similares y aplastaran la
oposición social, la autoridad de los señores feudales se desmoronó
tras la Muerte Negra. En Francia, la Guerra de los Cien Años, de
1337 a 1453, extendió la anarquía. En Inglaterra, la usurpación del
gobierno de Enrique IV en 1399 condujo a una serie de guerras
dinásticas de un siglo de duración en las que la nobleza feudal
cumplió el singular servicio de aniquilarse a sí misma.
La catástrofe de la Peste Negra socavó la autoridad ideológica tanto
de la Iglesia como del Estado. Las generaciones nacidas después de
la plaga lo vieron como el juicio de Dios sobre la sociedad existente.
Al mismo tiempo, la tremenda escasez de mano de obra creada por la
plaga (que regresó repetidamente con una ferocidad cada vez menor)
hizo que la servidumbre fuera inviable en gran parte de Europa. Los
siervos fugitivos podían encontrar fácilmente tierras sin arrendar, ya
despejadas para tierras de cultivo, o podían encontrar trabajo bien
remunerado en las ciudades.
Las doctrinas de Agustín y de Aquino, en las que el pueblo debía
obediencia a la autoridad secular y eclesiástica, ya no prevalecían.
En Inglaterra, el predicador de Oxford John Wycliffe denunció a la
Iglesia mundana como el ladrón del pueblo, y negó que sus oficiales
fueran necesarios para mediar entre el hombre y Dios. Otros
movimientos en todo el continente europeo expresaron creencias
similares.
Otro predicador, John Ball, denunció todas las fuentes de autoridad -
sacerdotes, nobles, reyes, señores-: "Las cosas no pueden ir bien en
Inglaterra hasta que todo esté en común, cuando no habrá ni vasallos
ni señores, cuando los señores no serán más señores que nosotros"
En 1381, los campesinos ingleses, enfurecidos por los esfuerzos de
los nobles por reimponer los deberes de servidumbre, se levantaron
en revuelta, encabezados por John Ball y el veterano soldado Wat
Tyler. Aunque finalmente fue aplastada, la Rebelión Campesina fue
la sentencia de muerte de la servidumbre en Inglaterra.
Otras revueltas sacudieron las ciudades comerciales de Europa: los
artesanos tomaron Florencia en 1379 y Lieja en 1384. El sucesor de
la Europa feudal no era una sociedad, sino dos, en conflicto mortal
entre sí. Las ciudades libres de artesanos, comerciantes y fabricantes,
aliadas con los campesinos libres, lucharon contra los grandes
señores y obispos, reyes y papas.
Al igual que en los primeros tiempos de Grecia, las nuevas ciudades
comerciales alrededor del año 1400 dieron lugar a nuevas y
revolucionarias ideas. Por primera vez en mil años el universo finito
agustiniano fue desafiado por un obispo nacido en Alemania, Nicolás
de Cusa. Nacido en 1401 y educado en Italia en la Universidad de
Padua, Nicolás se convirtió en la gran figura de transición entre la
cosmovisión de la Edad Media y la del Renacimiento. Como todo el
mundo en su tiempo, su pensamiento era una continuación de la
tradición, pero sus ideas iniciaron la caída de toda la cosmología y el
punto de vista social que había prevalecido desde Agustín. Las ideas
de Nicolás fueron en verdad un renacimiento del antiguo aprendizaje
griego, pero no de Platón y Aristóteles, que de hecho nunca habían
sido rechazados por los pensadores medievales. En cambio, fue un
renacimiento de los métodos jonios de exactamente dos mil años
antes. Como Thales, Nicholas formuló una nueva forma de ver el
universo.
En su obra mayor, paradójicamente titulada Sobre la ignorancia
aprendida, Nicolás volvió a la idea central de Anaxágoras, un
universo infinito e ilimitado. En contraste con el cosmos finito de
Tolomeo circunscrito por esferas concéntricas con la tierra en su
centro, Nicolás argumentó que el universo no tiene límites en el
espacio, ni principio ni fin en el tiempo. Dios no está ubicado fuera
del universo finito, está en todas partes y en ninguna parte,
trascendiendo el espacio y el tiempo.
El universo infinito de Nicolás está poblado por un número ilimitado
de estrellas y planetas, y, por supuesto, no tiene centro, ni un solo
lugar inmóvil de descanso. Por lo tanto, la tierra, razonó, debe
moverse, como todo lo demás en el universo. Parece estar en reposo
sólo porque estamos en ella, moviéndonos con ella. Dejó de lado el
cosmos geocéntrico por completo.
Nuevamente, como Anaxágoras y Juan Fillopono, Nicolás demolió la
gran distinción de los reinos celestiales y sublunares. El mismo
material compone la tierra y las estrellas: "A los hombres de otros
lugares, la tierra les parecerá una estrella noble": Los círculos
perfectos de Platón son sólo aproximaciones del movimiento real.
Nicolás vinculó esta cosmología renovada con la tradición continua
de aprender de la experiencia y la observación. Criticó la teoría de
las ideas de Platón como construcciones de la razón pura. La razón,
dice, llega a la verdad sólo abstrayendo y organizando las
impresiones de los sentidos.
Dado que la realidad es infinita en su complejidad, el conocimiento
sólo puede ser una serie de mejores aproximaciones, unificando
reinos más grandes de experiencias. Según Nicolás, la mente
humana, aunque finita en su comprensión, es infinita en su capacidad
de comprensión y en su deseo de verdad: "El ojo nunca puede tener
demasiada visión, por lo que la mente nunca está satisfecha con la
verdad suficiente" En este sentido, todo aprendizaje es todavía
ignorancia, no porque sea falso, sino porque nunca llegará a la
verdad final. No puede haber Teoría del Todo.
Esta teoría abierta del conocimiento es el mayor desafío posible a los
viejos conceptos de la verdad absoluta, fundada en la razón pura y la
autoridad: si no hay verdad final, no hay autoridad final. Nicolás
extiende esta teoría radical del conocimiento incluso a las verdades
reveladas de la religión. En una época en la que el exterminio de
herejes era perseguido con entusiasmo y los ejércitos musulmanes y
cristianos se enfrentaban, exaltó una visión de tolerancia religiosa. El
cristianismo, el judaísmo y el islam, escribe, son sólo percepciones
humanas parciales de verdades religiosas infinitas. Pueden unificarse
sobre la base de su creencia común en Dios y una visión común de lo
que es moral y justo en la tierra.
El pensamiento político de Nicolás encarnaba el nuevo espíritu que
emergía de las ciudades libres. Rechazó las doctrinas de Agustín y de
Aquino sobre el gobierno humano como castigo por el pecado
original, haciéndose eco de las doctrinas pelagianas y cristianas
primitivas sobre la libertad humana innata. Puesto que todos los
hombres eran libres e iguales al nacer, como las estrellas y planetas
iguales del universo infinito, el gobierno humano no se basa en la
superioridad inherente e innata de unos sobre otros. Más bien, la base
de todo gobierno -tanto secular como eclesiástico- debe ser el
consentimiento de los gobernados, y los gobernantes y sus leyes
deben ser seleccionados por el pueblo, aunque su gobierno sea
sancionado por Dios. No es de extrañar que estas prácticas se
encontraran entre los gobiernos gremiales urbanos.
Aunque conservadoras en su forma, las ideas de Nicolás de Cusa
socavan las nociones básicas de jerarquía -social y cósmica-
arraigadas desde los días de Platón.

■ LA NUEVA COSMOLOGÍA

Una vez más, sin embargo, la obra de Nicolás de Cusa, por muy
radical que fuera en sus implicaciones, seguía siendo una filosofía
abstracta. Si iba a prevalecer sobre el universo ortodoxo, tenía que
concretarse. Su influencia se difundió de manera práctica, en parte, a
través de su colaboración con el astrónomo, geógrafo y matemático
Paolo Toscanelli. Toscanelli difundió la nueva cosmología de
Nicolás, que él había ayudado a desarrollar, y la vinculó a las
ciencias observacionales emergentes. Una corriente de esta corriente
llevó al extraordinario estudiante de Toscanelli Leonardo da Vinci y
al desarrollo del método científico moderno. Con Leonardo, las
nuevas ideas filosóficas fueron finalmente despojadas de sus rasgos
escolásticos y casadas con la artesanía y la innovación técnica. Con
poca educación formal, Leonardo aceptó con entusiasmo la nueva
visión del mundo de Nicolás como justificación para rechazar la
autoridad anticuada de los "fariseos -los santos frailes" y de sus
"adversarios" Platón y Aristóteles.
Por primera vez desde los jonios, propuso una concepción de la
ciencia que era totalmente secular, sin basarse en doctrinas religiosas
o filosóficas. La brecha entre el espíritu y la materia, el pensamiento
y la acción, la teoría y la práctica, fue finalmente salvada en la
realidad. Mientras que los filósofos de Juan Philloponus a Nicolás de
Cusa habían reconocido la unidad del mundo, ellos habían seguido
siendo pensadores abstractos. En Leonardo el artesano, el científico y
el inventor se fusionan en uno solo. Liberado filosóficamente por la
nueva cosmología infinita, y liberado económicamente por el cambio
social generalizado que había debilitado la jerarquía autoritaria, fue
mucho más allá de sus predecesores: observó el mundo entero.
Leonardo puso en práctica la idea de Nicholas de que el
conocimiento debe derivar de la observación, y lo vinculó con la
necesidad de la descripción matemática. Destaca que "no hay certeza
en la ciencia donde no se pueda aplicar una de las ciencias
matemáticas", pero rechaza enfáticamente la idea platónica de las
matemáticas como la maestría en ciencias. Expuso su método
explícitamente:
Al tratar un problema científico, primero organizo varios
experimentos, y luego muestro las razones por las que un
experimento de este tipo debe funcionar necesariamente de esta
manera y no de otra manera. Este es el método que debe seguirse en
toda investigación sobre el fenómeno de la naturaleza. Debemos
consultar la experiencia en la variedad de casos y circunstancias
hasta que podamos extraer de ellos una regla general que está
contenida en ellos. ¿Y para qué sirven estas reglas? Nos llevan a
investigaciones más profundas de la naturaleza y a creaciones de
arte. Nos impiden engañarnos a nosotros mismos y a los demás
prometiendo resultados que no se pueden obtener.

Así, en el método de Leonardo, el experimento lleva a la hipótesis de


"reglas de la naturaleza", reglas matemáticas cuya utilidad es una
ayuda para el ser humano en su arte (que incluye inventos y
dispositivos mecánicos) y en su vida, y para predecir los resultados
de otras acciones. Aplicó este método a una escala nunca antes o
desde entonces igualada, ya que sus cuadernos atestiguan una gran
cantidad de descubrimientos científicos en óptica, anatomía,
mecánica e hidráulica, entre muchos otros campos.
Aunque la mayoría de sus descubrimientos e invenciones fueron
enterrados durante dos siglos, ya que sus cuadernos no fueron
publicados después de su muerte, su impacto en la ciencia y la
tecnología italiana fue profundo. Leonardo no era un ermitaño que
escribía en secreto en un claustro, sino un ingeniero, artista y
pensador, empleado por los príncipes más importantes de Italia, y un
conocido cercano de casi todas las mentes principales de su tiempo.
Mientras que una corriente de la influencia de Nicolás de Cusa
condujo a través de Leonardo al método experimental moderno, la
otra condujo a la cosmología copernicana. Mientras Nicolás
trabajaba, los viajes de descubrimiento proporcionaron un fuerte
incentivo para una nueva astronomía: además, una astronomía
práctica.2 Si los movimientos de la luna y de los planetas pudieran
conocerse con precisión, podrían actuar como un reloj celestial,
permitiendo a los marineros medir su rumbo con precisión al cruzar
el Atlántico. Para esta tarea el sistema Ptolomeo con sus epiciclos y
deferentes era demasiado engorroso e impreciso.
En el esfuerzo de siglos para conformar la cosmovisión geocéntrica a
las observaciones de los movimientos planetarios, se había añadido
complejidad tras complejidad. Era bien sabido que la vista
geocéntrica representaba aproximadamente la posición de los
planetas y la luna. Sin embargo, los cambios obvios en su brillo (una
consecuencia directa de su distancia cambiante de la tierra) eran
inexplicables. Para la luna, cuya distancia es en realidad casi
constante, los epiciclos introdujeron una variación en la distancia -
por lo tanto en su tamaño aparente- que no fue observada. Fue tan
absurdo que el rey Alfonso de España dijo: "Si hubiera estado
presente en la creación, podría haber dado consejos profundos", y fue
en ese momento cuando Nicolás Copérnico vino a estudiar a Italia.
Allí se enteró de la idea de Nicolás de Cusa de que la tierra se
mueve. También es posible que se enterara de la concepción de
Leonardo de que el sol está inmóvil, un concepto que se encuentra en
los cuadernos de Leonardo. En cualquier caso, Copérnico conocía los
escritos de Aristarco. Pero la idea de Nicholas de un universo infinito
fue la más significativa para despejar el camino al universo
geocéntrico de Copérnico. Porque si la tierra se movía, ¿por qué no

2 Toscanelli, como el principal geógrafo de Italia, preparó nuevas cartas y


mapas para los capitanes de los Médicis. Recalculó el diámetro de la tierra,
como lo habían hecho los antiguos, con el mismo objetivo de encontrar la
longitud de un grado de latitud. Basándose en sus cálculos (que estaban
equivocados), animó a Colón a que se pudiera llegar a China e India navegando
a través del Atlántico.
se podía observar eso en el movimiento de las estrellas fijas? (En el
pequeño y finito universo de Ptolomeo y Aristóteles, su aparente
inmovilidad se consideraba una fuerte evidencia.) Pero si el universo
fuera infinito, como dijo Nicolás, las estrellas podrían estar tan
inmensamente distantes que su movimiento aparente sería demasiado
pequeño para ser visto. Igualmente importante, en el sistema
Ptolomeo, se pensaba que la esfera más externa de las estrellas fijas
giraba una vez al día. Si el universo fuera infinito, tal velocidad de
rotación sería absurda.
Cuando Copérnico salió de Italia en 1506, había desarrollado la base
del sistema heliocéntrico: la tierra, girando sobre su propio eje, orbita
el sol, como lo hacen todos los planetas. Nuevamente, al igual que
Nicolás, se comprometió cautelosamente con el viejo sistema,
conservando los círculos y epiciclos perfectos de Ptolomeo (aunque
necesitaba muchos menos); como resultado, la exactitud de sus
predicciones no mejoró sustancialmente. También despotricó de la
insistencia radical de Cusa en un universo infinito, afirmando que el
universo era inmenso pero que podía o no ser infinito. Sin embargo,
el sistema de Copérnico era una clara alternativa al cosmos
geocéntrico y jerárquico. Si la tierra se moviera, si fuera un planeta,
toda la estructura de las regiones celestiales y sublunares se
derrumbaría, así como la ideología de una necesaria jerarquía
cósmica y social, el abismo entre espíritu y materia y, sobre todo, la
invencibilidad de la autoridad y la razón pura.
Copérnico era muy consciente de las implicaciones radicales de su
propia hipótesis, sin importar cuán conservadoramente se disfrazara.
No lo publicó durante casi treinta años, hasta 1543.
Para entonces, no sólo existía una alternativa ideológica a la
cosmovisión medieval, sino también una alternativa política,
religiosa y social: la Reforma Protestante contra la sociedad
jerárquica tanto en la Iglesia como en el Estado. Comenzando como
un ataque a la jerarquía de la Iglesia y su pretensión de ser la única
autoridad religiosa, en pocos años la Reforma se vinculó con la lucha
política y social de los comunes -comerciantes, artesanos y
campesinos- contra la nobleza feudal. A mediados de la década de
1530, la Reforma había desencadenado revueltas campesinas en toda
Alemania, y Enrique VIII había sacado a Inglaterra de la Iglesia
Católica. En la década de 1540, toda Alemania se vio envuelta en
guerras entre príncipes protestantes y aquellos alineados con el
papado y el catolicismo.
Fue en esta época, en 1540, cuando el colega de Copérnico Rhaticus
publicó por primera vez la teoría heliocéntrica de Copérnico, en el
bastión protestante de Wittenberg, donde la Reforma había
comenzado treinta años antes. Esta publicación a su vez impulsó a
Copérnico a su propia publicación en 1543. Rhaticus destacó en su
descripción el claro desafío que Copérnico planteaba a la
cosmovisión jerárquica, que la Reforma estaba efectivamente
rechazando. Mientras que el universo medieval tenía cada esfera
impulsada por la de arriba, la superior controlaba la inferior, el
sistema heliocéntrico de Copérnico asume que todos los
movimientos son procesos naturales. "La igualdad ante la ley por la
que lucharon los comunes y la igualdad ante Dios que afirmaron los
protestantes se refleja en la igualdad ante la ley natural de los cielos.
Tan radicales fueron las implicaciones de la visión de Copérnico que
los líderes de la Reforma la rechazaron con horror, incluso cuando
sus seguidores en las universidades se dirigieron a ella con interés.
Martín Lutero, en particular, denunció la idea como fantástica y una
contradicción de la Biblia. Pero en Inglaterra, donde el poder de la
antigua Iglesia había sido desarraigado por los decretos de Enrique
VIII, las nuevas ideas encontraron un terreno fértil.

■ EL COSMOS Y EL HOMBRE COMÚN


Fue, de hecho, en Inglaterra donde se fusionaron las dos corrientes
del método científico de influencia de Nicolás de Cusa y la nueva
cosmología infinita. Inglaterra había nutrido su propia tradición
científica desde la época de Bacon, y los eruditos y políticos ingleses
se mantuvieron al tanto de los últimos avances de la filosofía
italiana. El ímpetu práctico para la investigación astronómica y
científica general fue más fuerte en Inglaterra que en cualquier otra
parte. Después de que la nobleza feudal se suicidó en la Guerra de
las Rosas, una línea real colateral, anteriormente involucrada en el
comercio más que en la tenencia de la tierra, llegó al poder con
Enrique VII. Para cuando Isabel se convirtió en Reina en 1558, la
navegación inglesa estaba en un estado de expansión febril,
intentando arrebatarle el control del comercio a la España católica.
La Inglaterra isabelina, recientemente liberada de la intolerancia del
gobierno de María, acogió con beneplácito esa enseñanza
antijerárquica y antiautoritaria del sistema copernicano. Thomas
Digges, un destacado astrónomo inglés, se convirtió en el primero en
popularizar las ideas de Copérnico a una amplia audiencia,
escribiendo un libro sobre el tema en inglés, no en latín académico,
en 1576. Ya en 1572, Digges y otros astrónomos habían estudiado las
supernovas de ese año, demostrando que los cielos cambian de
hecho, contrariamente a la tradición, una visión visible para todos.
Ahora las ideas de Copemicus, respaldadas por el prestigio de
Digges como científico líder, se convirtieron en propiedad del
hombre común. Digges sintetizó la obra de Copérnico y Nicolás de
Cusa, proclamando que el universo es infinito, poblado de
innumerables soles y mundos. Pero sobre todo criticó explícitamente
el método de los antiguos: "He percibido que los antiguos
progresaban en orden inverso a las teorías, para buscar observaciones
verdaderas, cuando deberían haber procedido de las observaciones y
luego haber examinado las teorías".
En un país en el que la mano de obra libre estaba cada vez más
involucrada en la fabricación, y la necesidad tanto de avances
tecnológicos como de una mano de obra educada se agudizó, Digges
defendió la idea de que los avances científicos y tecnológicos están
unidos y que el conocimiento científico debe llegar a ser común para
todos. Con la ayuda de la educación científica, "¿cuántos artificieros
comunes hay en estos reinos que, por su propia habilidad y
experiencia, serán capaces de descubrir y concebir nuevos trabajos,
motores extraños para diversos propósitos en la Commonwealth,
para el placer privado y para el mejor mantenimiento de su propio
patrimonio? Digges y otros iniciaron una serie de manuales
científicos prácticos dirigidos al público más amplio. Para 1589, las
conferencias científicas patrocinadas públicamente atrajeron a
multitudes de artesanos, soldados y marineros ansiosos de
conocimiento.

■ TECNOLOGÍA Y COSMOLOGÍA

El conflicto entre las viejas y las nuevas cosmologías no se resolvió


con argumentos académicos, sino con las batallas de las viejas y
nuevas sociedades, encarnadas en las luchas de las naciones. Los
protestantes, al fabricar Holanda, se rebelaron contra su gobernante
imperial católico, España; y en 1584 contra el principal poder
protestante, Inglaterra, aliado con Holanda. El imperio español se
basaba en el trabajo forzado -servidores en casa y siervos y esclavos
en el enorme imperio del Nuevo Mundo. Los ingleses y holandeses
dependían principalmente de la mano de obra gratuita.
La cosmovisión científica copernicana no sólo dio una justificación
ideológica al lado protestante, sino también una ventaja tecnológica
decisiva. Al sintetizar la ciencia teórica con la habilidad artesanal, la
industria inglesa se adelantó a España en áreas críticas, como la
fundición de la artillería naval, produciendo cañones más ligeros con
mayor alcance y precisión.
La revolución copernicana había significado también la expulsión de
la física aristotélica, basada en la idea de que los objetos en
movimiento buscaban su lugar "adecuado" en la jerarquía. Esto tuvo
una aplicación significativa en la ciencia de la balística. Aristóteles
había enseñado, y los eruditos medievales aceptaron, que un
proyectil volaba hacia arriba en línea recta, y luego caía
verticalmente a tierra. Leonardo y su sucesor en ingeniería, Tartaglia,
demostraron por experimento que la trayectoria es una curva, y
compilaron una tabla de artillería que relaciona la elevación del arma
con el alcance del disparo.
Digges y otros científicos ingleses sistematizaron sus resultados,
produciendo manuales de artillería naval ampliamente leídos. Los
barcos ingleses, tripulados por reclutas de las clases artesanal y
obrera, tenían a bordo en 1588 tanto marineros como oficiales
formados en los fundamentos de la nueva balística. España, por el
contrario, no tenía ningún uso o interés en las nuevas ciencias. Ni sus
marineros sin educación podrían usarlos.
Las diferencias relacionadas en la estructura social, la tecnología y el
entrenamiento fueron decisivas cuando la Armada Española navegó
para invadir Inglaterra. Los barcos ingleses montaban en su mayoría
cañones pequeños, llamados culvetines, cuyo alcance efectivo era de
mil metros. Los españoles tenían cañones crudos, efectivos sólo a
quemarropa, es decir, antes de que el disparo comenzara a caer
significativamente, quizás a trescientas yardas. Con esta y otras
ventajas, los ingleses golpearon a los españoles a larga distancia,
mientras que la munición de los españoles quedó muy lejos de los
objetivos. Por cien mil balas de cañón disparadas, los españoles
mataron a un oficial inglés y a dos docenas de marineros, sin hundir
ningún barco. Los ingleses, con casi la mitad de disparos y armas
más ligeras, hundieron o inutilizaron diecisiete barcos españoles e
infligieron miles de bajas. Cuando los españoles se quedaron sin
municiones, los ingleses persiguieron a la destrozada Armada fuera
del canal.
Así, de una manera muy práctica, la superioridad de la cosmovisión
empírica fue demostrada -con cañones, no con debate. De hecho, la
derrota de la Armada determinó qué visión del mundo triunfaría, ya
que determinó qué sociedad sobreviviría.

■ EL PRECIO DE LA HEREJÍA

La jerarquía católica reconoció, como lo habían hecho los


protestantes, que la nueva cosmología era subversiva, incompatible
con la sociedad tradicional y autoritaria. Una de las primeras
víctimas de la Contrarreforma fue Giordano Bruno, un ex monje.
Bruno viajó a Inglaterra y se hizo amigo de sus principales figuras
políticas y científicas; y cuando regresó, popularizó la teoría
copernicana en el continente. Bruno tomó la versión de Digges del
universo infinito copernicano y lo purgó de los elementos
ptolemaicos restantes, como las esferas perfectas que llevaban las
órbitas de los planetas. Hizo de este universo infinito, con sus
mundos habitados infinitos, la base de su filosofía, integrando el
pensamiento de Nicolás de Cusa, incluso yendo más allá de él. Bruno
desafió explícitamente la idea de la creación ex nihilo, argumentando
que el universo debe ser ilimitado tanto en el espacio como en el
tiempo, sin principio ni fin.
Bruno era un filósofo, no un científico, y usó la tradición del
argumento lógico para apoyar la cosmovisión copernicana. Pero,
sobre todo, se consideraba un católico leal empeñado en reformar, no
en rechazar, la Iglesia. Sin embargo, a su regreso a territorio católico
en 1592, fue arrestado rápidamente. El Cardenal Robert Bellarmine,
un prominente líder de la Contrarreforma y el propio teólogo del
Papa, vio en los escritos de Bruno un esfuerzo por subvertir a la
Iglesia desde dentro. La idea de un número infinito de mundos no
sólo socavaba la primacía de la jerarquía eclesiástica, sino que
también contradecía todas las fuentes de autoridad: la idea no se
encontraba ni en la Biblia ni en Aristóteles ni en Platón. Además,
destruyó muy obviamente la visión católica de un infierno material,
subterráneo y un cielo etéreo más allá de las esferas cósmicas:
retrataba un cosmos en el que estas amenazas y seducciones no
tendrían cabida, y serían comprensibles sólo para unos pocos, pero
no para los campesinos mal educados, como lo fue ciertamente la
simple imagen de un cielo arriba y un infierno abajo.
Durante siete años de prisión, Belarmino trabajó para que Bruno se
retractara de la doctrina de la pluralidad infinita de los mundos.
Bruno se negó, y en 1600 fue quemado en la hoguera.
Como los cargos contra Bruno nunca se hicieron públicos, otros
científicos católicos, incluyendo a Galileo, no consideraron su
ejecución como una señal de hostilidad católica hacia Copérnico.
Pero esta hostilidad se confirmó incluso cuando la nueva teoría
triunfó.
A pesar de su amplia aceptación en Inglaterra, todavía había
relativamente poca evidencia observacional para el modelo
Copérnico. Tycho Brahe, el observador más preciso de su época,
formuló una alternativa de compromiso en la que los planetas giran
alrededor del sol, que a su vez gira alrededor de una tierra inmóvil.
Matemáticamente, este sistema era idéntico al de Copérnico, así que
ninguno parecía claramente superior.
En 1609 esta situación cambió repentinamente. Después de la muerte
de Brahe, Johannes Kepler utilizó sus observaciones, que fueron 150
veces más precisas que las de Ptolomeo, para encontrar una
descripción exacta del sistema solar. Empezando con la concepción
tradicional de los círculos perfectos, Kepler trabajó durante años.
Después de una enorme lucha, rompió con este último remanente de
la antigua cosmología. Por ensayo y error, descubrió en 1609 que los
planetas se movían en elipses, no en círculos, y no a velocidades
constantes, sino a tal velocidad que las áreas barridas dentro de su
órbita elíptica en un tiempo dado permanecían constantes a lo largo
de su órbita. (A medida que un planeta se acerca al sol en una órbita
elíptica, la atracción gravitacional aumenta, y se acelera; cuando ha
pasado el sol, su trayectoria lo lleva más lejos del sol, y la fuerza de
la gravedad lo desacelera.) El sistema inmensamente complejo de
epiciclos, diferenciales y esferas excéntricas fue reemplazado por
simples elipses (Fig. 3.1).

Fig. 3.1 El sistema solar de Kepler simplificó las docenas de epiciclos y


deferentes a siete elipses. Aunque la elipse no era tan "perfecta" como los
círculos que habían dominado la astronomía durante dos milenios, son las
órbitas correctas de los planetas y la luna. El trabajo de Kepler mostró
inequívocamente que la tierra se mueve alrededor del sol y que cada planeta
barre áreas iguales en tiempos iguales, moviéndose más rápido más cerca del sol
y más lentamente más lejos.

El sistema de Kepler era mucho más preciso que cualquier otro. No


podría traducirse a la de Tycho Brahe, ya que entonces los caminos
de los planetas no serían simples elipses sino complejos movimientos
compuestos.
Ese mismo año, Hans Lippershey patentó el telescopio en Holanda.
Dentro de un año, Galileo en Italia y otros astrónomos habían
convertido el nuevo instrumento a los cielos. Galileo descubrió la
existencia de las lunas de Júpiter, las fases de Venus y las montañas
de la luna. El inmutable y perfecto cielo, tan crucial para la
cosmología aristotélica, fue destruido por la observación.
Armado con sus nuevas observaciones, Galileo se convirtió
inmediatamente en un propagandista de la cosmovisión copernicana,
tratando activamente de ganarse a la jerarquía católica. El Cardenal
Bellarmine, advertido por el caso de Bruno, se movió para anular el
esfuerzo de Galileo. No es posible ningún conflicto con la
interpretación literal de las Escrituras, informó a Galileo: el sol se
describe en la Biblia como moviéndose, saliendo y poniéndose;
cualquier otra cosa es herética. En 1616 la obra de Copérnico fue
añadida al índice de obras prohibidas y la nueva doctrina fue
oficialmente condenada.
Galileo, sin embargo, continuó sus esfuerzos, que culminaron con la
publicación en 1632 de su gran defensa de Copérnico, el Diálogo
sobre Dos Sistemas Mundiales. La respuesta fue rápida: se vio
obligado, con el ejemplo de Bruno ante él, a retractarse y fue puesto
bajo arresto domiciliario. La nueva ciencia permaneció prohibida en
los países católicos durante más de un siglo.
Sólo en aquellos países donde la nueva sociedad salió victoriosa, la
nueva ciencia se volvió autosuficiente, sobre todo en Inglaterra. La
revolución inglesa de 1642 llevó a la derrota decisiva de las clases
terratenientes y a su absorción en el nuevo régimen mercantil y
manufacturero. Durante el período del Estado Libre Asociado, los
revolucionarios identificaron con orgullo su movimiento con el
racionalismo científico y el rechazo de mitos y supersticiones. Los
científicos ingleses sintetizaron rápidamente las leyes de Kepler y las
investigaciones de Galileo en mecánica, que habían sido introducidas
de contrabando en el extranjero y publicadas en 1638. Juntos, esto
llevó a Robert Hooke a formular una ley universal de la gravitación,
que Isaac Newton demostró que verificaría las leyes de Kepler.
Si bien muchas de las conquistas sociales en el punto álgido de la
revolución retrocedieron posteriormente, el punto de vista y los
objetivos fundamentales de la sociedad se han transformado de
manera irreversible. El patrocinio de la investigación científica por
parte del gobierno inglés puso a la ciencia inglesa muy por encima
de la de cualquier otro país; esto, junto con el rápido desarrollo
económico de Inglaterra, la impulsó un siglo más tarde a la
revolución industrial.
La revolución científica no era, pues, un proceso inevitable, una
consecuencia natural del desarrollo intelectual humano. Era el
resultado de un feroz conflicto social, en el que las cuestiones
cosmológicas eran cuestiones de vida o muerte para los individuos y
para sociedades enteras.
Ciertamente la gente de la época no pensaba que la derrota de
España, la victoria de Inglaterra y Holanda, y más tarde la victoria de
la revolución inglesa, fueran inevitables. Sin embargo, sin esas
victorias, la revolución científica ciertamente no habría ocurrido.
Sólo la sociedad abierta nacida en los siglos XVI y XVII podría
haber nutrido el cosmos infinito e ilimitado de la ciencia moderna. Y
sólo una cosmovisión así podría haber dado a la nueva sociedad la
fuerza moral y material para prevalecer.

■ LA ALTERNATIVA CIENTÍFICA A LA CREACIÓN

La revolución científica de los siglos dieciséis y diecisiete había


desplazado, al menos en Inglaterra, al universo jerárquico y finito
con uno infinito, la apelación a la autoridad y a la razón con el
método observacional. Pero, a diferencia de los jonios, los científicos
del siglo XVII no habían desarrollado una teoría naturalista de los
orígenes del mundo, una alternativa a la creación de la cosmología
medieval a partir de la nada. Filósofos como Nicolás de Cusa y
Giordano Bruno habían defendido la idea de un universo ilimitado en
tiempo y espacio, eterno y sin principio. Pero ningún científico había
justificado estas nociones con datos concretos.
Para muchos científicos, fue en este reino de los orígenes donde la
religión todavía se cruzaba con la ciencia. Isaac Newton, por
ejemplo, argumentó que Dios es necesario para formar el sistema
solar y mantenerlo.
En el período posterior a la revolución inglesa, la Restauración y la
subsiguiente Revolución Gloriosa, la sociedad inglesa se asentó en
una fase conservadora. La idea de cambio, implícita en cualquier
concepto de evolución de la naturaleza, perdió su popularidad. El
universo, al igual que la constitución inglesa no escrita, era un
producto acabado que los acontecimientos (como la revolución) no
podían repetirse.
No fue hasta mediados del siglo XVIII, cuando los vientos de
cambio comenzaron a soplar en Europa y América, que el problema
de los orígenes volvió a ser atacado. En 1755 el filósofo Immanuel
Kant formuló una explicación naturalista del origen de la tierra, en
muchos aspectos sorprendentemente similar a la de Anaxágoras.
Kant, que estaba familiarizado con las últimas investigaciones
astronómicas, argumentó que la observación mostraba que las
estrellas no están dispersas al azar por todo el universo, sino que
parecen estar agrupadas en un enorme disco, la Vía Láctea.
Especuló, correctamente, que las nebulosas difusas distantes que los
astrónomos estaban estudiando son grandes aglomeraciones
similares de estrellas, lo que ahora llamamos galaxias. Por analogía
razonó que estos, también, probablemente formaban sistemas o
grupos aún más grandes, otra vez una suposición confirmada más
tarde por la observación.
Partiendo de este concepto de un universo infinito, dispuesto en una
cadena de aglomeraciones de materia cada vez más grandes y
giratorias, Kant propuso la idea de que en el pasado el universo era
un gas casi homogéneo e infinito. Algunas regiones, que por
accidente eran más densas que otras, empezaron a atraer materia por
gravedad. Los movimientos aleatorios del gas dieron a cada
aglomeración un ligero giro, creando enormes vórtices, dentro de los
cuales las galaxias, luego las estrellas y luego los planetas se unieron.
Desde que Kant asumió que este proceso comenzó en un solo lugar
del universo, y se extendió hacia afuera, creyó que la creación era y
sigue siendo un proceso continuo, que se extenderá a través del
universo infinito.
En los años siguientes a la "Teoría de los Cielos" de Kant, Europa y
América se vieron convulsionadas por revoluciones radicales que
buscaban completar el derrocamiento de las antiguas sociedades
jerárquicas y reemplazarlas por democracias. A finales de siglo, los
espectaculares cambios de gobierno y de sociedad provocados por
estas revoluciones llevaron a sus partidarios a concebir un proceso
general y continuo de cambio social humano: la idea de progreso.
Tanto para los Padres Fundadores de los Estados Unidos como para
los revolucionarios franceses, sus revoluciones formaban parte del
inevitable avance de la sociedad, perfeccionando sus instituciones y
mejorando sin límites el bienestar material de la humanidad.
Jefferson concluyó que para prevenir el resurgimiento de la tiranía y
para avanzar en el progreso, podrían ser necesarias revoluciones
periódicas. La Constitución Americana incorpora en su proceso de
enmienda la idea de que no es el producto final, sino uno que puede
acomodar una revisión indefinida.
En Inglaterra, el químico Joseph Priestley propuso la teoría general
del progreso humano: a través del crecimiento del conocimiento
científico, escribió en 1771, "los poderes humanos serán ampliados,
la naturaleza, incluyendo tanto sus materiales como sus leyes, estará
más a nuestras órdenes, los hombres harán su situación más cómoda,
probablemente prolongarán su existencia en ella y se volverán más
felices cada día.”
El concepto revolucionario de que la sociedad no es una entidad fija,
que evoluciona continuamente a través del esfuerzo y la lucha, a
través de la ciencia y la tecnología, hacia formas más elevadas de
organización y bienestar material, fue rápidamente adoptado en el
campo de la ciencia. A finales del siglo XVIII, el conocimiento
geológico de Inglaterra avanzó rápidamente a medida que el carbón
se convirtió en el elemento central de la industria de vapor de la
revolución industrial. La observación geológica llevó a James
Hutton, un científico aficionado, a desarrollar una teoría de la
evolución continua de la Tierra misma.
Al observar procesos tales como la compactación de la arcilla en
roca sedimentaria, Hutton concluyó en su obra de 1795, Teoría de la
Tierra, que las montañas, los ríos, los océanos y las rocas
sedimentarias e ígneas del mundo actual se formaron a lo largo de
muchos millones de años, no por inundaciones milagrosas o
cataclismos de una sola vez. Destaca que una historia científica del
mundo sólo puede obtenerse examinando los procesos actuales y
retrocediendo en el tiempo, no especulando sobre los orígenes y
trabajando hacia adelante. La idea de un mundo finito en el tiempo,
con un origen sobrenatural, es rechazada: "El resultado, por lo tanto,
de esta investigación física es que no encontramos ningún vestigio de
un comienzo, ninguna perspectiva de un fin."
En una década, el matemático francés Pierre-Simon de Laplace había
llevado el enfoque de Hutton un paso más allá en el pasado y había
dado una base científica firme a la teoría del vórtice de origen de
Kant. Utilizando la mecánica newtoniana, Laplace demostró en 1796
que, si el sol se hubiera condensado a partir de una esfera de gas
giratoria, se habría desprendido del material a medida que se
contraía, ya que al contraerse habría girado más rápido. El material
expulsado se formaría en anillos, los cuales, a su vez, condensarían
gravitacionalmente en planetas. Las órbitas casi circulares de los
planetas, por lo tanto, estarían bien explicadas.
Hutton y sus partidarios aceptaron rápidamente la teoría nebular de
Laplace, produciendo un enfoque integrado de la historia del mundo
desde sus orígenes. Otros aplicaron rápidamente el enfoque histórico
al desarrollo de la vida misma. Erasmus Darwin (abuelo de Charles),
en el mismo año que la teoría de Laplace, propuso que los fósiles
encontrados en los estratos geológicos representan la evolución de
varias especies de animales entre sí, lo que conduce a una perfección
cada vez mayor de la vida en grandes extensiones de tiempo.
Los cambios revolucionarios del último cuarto del siglo XVIII no
fueron aclamados universalmente, como tampoco lo fueron las
nuevas teorías científicas. Los capitalistas que gobernaron Gran
Bretaña debieron su poder a las revoluciones sociales del siglo XVII
y a la revolución industrial del siglo XVIII, pero no querían perder
ese poder en nuevas convulsiones sociales. Gran Bretaña se convirtió
en el principal enemigo de todo cambio social, temiendo el
desarrollo de potencias industriales rivales en el extranjero y una
evolución continua de la estructura social en el país. Desde Gran
Bretaña se lanzaron respuestas religiosas y filosóficas contra las
ideas del progreso humano y natural. Thomas Malthus, refutando al
Marqués de Condorcet, el teórico francés del progreso, argumentó
que el crecimiento de la población siempre superará a la producción
agrícola, condenando a la mayoría de la gente al hambre y
bloqueando el progreso material. El geólogo John Williams criticó
las teorías de Hutton por motivos teológicos. La "salvaje y
antinatural noción de la eternidad de la tierra de Hutton lleva primero
al escepticismo y finalmente a la infidelidad y al ateísmo. Si una vez
tenemos la firme convicción de que el mundo es eterno, y podemos
seguir adelante en las vicisitudes reproductivas y progresivas de las
cosas, entonces podemos suponer que no sirve de nada la
interposición de un Poder Gobernante", escribió, concluyendo que
"todas las rebeliones pronto terminan en anarquía, confusión y
miseria, al igual que nuestra rebelión intelectual".
Pero estos esfuerzos resultaron en general infructuosos: durante la
primera mitad del siglo XIX, Europa siguió siendo sacudida por
repetidas revoluciones populares, y la revolución industrial también
transformó la sociedad británica. En la década de 1840, la nueva
geología y cosmología tuvieron una amplia aceptación entre los
científicos y el público, y los conceptos socialistas de la evolución
humana se extendieron por toda Europa.
En 1859 Charles Darwin sistematizó y popularizó la teoría de la
evolución biológica, tomando irónicamente la teoría de Malthus de
los recursos limitados para formular una visión de evolución y
cambio continuo. En la década de 1860, a pesar de la continua
oposición religiosa, los enfoques evolutivos e históricos de las
ciencias habían llegado a ser dominantes, al igual que la idea conexa
del progreso humano. El resultado, cabe destacar, no fue tanto una
victoria de la ciencia sobre la religión como la separación de la
ciencia y la religión. Los protestantes (y los católicos como Galileo)
que defendieron la revolución científica se consideraban devotos, al
igual que los cuáqueros y unitarios que lideraron la introducción de
las ideas de la evolución. Al igual que Galileo, creían que las ideas
religiosas hablaban de moral, no de física. La famosa frase de
Galileo dice:"La religión enseña a los hombres cómo ir al cielo, no
cómo van los cielos".
Ni la religión ni la filosofía podían poner límites al universo natural
en el tiempo o en el espacio. El triunfo de la revolución científica fue
el triunfo del universo infinito.
4 - LA EXTRAÑA CARRERA DE LA COSMOLOGÍA
MODERNA
Lo que hace a Dios comprensible es que no puede ser comprendido.
- TERTULIANO, alrededor del año 200 d.C.

Lo más incomprensible del universo es que es comprensible.


- ALBERT EINSTEIN, 1935

Cuanto más comprensible parece el universo, más inútil parece también.


- STEVEN WEINBERG, 1977

Puede que ahora estemos cerca del final de la búsqueda de las leyes últimas de la
naturaleza.
- STEPHEN HAWKING, 1988

En nuestro siglo el péndulo cosmológico ha retrocedido. El universo


de la cosmología actual es más parecido al de Ptolomeo y Agustín
que al de Galileo y Kepler. Al igual que el cosmos medieval, el
universo moderno es finito en el tiempo -comenzó en el Big Bang, y
terminará en un Big Crunch o en una lenta decadencia y disipación
de toda la materia. Muchas versiones, como la de Stephen Hawking,
también son finitas en el espacio, una perfecta esfera auto-encerrada
de cuatro dimensiones. Hay una brecha entre los cielos y la tierra: en
el espacio existen entidades extrañas, gobernadas por las
matemáticas puras y etéreas de la relatividad general: agujeros
negros, cuerdas cósmicas, axiones -que no pueden, ni siquiera en
principio, ser estudiados en la tierra.
El universo del siglo XIX evolucionó por leyes aún en acción, como
lo hizo el de los jonios, pero el universo de la cosmología moderna
es el producto de un acontecimiento único y único, cualitativamente
diferente de todo lo que ocurre hoy en día, así como el cosmos
medieval fue el producto de la creación. Mientras que los científicos
de hace un siglo vieron un universo de cambio, evolución y progreso
continuos, los investigadores de hoy ven un universo degenerado, las
cenizas de una explosión primordial.
Para los científicos anteriores, y para la mayoría de los científicos
actuales fuera de la cosmología, las leyes matemáticas son
descripciones de la naturaleza, no la verdadera realidad que yace
detrás de las apariencias. Sin embargo, hoy los cosmólogos asumen,
como lo hicieron Platón y Tolomeo, que el universo es la
encarnación de leyes matemáticas preexistentes, que unas pocas
ecuaciones simples, una Teoría del Todo, pueden explicar el cosmos
excepto por lo que "sopló fuego" en estas ecuaciones para hacerlas
vivir.
La cosmología del Big Bang no comienza con observaciones sino
con derivaciones matemáticas a partir de suposiciones
incuestionables. Cuando las observaciones posteriores entran en
conflicto con la teoría, como lo han hecho repetidamente durante las
últimas décadas, se introducen nuevos conceptos para "salvar el
fenómeno" -materia oscura, WIMPs, cuerdas cósmicas- los
"epiciclos" de la astronomía actual.
Por supuesto, así como el cosmos del siglo XIX no fue meramente
un renacimiento de la filosofía jónica, la cosmología moderna del
Big Bang no es un simple eco de Agustín y Tolomeo. Se basa en una
base impresionante de teoría matemática elaborada y hermosa. Pero,
como las teorías de Ptolomeo, proporciona pocas predicciones que
son confirmadas por la observación.
En un siglo, todas las ideas básicas rechazadas por los científicos en
su lucha contra la cosmología medieval han vuelto a ser la verdad
aceptada. ¿Cómo pudo ocurrir este nuevo giro del péndulo? ¿Cómo
podría la cosmología de la revolución científica ser reemplazada por
la cosmología de la Edad Media? ¿Cómo podría surgir de nuevo en
el siglo XX una visión del mundo que justificara una sociedad de
esclavitud y servidumbre?
Como en los siglos IV y XVII, las batallas de la cosmología actual
no pueden separarse de la evolución de la sociedad en su conjunto.
Un universo de progreso ilimitado de un pasado infinito a un futuro
infinito tiene sentido cuando la sociedad avanza. Pero cuando ese
avance se detiene, cuando el siglo de Verdún, Auschwitz e Hiroshima
se burlan de la idea de progreso, cuando las perspectivas de mejora
humana son escasas, no deberíamos sorprendernos de que el cosmos
en decadencia vuelva a dominar.

LA BELLEZA DE LAS MATEMÁTICAS, LOS LÍMITES DEL


INFINITO

Para ver cómo se produjo este enorme cambio cosmológico, primero


debemos entender que las ideas del método científico y del universo
infinito y evolutivo, que llegó a ser dominante durante los siglos
XVII, XVIII y XIX, nunca fueron aceptadas universalmente, ni
siquiera por los principales científicos. Mientras que el grueso del
trabajo científico utilizaba el método de observación iniciado por
Leonardo y Galileo, el antiguo método deductivo, el de buscar
verdades finales a partir de principios matemáticos indiscutibles,
nunca se abandonó del todo.
En el siglo XVII René Descartes se convirtió en el principal
campeón de la lógica deductiva y abstracta. Descartes fue un
matemático penetrante, el creador de la idea de la geometría de
coordenadas, que permite relacionar las fórmulas matemáticas del
álgebra y el cálculo con las formas de la geometría. Con coordenadas
cartesianas cualquier forma puede ser reducida a un conjunto de
números o una ecuación. Pero Descartes creía que la verdad
científica sólo puede derivarse de tres principios básicos:
movimiento, extensión y Dios. Dios es esencial como creador de la
extensión y el movimiento, que no pueden ser cambiados por la
naturaleza. El experimento debía ser usado, como con los platonistas,
para ilustrar las leyes que matemáticamente se deducen de los
primeros principios.
Dios gobierna el universo a través de estas leyes eternas e
inmutables, al igual que los nuevos gobiernos reales que surgen en
Europa, y especialmente en la Francia natal de Descartes,
gobernaban la sociedad por medio de leyes escritas (en lugar de por
costumbre, como había sido el caso en la Edad Media). Estas leyes
no eran, pues, meras descripciones de la naturaleza, como lo fueron
con Galileo, sino la propia legislación de la naturaleza, superior a
ella como Dios es superior a la creación: El Dios de Descartes fue el
gran dador de la ley.
Descartes revivió también el dualismo platónico del espíritu y la
materia. El mundo material es como una máquina, escribe, pero el
hombre tiene un alma que lo vincula con una esfera diferente: la del
espíritu, que no está gobernada por la ley natural.
La idea cartesiana de un conjunto de leyes universales que controlan
los acontecimientos naturales ejerció un poderoso atractivo en los
siglos siguientes. Laplace, al mismo tiempo que desarrollaba su
teoría de un cosmos en evolución natural, apoyó la idea de que,
dadas las leyes de la gravitación, la mecánica newtoniana y las
"condiciones iniciales" del universo, cada evento subsiguiente no
sólo puede predecirse con precisión, sino que está predeterminado.
Toda la historia del universo y de la tierra es la operación inevitable
de un conjunto de leyes eternas. En términos modernos, Laplace
creía que la física matemática constituye una Teoría del Todo.
¿Por qué se equivoca Laplace? Hay varias razones, pero la más
simple es que ignora todo lo que no se rige por sus leyes mecánicas
básicas. Por ejemplo, ignora las interacciones eléctricas y magnéticas
de los cuerpos, sus reacciones químicas, sus transformaciones
nucleares, el proceso por el cual se calientan y se enfrían; en pocas
palabras, todos los fenómenos ahora conocidos por la ciencia pero
desconocidos para él. Mientras el científico se dé cuenta de que al
formular la hipótesis de una ley matemática exacta está abstrayendo
un solo aspecto de la naturaleza, no surge ningún problema. El error
de Laplace fue asumir que una sola ley matemática puede describir
toda la naturaleza. Por el contrario, el enfoque galileo asume que la
ciencia es abierta, y que nuevos fenómenos, previamente
descuidados o, como la radioactividad, desconocidos, saldrán a la luz
y requerirán una descripción matemática.
El concepto de un universo infinito también fue cuestionado incluso
después de la revolución científica. Newton estaba indeciso sobre si
sus leyes de gravitación excluyen una colección infinita de materia.
Pensó que sólo un posicionamiento divinamente preciso de todas las
estrellas podría evitar que una colección tan infinita de materia
colapsara en una serie de montones. Mucho más tarde, en 1823, el
astrónomo Heinrich Olbers señaló que un universo infinito parecía
implicar una paradoja. Si hubiera un número infinito de estrellas, si
uno fuera lo suficientemente lejos de la Tierra en cualquier dirección,
uno chocaría contra una estrella. Esto implicaba que el cielo debía
ser uniformemente brillante, tan brillante como la superficie del sol,
lo cual obviamente no lo es.
La idea de que el universo tenía una vida finita también existía a
mediados del siglo XIX, aunque sólo en los márgenes populares de la
ciencia. La primera sugerencia de que el universo se originó en una
explosión creativa, el primer Big Bang-en realidad vino de la pluma
de Edgar Allan Poe en 1849. Poe no sólo era un conocido poeta y
escritor, sino también un divulgador científico que se mantenía al día
sobre las últimas investigaciones astronómicas. En el ensayo, Eureka
Poe rechazó la idea de un universo infinito, citando las objeciones de
Olbers. Razonó que un universo gobernado por la gravitación
colapsaría en un montón si no se mantenía separado por alguna
forma de repulsión. Él postuló que Dios, en una enorme explosión en
la creación, separó todas las estrellas. Como un cohete que corre
hacia el cielo, las estrellas y las galaxias primero se expandirían, y
luego se contraerían en una catástrofe final, el fin del mundo.
Tanto los métodos deductivos cartesianos como las preguntas sobre
la infinidad del cosmos permanecieron al margen de la corriente
principal de la ciencia hasta mediados del siglo XIX. El rápido
avance del progreso tecnológico y la transformación igualmente
rápida de la sociedad convencieron a la mayoría de los científicos de
que los métodos básicos de la ciencia producen resultados
comprobados en la práctica, y de que la tesis de un universo
evolutivo ilimitado es válida. No fue hasta que el progreso social y
económico se ralentizó que los supuestos científicos
correspondientes fueron objeto de un serio ataque.

LA "MUERTE POR CALOR" DEL UNIVERSO

En el último tercio del siglo XIX, hacia 1870, la naturaleza de la


rápida evolución social y económica de la sociedad occidental
comenzó a cambiar. Para entonces, los últimos vestigios
institucionales del trabajo forzoso habían sido aniquilados por las
revoluciones sociales en Europa, la Guerra Civil en los Estados
Unidos y la liberación de los siervos en Rusia. Después de la derrota
de la Comuna de París, el intento de 1871 de establecer un gobierno
obrero, Europa entró en un período de relativa estabilidad política.
Las ideas anteriores de progreso revolucionario, el progreso a través
de la participación activa en la historia, rápidamente dieron paso a
nuevos conceptos de progreso como un proceso automático y sin
problemas. Según estas nuevas ideas, los derechos políticos y el
nivel de vida se irán elevando gradualmente a medida que avance la
tecnología, eliminando la necesidad de los violentos trastornos del
pasado.
Pero incluso cuando este progreso automático se convirtió en un
supuesto complaciente de, al menos, la clase media y alta de Europa
y América, la exuberante expansión de la sociedad se estaba
ralentizando. Los sesenta años transcurridos entre 1820 y 1880
fueron testigos del crecimiento económico más rápido de la historia.
Pero para 1880, los límites de los mercados capitalistas estaban
siendo alcanzados: Los productos europeos y estadounidenses
estaban penetrando prácticamente todos los rincones del mundo,
mientras Gran Bretaña, Francia y Alemania se apresuraban a dividir
la única tierra que quedaba: África. Si bien la necesidad real de
bienes seguía siendo inmensa, el mercado de bienes que podían
venderse con beneficios se acercaba al final de su crecimiento.
Durante siglos, millones de nuevos agricultores y campesinos han
sido arrastrados al sistema de mercado capitalista en desarrollo a
medida que los regímenes feudales se desmoronaban y las nuevas
colonias eran conquistadas y absorbidas. Cuando esta expansión
perdió sus fronteras con la formación de un mercado global a finales
del siglo XIX, las economías industriales ya no pudieron continuar
su vigorosa expansión.
A partir de 1880, la producción de hierro y acero y la instalación de
nuevas líneas ferroviarias prácticamente cesaron su crecimiento. Los
salarios reales siguieron aumentando, pero más lentamente,
alcanzando su punto máximo en Europa en 1900. Los fabricantes se
dirigieron a los Estados europeos en busca de nuevos mercados, lo
que condujo al crecimiento de una gigantesca industria
armamentística. Los fabricantes encontraron que, parafraseando a
Lord Keynes, dos acorazados son siempre mejores que uno solo, a
diferencia de dos ferrocarriles de Liverpool a Londres. Estas armas, a
su vez, se utilizaron para maniobrar por una mayor participación en
los preciosos mercados mundiales y en los recursos de las colonias.
Fue en esta era de crecimiento lento que apareció el primer desafío
científico real para el universo ilimitado. La energía del vapor se
había desarrollado a lo largo del siglo XIX, al igual que el estudio del
calor y su transformación, la termodinámica. A principios de siglo,
los científicos habían descubierto que la energía puede ser
transformada de varias maneras, pero nunca creada o destruida, un
principio fundamental que llegó a ser conocido como la primera ley
de la termodinámica. En 1850, Rudolf Clausius descubrió otro
principio fundamental, la segunda ley de la termodinámica. La
relación entre la energía y la temperatura de un cuerpo, una cantidad
que Clausius denominó "entropía", siempre aumenta en cualquier
transformación de energía, por ejemplo, en una máquina de vapor.
En 1877, Ludwig Boltzmann intentó derivar la segunda ley de la
nueva teoría atómica de la materia. Redefinió la entropía en función
de la probabilidad de un determinado estado de la materia: si el
estado es más probable, tiene una mayor entropía. Así, si un millón
de átomos de oxígeno se mezclan con un millón de átomos de
nitrógeno, sería mucho más probable encontrarlos uniformemente
mezclados que segregados. El estado bien mezclado tiene una mayor
entropía, y si se deja solo, un recipiente con oxígeno por un lado y
nitrógeno por el otro pasará rápidamente al estado de mayor entropía
de una mezcla uniforme.
Boltzmann, usando su nueva definición de entropía, continuó
demostrando, por lo que afirmó, que todos los sistemas tienden hacia
un estado de equilibrio, definido como el estado en el que no hay
flujo neto de energía. Por lo tanto, un objeto caliente y un objeto frío
puesto en contacto no están en equilibrio, ya que el calor fluirá de
uno a otro, hasta que tengan la misma temperatura, que es un estado
de equilibrio.
A partir de esta prueba, Boltzmann propuso un nuevo concepto con
profundas implicaciones cosmológicas. El universo en su conjunto
debe, como cualquier sistema cerrado, tender hacia un estado
equilibrado de entropía: será completamente homogéneo, la misma
temperatura en todas partes, las estrellas se enfriarán, su flujo de
energía vital cesará. Cualquier sistema cerrado debe pasar de un
estado ordenado a otro menos ordenado, lo contrario del progreso.
Boltzmann era consciente de que sus ideas contradecían la noción,
entonces ampliamente aceptada, de un universo sin principio ni fin.
El universo actual está lejos de un estado de equilibrio, ya que
comprende estrellas calientes y espacio frío. Si todos los sistemas
naturales se "agotan" hasta el desorden, el estado actual de orden
debe haber sido creado por algún proceso que viola la segunda ley en
un tiempo finito en el pasado. Por el contrario, en un tiempo finito en
el futuro, el mundo dejará de existir, convirtiéndose en una masa
homogénea sin vida: el progreso humano no es más que un episodio
efímero e intrascendente de una decadencia universal.
Boltzmann encontró sus resultados perturbadores. Puesto que
rechazó un origen sobrenatural del universo, trató de argumentar que,
en una cantidad infinita de tiempo, ocurren eventos extremadamente
improbables, tales como la organización espontánea de un universo,
o de una gran parte del mismo, a partir de un estado previo de
equilibrio. La segunda ley es, después de todo, una ley estadística
que establece lo que es probable que suceda, no lo que debe suceder.
Así como existe una probabilidad increíblemente pequeña de que
todo el aire de una habitación se apresure hacia un lado, existe una
probabilidad menor de que todos los átomos de una parte homogénea
de un universo infinito se junten repentinamente en un punto de baja
entropía. El argumento de Boltzmann no impresionó mucho a sus
colegas científicos, ya que, según sus propias teorías, la probabilidad
de que esto ocurriera era, de hecho, tan pequeña que equivalía a una
imposibilidad.
Pero los científicos tenían otras razones para no aceptar la
implicación de la segunda ley de que el universo necesariamente
tenía un comienzo del que ahora se estaba agotando. Las
predicciones de la termodinámica parecían contradecir lo que se
sabía de la evolución geológica y biológica. En la década de 1890
estalló un debate entre termodinamistas y geólogos sobre la edad de
la tierra. El físico Lord Kelvin argumentó que, a partir de la tasa de
enfriamiento de la tierra, estimada a partir de la medición del calor
en las minas, la tierra debe haber estado casi fundida hace tan sólo
veinte millones de años. Los geólogos respondieron que la formación
de ciertos depósitos rocosos debe haber tomado por lo menos veinte
veces más tiempo, cuatrocientos millones de años. Respaldados no
por la teoría sino por una vasta acumulación de observaciones, los
geólogos dudaron de las teorías de los físicos.
Además, algunos termodinamistas señalaron que Boltzmann había
demostrado ser mucho menos de lo que afirmaba. Asumió que el gas
comenzó en un alto grado de desorden, cerca del equilibrio, y nunca
se alejó de él. Además, sólo permitía las colisiones atómicas, pero no
tenía en cuenta las fuerzas de largo alcance, como el
electromagnetismo o la gravedad. Sin embargo, en la mayoría de las
situaciones físicas reales, estas restricciones no son válidas, por lo
que la prueba de Boltzmann no es aplicable. Un siglo más tarde, los
científicos debían demostrar que, en el caso general, la ley de
Boltzmann de aumento del trastorno simplemente no es cierta.
Más allá de estas objeciones científicas, sin embargo, estaban las
culturales. En cualquier momento, los científicos deben decidir qué
problemas o paradojas aparentes valen la pena y cuáles simplemente
deben ser descartados; es aquí donde la ideología de la época, de la
sociedad en su conjunto, afecta a lo que los científicos sienten que
"tiene sentido", y el concepto de Boltzmann de un mundo en
decadencia simplemente no tenía sentido para la mayoría de los
científicos del siglo XIX.
A finales del siglo XIX, mientras que los avances materiales se
habían ralentizado y empezaban a surgir las tendencias ominosas que
conducían a las crisis del siglo XX, el progreso seguía siendo la idea
predominante de la época. El nivel de vida siguió aumentando,
aunque más lentamente, hasta 1900. El progreso tecnológico fue más
rápido que en cualquier otro momento de la historia de la
humanidad: alguien nacido en 1870 habría crecido en un mundo de
luz de gas y carruajes tirados por caballos, pero a los cuarenta años
viviría en un mundo de electricidad, teléfonos, fonógrafos, películas,
radiotelégrafos, automóviles y aviones.
La ciencia, también, avanzó dramáticamente en el mismo período.
La biología y la medicina se transformaron en la década de 1880 por
la teoría de los gérmenes de la enfermedad, lo que condujo al uso
generalizado de antisépticos en la cirugía y al uso general de la
vacunación. La física vio florecer el estudio del electromagnetismo,
fundado en 1865 por James Clerk Maxwell, y más tarde la
radioactividad, los rayos X, la teoría especial de la relatividad de
Einstein y el comienzo de la teoría cuántica.
La realidad del progreso de la ciencia y la sociedad era tan evidente
para el científico medio que la visión de Boltzmann de un universo
en continua decadencia parecía demasiado extraña. En la práctica, las
leyes de Boltzmann fueron muy útiles en el tratamiento de las
máquinas de vapor y sistemas gaseosos simples, y fueron
ampliamente aplicadas. Pero sus amplias generalizaciones sobre la
cosmología, que implicaban que el universo debía haber tenido un
comienzo, debían haber sido "liquidadas", no tuvieron un impacto
significativo durante más de una generación.
■ EL REGRESO DE UN UNIVERSO FINITO

La confianza europea y americana en el progreso se rompió en


agosto de 1914. En los cuatro años siguientes, el vasto poder
económico y los logros tecnológicos del siglo pasado fueron
arrojados a la bárbara empresa de masacrar a veinte millones de seres
humanos. Después de la guerra vino la revolución y la
contrarrevolución: el nivel de vida de la clase obrera había caído en
picado durante la Primera Guerra Mundial, y los movimientos
obreros habían tomado el poder en Rusia e intentado hacerlo en
Alemania. En toda Europa y Estados Unidos, los empleadores y los
gobiernos lucharon contra los huelguistas.
El 9 de noviembre de 1919, la primera plana del New York Times se
llenó de noticias de agitación. La REVOCACIÓN DEL LLAMADO
A LA HUELGA DE LAS ÓRDENES DEL TRIBUNAL DE
JUSTICIA fue el titular principal, ya que el gobierno prohibió una
huelga nacional de carbón, que el juez advirtió que "socavaría los
cimientos de la República", mientras que otro titular decía: 73
CENTROS ROJOS ATACADOS AQUÍ POR EL COMITÉ DE LOS
LUSK, el artículo que habla de centenares de inmigrantes capturados
como subversivos peligrosos en las redadas en la ciudad de Palmer, y
luego deportados de manera sumaria. ESTALLIDOS EN
CIUDADES ITALIANAS DURANTE ANIVERSARIO DE
BOLCHEVISTAS, se leía en un tercero.
La página seis tenía una historia muy diferente: ECLIPSE MOSTRÓ
VARIACIÓN DE LA GRAVEDAD, y a continuación, DIVERSIÓN
DE UN RAYO DE LUZ ACEPTADA COMO AFECTANTE DEL
PRINCIPIO DE NEWTON, ACONSEJADA COMO
REALIZADOR DE EPOCH. UN CIENTÍFICO BRITÁNICO
LLAMA AL DESCUBRIMIENTO UNO DE LOS MAYORES
LOGROS HUMANOS. Una observación del eclipse solar del 29 de
mayo de 1919 había confirmado la predicción de Einstein de la
desviación de la luz de una estrella distante por la gravedad del sol.
Esta reivindicación de su teoría general de la relatividad fue
anunciada en una reunión de la Real Sociedad Astronómica.
¿Por qué la teoría de Einstein, ni siquiera brevemente descrita en este
primer artículo, fue tan sobresaliente? Un científico señaló que el
efecto de las pequeñas diferencias con las leyes de Newton sobre la
astronomía práctica no sería muy grande. El Times informó que "el
cambio se sentiría principalmente en el campo del pensamiento
filosófico" y que "el espacio ya no se vería como una extensión
indefinida en todas las direcciones". Las líneas rectas no existirían en
el espacio de Einstein. Todos serían curvos y si viajaran lo suficiente
regresarían a su punto de partida".
Así, el primer anuncio público de la teoría de Einstein proclamó
repentinamente la falsedad de un principio cosmológico básico, que
el universo es infinito. Más sorpresas llegaron al día siguiente
cuando un titular del Times declaró, LUCES TORCIDAS EN LOS
CIELOS, HOMBRES DE CIENCIA MÁS O MENOS AGITADOS.
La nueva teoría no sólo era impactante en su implicación, sino
también incomprensible:
J. J. Thomson declaró que era inútil detallar la teoría al hombre de la
calle, pues sólo podía expresarse en términos estrictamente
científicos, siendo "puramente matemáticos" De hecho, el Times
continuó, el propio Einstein había advertido a sus editores que no
había más de doce personas en todo el mundo que pudieran entender
su teoría. Pero, comentó otro científico, esto no era motivo de
preocupación, ya que "los descubrimientos, aunque muy importantes,
no afectaron a nada en esta tierra", sólo a los cielos.
Esta idea también fue una ruptura tremenda con el pasado. Durante
cientos de años ha sido una creencia común que transmitir los
últimos descubrimientos científicos a un público lo más amplio
posible no sólo era posible sino esencial. La ciencia de hoy sería la
tecnología del mañana, y aquellos que manejan una industria cada
vez más tecnológica tendrían que entender las nuevas máquinas. Las
conferencias públicas sobre ciencia del siglo XIX dictadas por las
principales autoridades normalmente atraían a una muestra
representativa de trabajadores y de la clase media, deseosos de
mantenerse al día con el progreso. Y la experiencia confirma la
necesidad de este proceso. Después de todo, quince años después de
que Maxwell descubriera las leyes del electromagnetismo, Thomas
Edison las convirtió en la base de una revolución tecnológica.
Ahora los científicos decían que esta nueva teoría no era, ni siquiera
en principio, comprensible, y que no tendría ningún impacto en la
tecnología terrenal -sólo en los cielos.
La forma en que se transmitió este descubrimiento fue tan inédita
como el propio descubrimiento. Las dos décadas anteriores habían
visto su parte de fenómenos sorprendentes: los rayos X, la
radioactividad, la propia teoría especial de la relatividad de Einstein
(que se refiere a los efectos de las altas velocidades) y la teoría
cuántica. La mayoría de ellas implican ideas difíciles y, a diferencia
de la teoría general de la relatividad, todas tienen implicaciones
inmediatas para la tecnología. Sin embargo, ninguna de ellas había
sido publicada como noticia en la prensa popular; en cambio, se
difundían a través de revistas y conferencias populares. Ahora el
descubrimiento de Einstein estaba siendo reportado junto con el
último arresto de los Rojos y los despachos de la Guerra Civil en
Rusia.
La recepción pública de la teoría general de la relatividad de Einstein
es un desarrollo sorprendente en la historia de la ciencia.
Prácticamente de la noche a la mañana muchos de los símbolos de la
cosmología antigua fueron reintroducidos. Tenemos un universo
finito, calculado en un radio de dieciocho millones de años luz. Es de
nuevo un cosmos, en el que el conocimiento de los cielos es el
privilegio de una élite, sin aplicaciones prácticas en la tierra,
desvinculada de la promesa de un progreso igualitario. ¿Cómo es
posible que estas nociones tan sorprendentes hayan sido tan rápida y
ampliamente difundidas por los principales periódicos del mundo?
¿Por qué fueron vistos como noticias importantes, rivales de huelgas,
guerras y revueltas?
La nueva teoría de Einstein atrajo a científicos, reporteros y editores
porque trajo una visión del universo como un todo, una visión que
apareció como un consuelo para una sociedad atormentada. La
cosmología que Einstein desarrolló en 1917, dos años después de
formular su teoría general, tuvo, para muchos científicos, una
atracción estética y filosófica terrible. En parte, esto se basaba en el
atractivo de la relatividad general misma. Como Alfven ha escrito,
"Nadie puede estudiar la Relatividad General sin estar inmensamente
impresionado por su indiscutible belleza matemática" y, además, se
demostró no sólo en su predicción de que la luz cercana al sol se
doblaría por la gravedad, sino por sutiles variaciones en la órbita de
Mercurio que la gravitación newtoniana no podía explicar. A Newton
y a otros científicos siempre les ha molestado que la gravedad
pareciera actuar "a distancia", una influencia mágica en el espacio
vacío. La relatividad general elimina este problema, mostrando que
la masa curva el espacio a su alrededor como un peso que descansa
sobre una hoja tirante en los bordes. Es esta curvatura del espacio lo
que resulta en la gravedad, no la acción directa de un objeto sobre
otro.
Pero por muy hermoso que fuera, este cambio en la teoría
gravitacional no fue lo que capturó la imaginación de los científicos
y la prensa. Fueron en cambio las especulaciones cosmológicas de
Einstein sobre un universo cerrado y finito. La gravedad, argumentó
Einstein, curvaría todo el cosmos en una esfera de cuatro
dimensiones, finita, pero sin límites. El universo esférico de Einstein
es estático, eternamente inmutable, regido por sus elegantes
ecuaciones.
Para una sociedad destrozada por la Primera Guerra Mundial, esta
visión de un universo tranquilo y ordenado debe haber sido
tremendamente tranquilizadora. Cuando la humanidad progresa, el
dinámico universo infinito cambiante, el "universo inquieto", como
lo llamó Sir James Jeans, parece excitante y desafiante. Pero cuando
los asuntos humanos están en ruinas, y el cambio ya no significa
progreso sino agitación y muerte, un universo finito y estático como
el de Einstein puede parecer un bálsamo para las almas torturadas,
así como el cosmos jerárquico de Agustín parecía ofrecer refugio de
la confusión y la miseria del siglo IV.
Como uno de los biógrafos de Einstein, el físico Abraham Pais,
escribió: "El descubrimiento de Einstein apeló a temas míticos
profundos. Un nuevo hombre aparece abruptamente, el de repente
famoso Dr. Einstein. Lleva un mensaje de un nuevo orden en el
universo. . . . Su lenguaje matemático es sagrado, .... la cuarta
dimensión, la luz tiene peso, el espacio está deformado. Él satisface
dos necesidades profundas en el hombre, la necesidad de saber y la
necesidad de no saber sino de creer." 1 En un tiempo de muerte e
incertidumbre, "él representa el orden y el poder.
La gran crisis causada por la guerra probablemente tuvo mucho que
ver también con la promoción de la idea de que la Relatividad
General era incomprensible por parte de los principales científicos.
Había algo de verdad en esto. Las matemáticas que describían la
curvatura del espacio eran complejas. De hecho, sólo una docena de
investigadores lo habían dominado - presumiblemente el origen de
los comentarios de Einstein.
Pero esto era sólo una pizca de verdad. En 1919, al igual que en la
actualidad, la gran mayoría del público carecía de los conocimientos
matemáticos necesarios para comprender las ecuaciones que
describían prácticamente cualquier teoría física, incluso la de
Newton. Sin embargo, la historia era completamente diferente
cuando se trataba de los conceptos físicos involucrados. Como lo han
demostrado las popularizaciones posteriores, la idea básica de que la
gravedad altera las trayectorias de los objetos a través de la curvatura
del espacio es bastante simple de visualizar y comprender utilizando
modelos bidimensionales.
Para los científicos de 1919, sin embargo, la tentación de enfatizar la
incomprensibilidad de la teoría, más que su elegancia y simplicidad
conceptual, debe haber sido muy grande. Como la mayoría de la
clase media europea, los científicos se sintieron agredidos por todas
partes en los años de la guerra mundial y sus secuelas. Carecían del
poder de los ricos y eran como cualquier otro ciudadano, los peones
indefensos de los estados en guerra. Ahora, cuando la revolución
sacudía Europa, la clase media se sentía amenazada por los
movimientos obreros que parecían amenazar el estatus y los
privilegios ganados con tanto esfuerzo.
Para científicos como J. J. Thomson, dar la vuelta y decir a los
poderosos y a las masas por igual, "sólo nosotros podemos entender
los secretos del universo: están más allá de ustedes" bien podría
haber parecido una dulce venganza por las indignidades del pasado
reciente. Además, mientras que la relatividad general en sí misma
podría explicarse en términos de sentido común, la cosmología que
muchos científicos consideraron atractiva no podría serlo. Para el
hombre promedio, un universo finito le parecía absurdo. Si esta
nueva cosmología iba a ser aceptada, era conveniente apelar a la
creencia acrítica, sosteniendo que las razones de la nueva visión
estaban más allá del conocimiento de los mortales ordinarios y, por
lo tanto, no podían ser cuestionadas.
Inicialmente, las afirmaciones de los científicos, aunque
ampliamente difundidas, fueron recibidas con cierto escepticismo:
"Lo que dicen", señalaba el New York Times en su editorial, "sugiere
menos la imposibilidad de hacer comprensible el descubrimiento de
Einstein, que la inclinación a guardarse algo particularmente
interesante para ellos mismos.... Si se explicara y renunciáramos a
ello, no se haría ningún daño, porque estamos acostumbrados a ello.
Tampoco todo el mundo compró fácilmente la idea de que el
universo era finito. "Los laicos críticos ya han objetado que los
científicos que proclamar que el espacio llega a su fin es una
obligación para decirnos qué hay más allá", informó el Times.
Sin embargo, en pocas semanas, la línea del periódico sobre la
relatividad había dado un giro completo. Bajo el título "Nadie
necesita ofenderse", el Times proclamó que para aquellos que no
entienden de matemáticas, "no queda más remedio que aceptar la
conclusión del experto, con la autoridad de su creador, apoyada por
la aceptación de otros pocos como él."
Es imposible saber exactamente qué motivó este notable cambio de
opinión, del que se hicieron eco el London Times y muchos otros
periódicos, que pronto hicieron proverbial la incomprensible
incomprensibilidad de Einstein. Podemos adivinarlo. En 1919, los
dueños de los periódicos y los demás poderes tenían sus propios
motivos para exhortar a sus lectores a la aceptación incondicional de
la autoridad. Los periódicos estaban llenos de cuentos de hadas
modernos sobre los bolcheviques que lanzaban bombas y que
estaban detrás de cada huelga y de cada campaña de organización
sindical, los extranjeros poco confiables que necesitaban ser
acosados antes de que se hundieran en la anarquía y el
derramamiento de sangre, y los capitanes patrióticos de la industria
que sólo se preocupaban por los intereses del país mientras sus
matones linchaban a los trabajadores rebeldes. Tal vez los editores
pensaron que, con todos los desafíos revolucionarios a la autoridad,
un pequeño refuerzo de la autoridad científica no era una mala idea
después de todo.

■ EL RENACIMIENTO DEL MITO

Cualesquiera que sean los complejos motivos que produjeron el mito


de Einstein y la teoría general de la relatividad, ha tenido un
profundo impacto en la ciencia del siglo XX. Diecinueve y nueve se
convirtieron en una falla en la historia de la ciencia, y en ese año
comenzaron las principales tendencias que iban a conducir a la
aceptación del Big Bang.
Como señala Alfven, es bastante irónico que un triunfo de la ciencia
condujera al resurgimiento del mito. El efecto más desafortunado del
mito de Einstein es la consagración de la creencia, rechazada durante
cuatrocientos años, de que la ciencia es incomprensible, de que sólo
un sacerdocio iniciado puede comprender sus misterios. Alfven
escribió sesenta años después: "A la gente se le dijo que la verdadera
naturaleza del mundo físico no podía ser entendida excepto por
Einstein y otros genios que eran capaces de pensar en cuatro
dimensiones. La ciencia es algo en lo que hay que creer, no algo que
haya que entender. Pronto los más vendidos entre los libros de
ciencia popular se convirtieron en los que presentaban resultados
científicos como insultos al sentido común. Una de las consecuencias
fue que el límite entre la ciencia y la pseudociencia comenzó a
borrarse. Para la mayoría de la gente era cada vez más difícil
encontrar alguna diferencia entre ciencia y ciencia ficción". 2 Peor
aún, la constante reiteración de la incomprensibilidad de la ciencia
no podía dejar de volver a muchos en contra de la ciencia y fomentar
el anti-intelectualismo.
El triunfo distorsionado de la relatividad general también ha
contribuido al resurgimiento de los métodos puramente deductivos
de Descartes y Platón. La mayoría de las teorías, como las leyes de
Newton o las teorías de Maxwell sobre el electromagnetismo, son
rápidamente confirmadas por cientos o miles de observaciones
independientes. Las teorías de Einstein fueron aceptadas al principio
sobre la base de sólo dos: la desviación de la luz de las estrellas por
el campo gravitatorio del sol y el sutil cambio de órbita de Mercurio.
Especialmente en las últimas décadas, han recibido muchas más
confirmaciones, de modo que la fe de Einstein y sus partidarios ha
sido justificada retrospectivamente. La relatividad general, que ahora
conocemos por observación, es casi incuestionablemente una teoría
precisa de la gravitación.
Pero desde que las teorías de Einstein fueron inicialmente "probadas"
sobre la base de sólo dos observaciones, esta situación excepcional
ha llegado a ser un precedente en la cosmología. Una y otra vez se
han aceptado teorías elaboradas como verificadas sobre la base de
una o dos observaciones aparentemente confirmadas. El resultado ha
sido una pérdida de rigor en la comparación entre la teoría y la
observación.
Esta tendencia podría no haber sido tan importante si no hubiera sido
por el apoyo explícito de Einstein al método deductivo. Llegó a creer
que sus teorías se desarrollaron como deducciones de ciertos
principios fundamentales, principalmente matemáticos, y que este
método deductivo es el que la ciencia debe seguir cada vez más. En
1934 escribió: "La teoría de la relatividad es un buen ejemplo del
carácter fundamental del desarrollo moderno de la ciencia teórica.
Las hipótesis con las que comienza son cada vez más abstractas y
alejadas de la experiencia. El científico teórico se ve cada vez más
obligado a guiarse por consideraciones puramente matemáticas y
formales en su búsqueda de una teoría, porque la experiencia física
del experimentador no puede elevarlo a las regiones de mayor
abstracción. Los métodos predominantemente inductivos apropiados
para la juventud de la ciencia están dando lugar a una deducción
tentativa." 3
Sin embargo, el desarrollo real de la teoría de la relatividad, tal como
lo describe el propio Einstein, no confirma en absoluto sus
generalizaciones sobre el método. (Como Einstein comentó, los
grandes científicos tienden a hacer pobres filósofos de la ciencia.) En
el ensayo que acabamos de citar, Einstein intentó justificar los
métodos puramente deductivos que llegó a utilizar en los años
treinta, en sus esfuerzos por crear una teoría del campo unificado que
explicara tanto la gravedad como el electromagnetismo. Luego
declaró brevemente que la relatividad general surgió directamente de
un problema matemático abstracto: cómo definir las leyes físicas de
tal manera que parezcan iguales para todos los observadores,
independientemente de que los observadores se hayan acelerado o no
entre sí.
Pero en el siguiente ensayo del mismo librito, Essays in Science,
Einstein aborda directamente la cuestión histórica de cómo surgió la
teoría de la relatividad. Él cuenta una historia diferente, lo que deja
claro que sus teorías no se dedujeron simplemente de la razón pura.
La teoría especial de la relatividad -que describe cómo la medición
del tiempo, la longitud y la masa cambian con la velocidad, y que
condujo a la famosa equivalencia de materia y energía- se derivó de
las ecuaciones de Maxwell, que describen la electricidad y el
magnetismo. Estas relaciones se basaron, a su vez, en miles y miles
de observaciones a lo largo de décadas de trabajo. La clave que llevó
a Einstein a la relatividad fue el uso de la velocidad de la luz en las
ecuaciones de Maxwell. Einstein razonó que esta velocidad debe ser
constante para todos los observadores, sin importar cuán rápido se
movieran, ya que para todos los observadores, las ecuaciones de
Maxwell eran ciertas. A partir de esta simple pero fundamental
observación, Einstein desarrolló las relaciones de relatividad.
El mismo método de generalización basado en observaciones
simples pero vitales de la naturaleza condujo también a la teoría
general de la relatividad. Al pensar en cómo encajaría la gravitación
en su teoría de la relatividad, Einstein fue golpeado, como explicó
más tarde, por la noticia de un hombre que sobrevivió a una caída
desde un techo y comentó que no había sentido ningún peso durante
la caída, es decir, ninguna atracción de la gravedad. Einstein sabía
que esto es una consecuencia directa del hecho bien conocido de que
todos los objetos, independientemente de su peso, caen a la misma
velocidad en un campo gravitacional. Un hombre que cae y suelta
una moneda la verá flotar a su lado, ya que cae con la misma
velocidad. Einstein razonó que para un hombre que cae no habría
campo gravitacional, porque está acelerando constantemente. Así que
un campo gravitacional y la aceleración deben ser equivalentes. Esta
fue la base de su gradual evolución de una nueva teoría de la
gravedad.
En este esfuerzo de diez años, Einstein introdujo continuamente
suposiciones matemáticas básicas que le parecían simples y
necesarias. Pero él sabía que cualquier ley de la gravedad debe estar
de acuerdo con las leyes de Newton en la mayoría de los casos, ya
que esas leyes han sido confirmadas por millones de observaciones.
Una y otra vez rechazó sus suposiciones cuando sus consecuencias
no coincidían con la observación: "Ese Einstein," comentó
irónicamente en un momento dado, "cada año se retracta de lo que
escribió el año anterior".
En esto siguió exactamente el método que Kepler había usado en los
primeros días de la revolución científica, cuando aplicó varias teorías
matemáticas a los movimientos conocidos de Marte. Einstein
finalmente llegó a una respuesta no a través de deducciones de los
primeros principios, sino a través de un destello de perspicacia - la
gravedad puede ser descrita como una curvatura del espacio. Si los
objetos viajan por el camino más corto en el espacio curvo, entonces
sus caminos se curvan, independientemente de su masa.
Fue sólo cuando Einstein se dedicó, después de 1915, a los campos
de la cosmología y las teorías de la unificación que realmente aplicó
los métodos deductivos que adoptó en abstracto. Y aquí los
resultados fueron radicalmente diferentes de sus primeros avances:
su búsqueda de una teoría unificada del electromagnetismo y la
gravitación, que lo ocupó durante los últimos treinta años de su vida,
fue sin duda un fracaso, incluso para él mismo.
En su cosmología se apartó de nuevo del método estándar adoptando
una premisa fundamental que en realidad estaba en contradicción con
la observación, una hipótesis que se convertiría en básica para toda la
cosmología relativista subsiguiente. Einstein asumió que el universo
como un todo es homogéneo, que la materia está, en la escala más
grande, distribuida uniformemente a través del espacio. Dado esto,
Einstein utilizó su teoría general de la relatividad para probar que el
espacio sería finito. En pocas palabras, cuanto más grande es una
masa de una densidad dada, más se curva el espacio. Si es lo
suficientemente grande, curvará el espacio completamente alrededor
de sí mismo. Así que si el universo es homogéneo, con la misma
densidad en todas partes, debe ser finito.
Pero para 1919 había una enorme evidencia de que el universo no es
homogéneo. En los tiempos de Newton, los científicos sabían que
casi toda la materia está concentrada en estrellas, separadas entre sí
por vastos espacios casi vacíos. La observación subsiguiente (antes
de Einstein) mostró que las estrellas cercanas forman una galaxia
agregada, la Vía Láctea. Incluso para la década de 1850 los
astrónomos habían notado que las nebulosas espirales, que muchos
creían con razón que eran otras galaxias, estaban concentradas en
una banda ancha a través del cielo, una formación mucho más
recientemente llamada un supercluster galáctico.
Así que Einstein sabía que la observación indica que el universo a
todas las escalas era inhomogéneo. Sin embargo, por razones
puramente filosóficas y estéticas, propuso un cosmos homogéneo,
sentando así las bases para un renacimiento de un universo finito.
Pero para un universo no homogéneo, cuando la densidad de una
gran sección del espacio es menor que la de las regiones más
pequeñas, no es necesario que el universo se encierre en una esfera.
La suposición de Einstein de homogeneidad tuvo tres efectos
profundos en la cosmología. En primer lugar, introdujo la idea de un
universo finito, que resucitó el cosmos medieval, considerado
anteriormente obsoleto y antitético para la ciencia misma. En
segundo lugar, la simplicidad estética de la suposición de
homogeneidad, combinada con el prestigio de Einstein, incrustó esta
suposición en toda la cosmología relativista futura. En tercer lugar, y
quizás lo más importante, sentó un precedente al permitir la
introducción de supuestos contrarios a la observación, con la
esperanza de que la observación adicional justifique el supuesto. En
el caso de la cosmología de Einstein era la esperanza de que, a
escalas mayores que las de los cúmulos y super cúmulos de galaxias,
el universo se suavizara.

■ EL NACIMIENTO DEL BIG BANG

Einstein había formulado por primera vez su concepción de un


universo estático y finito en 1917, dos años después de desarrollar la
teoría general de la relatividad. Pero pronto vio sus defectos. Un
universo estático, cerrado, no podía permanecer estático, porque su
propia gravitación lo haría colapsar. Esto era un problema no sólo de
su teoría, sino de cualquier teoría de la gravedad, incluyendo la de
Newton. Como Poe había señalado setenta años antes, a menos que
un cuerpo de materia rote, colapsará bajo su propia rotación por
gravedad -sólo la rotación estabiliza cuerpos como la galaxia y el
sistema solar. Pero Einstein descartó un universo rotatorio por
motivos filosóficos. Primero, creía que la rotación en sí misma es
relativa, como cualquier otro movimiento, y que el universo no podía
rotar en relación con ninguna otra cosa. En segundo lugar, la rotación
implica un eje central, pero tal eje sería una dirección distinta en el
espacio, diferente de todos los demás, lo que contradice su creencia
de que el espacio es el mismo en todas partes y en todas las
direcciones. Tercero, Einstein creía que sus ecuaciones dictaban un
universo cerrado. Un universo con un campo gravitacional tan
poderoso no estaría estabilizado por la rotación, incluso si estuviera
girando a la velocidad de la luz - y cualquier rotación más rápida está
prohibida por la teoría especial de la relatividad.
Claramente, razonó Einstein, algo impide el colapso del universo,
algo así como la fuerza centrífuga de rotación, pero no la rotación en
sí misma. Esta fuerza debe aumentar de alguna manera con la
distancia: nunca había sido observada en la tierra o en el sistema
solar, pero debe ser lo suficientemente fuerte a distancias
cosmológicas como para superar la gravedad. Introdujo un nuevo
término en sus ecuaciones de la gravedad, "la constante
cosmológica", una fuerza repulsiva cuya fuerza aumenta
proporcionalmente a la distancia entre dos objetos, al igual que la
fuerza centrífuga de un cuerpo rígidamente giratorio aumenta
proporcionalmente a su radio. Pero esta fuerza, pensó, actúa en todas
las direcciones por igual, como la gravedad, de modo que no
perturba la simetría del universo.
Para preservar su concepción de un universo estático, Einstein
estableció la constante cosmológica a un nivel que equilibraría
exactamente la gravedad, de modo que su fuerza repulsiva neutralizó
la tendencia del universo a colapsar.
Esta fue la cosmología delicadamente equilibrada que cautivó a
científicos de renombre como Arthur Eddington y J. J. Thomson en
1919. Los asuntos descansaron allí durante cinco años. En este
tiempo, a pesar de la excitación suscitada por la teoría general de la
relatividad, sólo una docena de científicos en todo el mundo
dominaron sus complejidades lo suficientemente bien como para
continuar la investigación en el área.
En 1924 nuevas observaciones cambiaron radicalmente el panorama.
Durante una década, los astrónomos habían estado midiendo el
espectro de estrellas en galaxias cercanas. En casi todos los casos, los
espectros se desplazaron ligeramente hacia el rojo. Los científicos
sabían desde hace tiempo que la explicación más simple para estos
corrimientos hacia el rojo es que las galaxias se están alejando,
cambiando la frecuencia de la luz hacia el rojo (un fenómeno
análogo hace que el tono de un silbato de tren se eleve a medida que
se acerca y desciende a medida que retrocede). Parecía extraño que,
en lugar de moverse al azar, todas las galaxias parecían alejarse unas
de otras y de nosotros.
Carl Wirtz, un astrónomo alemán, reunió todas las cuarenta y tantas
observaciones en 1924 y notó una correlación: cuanto más débil es la
galaxia, más alto es su corrimiento hacia el rojo, por lo tanto, más
rápido retrocede. Asumiendo que las galaxias más débiles están más
distantes, entonces la velocidad aumenta con la distancia. La
conclusión fue tentativa, ya que las distancias a las galaxias eran
inciertas. Pero el astrónomo estadounidense Edwin Hubble y su
asistente Milton Humason pronto comenzaron a examinar los
hallazgos de Wirtz. El Hubble había desarrollado una nueva forma de
medir la distancia a una galaxia, basada en el brillo conocido de
ciertas estrellas peculiares llamadas variables Cefeidas. Pronto la
comunidad astronómica se enteró de que los datos del Hubble
parecían confirmar la relación entre el corrimiento al rojo y la
distancia.
Esta noticia fue de gran interés para un joven sacerdote belga y
relativista en ciernes, Georges-Henri Lemaitre. Nacido en 1894,
Lemaitre recibió su doctorado en física en 1920, y poco después
entró en un seminario para estudiar para el sacerdocio. Mientras
estaba en el Seminario de Maline, se fascinó con el nuevo campo de
la relatividad general, y después de ser ordenado en 1923, fue a
Inglaterra a estudiar con Eddington. Luego pasó el invierno de 1924-
1925 en el Harvard Observatory, donde escuchó la conferencia del
Hubble, y se enteró de la creciente evidencia de la relación entre el
desplazamiento al rojo y la distancia.
En los dos años siguientes, Lemaitre desarrolló una nueva teoría
cosmológica. Estudiando las ecuaciones de Einstein, descubrió,
como otros lo habían hecho antes que él, que la solución propuesta
por Einstein era inestable; una ligera expansión haría que la fuerza
repulsiva aumentara y la gravedad se debilitara, llevando a una
expansión ilimitada, o una ligera contracción, viceversa, llevaría al
colapso. Lemaitre, alcanzando independientemente las conclusiones
alcanzadas cinco años antes por el matemático ruso Alexander
Friedmann, mostró que el universo de Einstein es sólo una solución
especial entre infinitas cosmologías posibles -algunas
expandiéndose, otras contrayéndose, dependiendo del valor de la
constante cosmológica y de las "condiciones iniciales" del universo.
Lemaitre sintetizó este resultado puramente matemático con las
observaciones tentativas de Wirtz y Hubble, y concluyó que el
universo como un todo debe estar expandiéndose, separando las
galaxias. Y si el universo se está expandiendo, entonces cualquiera
de los escenarios cosmológicos que llevaron a la expansión podría
ser una descripción válida del universo. Pero la repulsión cósmica y
la gravedad no están delicadamente equilibradas -la repulsión
predomina en un universo en expansión.
Lemaitre presentó su hipótesis de un universo en expansión en una
publicación poco conocida en 1927, y en dos años su obra y la de
Friedmann se habían hecho ampliamente conocidas y aceptadas en la
pequeña fraternidad cosmológica. Para entonces, 1929, el Hubble
había publicado los primeros resultados que mostraban la relación
del corrimiento al rojo, aparentemente confirmando la idea de
Lemaitre de un universo en expansión.
Sin embargo, esto aún no era el Big Bang. Las ecuaciones de
relatividad general derivadas de Friedmann y más tarde de Lemaitre
sólo mostraron que muchas soluciones condujeron a la expansión
universal. De hecho, algunas soluciones produjeron una singularidad,
un colapso o una expansión de un universo de radio cero. Si la
gravedad era fuerte, el universo era denso, y la repulsión era débil, el
universo colapsaría; si lo contrario era cierto, el universo se
expandiría hacia afuera desde un punto. Pero si ambas fuerzas fueran
fuertes, no habría un estado singular: el universo podría estar
desviándose de un estado cercano al equilibrio de Einstein,
alejándose cada vez más rápido con el paso del tiempo; o podría
haberse contraído de un radio indefinidamente grande en el pasado
infinito a un radio mínimo, tal vez todavía muy grande, pero ahora
nuevamente expandiéndose. Estas soluciones no singulares
asumirían un universo de edad infinita. De hecho, no todas las
soluciones posibles son espacialmente finitas, esferas cerradas, como
Einstein imaginó; algunas son infinitas en extensión espacial. Toda
solución posible, sin embargo, está limitada de alguna manera, ya sea
por un origen en el tiempo, por estar cerrada en el espacio, o por
ambos (Fig. 4.1).
En general, cuando las ecuaciones que describen la realidad física
producen singularidades -soluciones que involucran ya sea cero o
infinita- es una señal de que algo anda mal, ya que los científicos
asumen que sólo se deben predecir cantidades mensurables y finitas.
Así que inicialmente las soluciones sin singularidades fueron las que
llamaron más la atención.
Esto es hasta donde la relatividad general por sí sola podría llevar al
problema cosmológico. Una fuerza repulsiva, de origen desconocido,
está contrarrestando la gravedad y haciendo que el universo se
expanda, como confirmaron los datos del Hubble.
En 1928, Sir James Jeans, uno de los astrónomos más prominentes
de la época, revivió los viejos argumentos de Boltzmann sobre el
destino del universo. La segunda ley de la termodinámica, razonó
Jeans, muestra que el universo debe haber comenzado desde un
tiempo finito en el pasado, y debe pasar de una entropía mínima a
una máxima. Incorporando la equivalencia de Einstein de materia y
energía, Jeans argumentó que la entropía aumenta cuando la materia
se convierte en energía, porque la energía se disipa más
caóticamente. La segunda ley de la termodinámica obliga a los
materiales del universo a moverse siempre en la misma dirección por
el mismo camino, un camino que sólo termina en la muerte y la
aniquilación", escribió sombríamente.
Al mismo tiempo, Eddington estaba llegando a una conclusión
similar. Curiosamente, comienza su libro La naturaleza del mundo
físico con premisas filosóficas similares a las utilizadas por los
enemigos de Bruno tres siglos antes. Al igual que los perseguidores
de Bruno, Eddington fue visceralmente repelido por un universo
infinito: "La dificultad de un pasado infinito es espantosa", escribe,
"Es inconcebible que seamos herederos de un tiempo infinito de
preparación", y también concluye que la segunda ley implica un
comienzo en el tiempo. Tampoco le gusta esta idea, pero cree que se
deriva naturalmente de las leyes de Boltzmann.
Lemaitre, al escuchar las opiniones de su antiguo maestro en marzo
de 1931, quedó profundamente impresionado. Había estado viendo
su reciente trabajo matemático bajo una luz filosófica, y siendo un
miembro en ascenso de la jerarquía católica (pronto se convertiría en
el director de la Academia Pontificia de Ciencias), era muy
consciente de que un viejo debate había vuelto a ser muy relevante.
Las ideas de Einstein sobre el espacio esférico mostraron que un
universo finito era de nuevo concebible, y en un ensayo de 1929,
Lemaitre utilizó muchos de los mismos argumentos que Aristóteles
había utilizado casi dos milenios y medio antes para afirmar que un
universo infinito es imposible sólo por motivos lógicos.

Fig. 4.1 . La ecuación de Einstein permite un número infinito de universos


diferentes -todos ellos basados en la suposición de que el universo es
homogéneo. El universo real puede tener uno de tres tipos diferentes de
evolución, dependiendo de su densidad y de la fuerza de la repulsión universal
que Einstein hipotetizó, la constante cosmológica. Puede expandirse desde un
punto o singularidad y contraerse hasta él (1); puede expandirse indefinidamente
desde un punto (2); o puede contraerse desde un tamaño infinito hasta un
diámetro mínimo y volver a expandirse (3). También se permiten tres formas
diferentes en el espacio. El universo puede ser cerrado, como una esfera (1),
plano, como un plano (2), o abierto, como un sillín (3), dependiendo de la
densidad y el campo de repulsión. Un universo cerrado puede tener cualquiera
de los tres tipos de evolución, pero un universo plano o abierto puede
evolucionar sólo por las dos primeras rutas -ambas pasan por una singularidad, y
por lo tanto son finitas en el tiempo. Así, todos los universos de Einstein son
finitos en el espacio, en el tiempo o en ambos.

Pero si el universo es finito en el espacio, entonces también debe ser


finito en el tiempo, argumentó Lemaitre. Así pues, las soluciones no
singulares que Lemaitre encontró -en las que el universo no tiene
comienzo- eran inaceptables. Los únicos que correspondían a la
visión filosófica de Lemaitre eran cerrados en el espacio y limitados
en el tiempo. Eddington le dio una razón más para examinar las
soluciones singulares: la segunda ley indica que el universo debe
haberse originado en un estado de baja entropía.
A partir de estas dos premisas filosóficas, Lemaitre desarrolló su
concepto del "átomo primitivo", la primera versión del Big Bang. En
una reunión de 1931 de la Asociación Británica sobre la Evolución
del Universo, presentó sus ideas por primera vez. Partiendo de la
idea de que la entropía está aumentando en todas partes, razonó, la
mecánica cuántica (desarrollada en los años veinte) muestra que a
medida que la entropía aumenta, el número de partículas cuánta-
individuales en el universo aumenta. Por lo tanto, si rastreamos esto
en el tiempo, el universo entero debe haber sido una sola partícula,
un vasto átomo primitivo con un radio cero. Identificó este instante
con la singularidad de algunas soluciones relativistas. Así como el
uranio y los átomos de radio se descomponen en partículas
subatómicas, así también este núcleo gigante, a medida que el
universo se expande, se divide explosivamente en unidades cada vez
más pequeñas, los átomos del tamaño de las galaxias se
descomponen en átomos del tamaño de los soles y así sucesivamente
hasta llegar a nuestros átomos actuales.
En defensa de su teoría de los fuegos artificiales de la cosmología,
como a veces la llamaba, Lemaitre citó un fenómeno: los rayos
cósmicos. Desde los primeros años del siglo XX, los científicos han
sabido que la tierra es bombardeada por radiaciones de muy alta
energía, ya sean fotones u otras partículas. También sabían que la
mayor parte de esta radiación es absorbida por la atmósfera terrestre,
ya que es mucho más intensa a grandes altitudes alcanzadas por
aviones y globos. Lemaitre argumentó que los rayos cósmicos no
podrían haberse originado en ningún cuerpo con una atmósfera,
como una estrella, ya que entonces no podrían escapar al espacio.
Los rayos cósmicos, entonces, sólo pueden ser el resultado de la
decadencia primordial de los primitivos átomos-estrella, antes de que
se rompieran y formaran una atmósfera gaseosa.
Sin embargo, en lugar de desarrollar a fondo su teoría para
determinar una prueba apropiada, Lemaitre la justificó con una sola
prueba -la existencia de rayos cósmicos-, un fenómeno que no podía
explicarse en términos de que algo sucediera hoy en día en el
universo, por lo que debe atribuirse a las condiciones de la creación,
que son totalmente diferentes. También se sabía que los rayos
cósmicos vienen de todas las direcciones de manera uniforme: son
isotrópicos. Lemaitre concluyó que no pueden derivar de ninguna
fuente de corriente, como las estrellas y las galaxias, que están
distribuidas irregularmente, sino que pueden haber sido dispersadas
uniformemente a través del espacio sólo por una explosión
primordial y la subsiguiente erupción de átomos estelares.

■ PROBLEMAS INICIALES

Esta primera versión del Big Bang no fue bien recibida en el mundo
científico. De hecho, varias críticas agudas fueron lanzadas en su
contra, todas las cuales fueron confirmadas por investigaciones
posteriores. Después de que Lemaitre propusiera su teoría, Robert
Millikan, un destacado científico experimental, criticó su teoría de
los rayos cósmicos, desechando como "científicamente inaceptable la
hipótesis de que en épocas pasadas estos rayos fueron creados por
procesos que ya no existen y que desde entonces han estado vagando
como almas perdidas"."Señaló que la teoría de Lemaitre de que los
rayos cósmicos no habían penetrado en la atmósfera no implica que
se originaran en la superficie de una estrella-átomo increíblemente
densa o en una explosión primordial igualmente densa, sino más bien
en el espacio interestelar, donde la materia es escasa. Los rayos
cósmicos de baja energía que había observado y medido podían ser
producidos por procesos conocidos -en particular, la conversión de
hidrógeno en helio, con una liberación de energía, es una fuente
posible.
En retrospectiva, está claro que Lemaitre estaba radicalmente
equivocado y Millikan tenía razón en lo fundamental. En los años
cincuenta se aceptaba generalmente que los rayos cósmicos son
producidos principalmente por procesos electromagnéticos que
ocurren en el universo actual. Así como los rompe átomos de
ciclotrón de los años treinta y cuarenta podrían impartir gran energía
a los electrones y protones, así también las fuerzas magnéticas y
eléctricas en el espacio pueden acelerar los rayos cósmicos.
Además, mientras que algunos rayos cósmicos parecen ser
verdaderamente isotrópicos, originados de todas las direcciones por
igual, la mayoría de los rayos cósmicos provienen de la Vía Láctea,
pero su trayectoria está revuelta por los campos magnéticos de la
galaxia, una hipótesis propuesta por Alfven en 1939 y ahora
completamente aceptada. Dado que la mayoría de los rayos cósmicos
son partículas cargadas, sus trayectorias son dobladas por campos
magnéticos. Por lo tanto, su dirección observada no tiene ninguna
relación con la ubicación real de su fuente, ni en el espacio
interestelar ni en el alcance exterior de la atmósfera de una estrella.
Tampoco era aceptable la teoría de Lemaitre sobre la evolución
estelar. Él creía que la energía de una estrella proviene de un proceso
desconocido de conversión directa de la materia en energía: la
aniquilación. En el transcurso de los años treinta, los científicos se
dieron cuenta de que el proceso que impulsa a las estrellas es la
fusión termonuclear: la fusión de cuatro núcleos de hidrógeno
(protones individuales) para formar un núcleo de helio. Se sabía que
tal proceso era una posible fuente de energía, ya que cuatro núcleos
de hidrógeno pesan considerablemente más que un núcleo de helio.
Según la fórmula de Einstein, esta diferencia de masa debe
transformarse en una gran cantidad de energía. En 1938 Hans Bethe
demostró que las temperaturas que se cree existen en el centro del sol
son suficientes para impulsar la serie de reacciones nucleares que
convierten el hidrógeno en helio, proporcionando así la energía de
una estrella. Al mismo tiempo, S. Chandrasekhar y Robert
Oppenheimer demostraban que las estrellas, una vez que han agotado
su combustible nuclear, deben poner fin a sus vidas en un estado de
colapso denso, pero no podían comenzar sus vidas en ese estado,
como dijo Lemaitre. Algunos de sus colegas en relatividad general
también rechazaron su teoría del átomo primitivo. Willem de Sitter
señaló que no es necesario asumir que las soluciones que implican
una singularidad, un origen, son las correctas. Incluso si lo son,
sostenía de Sitter, las ecuaciones simplificadas utilizadas por
Lemaitre ya no se aplicarían en un universo denso, y no es necesario
que ocurra ninguna singularidad real.
Finalmente, otros científicos atacaron la justificación subyacente de
Eddington y Lemaitre del origen del universo, la segunda ley de la
termodinámica. En respuesta a un artículo de Eddington en Nature
sobre "El fin del mundo", H. T. Poggio comentó sus sombrías
predicciones: "La profecía, se nos dice, es la más gratuita de todas
las formas de error y los pronósticos de larga distancia tienen una
forma de equivocarse, incluso cuando aparentemente se basan
firmemente en todo el conocimiento disponible de la época. ... En un
tiempo estas especulaciones tenían una base teológica, y a menudo
predijeron una distribución muy desigual de la temperatura, que en
algunas regiones sería excesivamente alta" 4 Poggio continúa
señalando que es una sobreextrapolación flagrante de la segunda ley
asumir que, debido a que funciona en ciertas situaciones simples en
la tierra, funcionaría en todas partes del universo. No estemos tan
seguros de que el universo es como un reloj que siempre se está
agotando", advierte, "puede haber un rebobinado". El proceso de
creación puede que aún no haya terminado".
A finales de los años treinta, la hipótesis del átomo primitivo fue
apoyada activamente sólo por el propio Lemaitre y tomada en serio
sólo por unos pocos, como Eddington. Sus bases científicas, las
teorías incorrectas de los rayos cósmicos y la evolución estelar, y las
extrapolaciones incorrectas de la relatividad general y la
termodinámica, habían sido refutadas. El pesimismo filosófico del
que nació, el de Eddington y Jeans, se había extendido en la
desilusión con el progreso después de la Primera Guerra Mundial,
pero estaba lejos de ser universal. Muchos consideraron que la guerra
y la depresión subsiguiente eran una aberración en la tendencia
general del progreso humano. De hecho, la ciencia avanzaba
rápidamente, con la formulación de la mecánica cuántica en los años
veinte y el descubrimiento de la fusión nuclear y la fisión nuclear en
los treinta. Pocos científicos estaban dispuestos a aceptar el
pesimismo de Lemaitre, y menos aún podían aceptar sus premisas.
Así que la primera versión del Big Bang nació muerta.

■ LA BOMBA ATÓMICA Y EL REGRESO DEL BIG BANG

Durante la Segunda Guerra Mundial, la investigación cosmológica se


suspendió junto con otras actividades en tiempos de paz, ya que los
científicos se vieron involucrados en el esfuerzo bélico. Sin embargo,
al final de la guerra, se transformó. Antes de la guerra, la creación de
los elementos que componen el universo había sido un tema teórico
especulativo; muy poco se sabía de las reacciones nucleares. Ahora,
con la exitosa producción de bombas atómicas, la creación de los
elementos ya no era una hipótesis, sino un hecho tecnológico. El
combustible para las bombas probadas en Nuevo México y liberadas
en Japón era en sí mismo un elemento creado, el plutonio, generado
a partir del uranio. Las Abombs habían transformado elementos
comunes en elementos e isótopos nuevos y exóticos, que los
científicos encontraron al analizar las consecuencias de las bombas,
especialmente la de la prueba de la Trinidad. Y la vasta expansión de
la investigación nuclear que surgió del Proyecto Manhattan continuó
produciendo datos sobre las reacciones nucleares.
Para uno de los científicos del Proyecto Manhattan, George Gamow,
la detonación de una bomba atómica constituyó una analogía con el
origen del universo: si una bomba atómica puede, en una centésima
de millonésima de segundo, crear elementos que aún se detectan en
el desierto años después, ¿por qué una explosión universal que dura
unos pocos segundos no ha producido los elementos que vemos hoy,
miles de millones de años después? En un artículo en el otoño de
1946, Gamow presentó su idea, una segunda versión del Big Bang. A
diferencia de Lemaitre, tomó como prueba observacional de su
hipótesis la abundancia de los elementos, no de los rayos cósmicos;
pero al igual que él, Gamow asumió que esta abundancia no podría
haber sido producida por ningún proceso que continuara en el
universo actual.
Gamow sabía que los intentos en los años treinta para explicar el
origen de los elementos habían fracasado porque las teorías
predijeron que a medida que el peso atómico de los elementos
aumentaba, su abundancia caería exponencialmente. Es decir, el
carbono podría ser billones de veces menos común que el hidrógeno,
y elementos pesados como el plomo serían virtualmente inexistentes,
tal vez un átomo por galaxia. Esto estaba en violento conflicto con la
observación. A mediados de los años cuarenta, los científicos sabían
por los espectros de las estrellas distantes y las nubes de gas que el
universo está compuesto abrumadoramente de hidrógeno y helio,
siendo alrededor de tres cuartas partes de la masa hidrógeno. Los
elementos de masa intermedia, principalmente carbono, nitrógeno y
oxígeno -los elementos esenciales para la vida- constituyen alrededor
del uno por ciento del total, mucho más que la parte de un trillón
prevista. La abundancia de elementos más pesados que el nitrógeno y
más ligeros que el hierro fluctúa ampliamente alrededor de una parte
entre cien mil, mientras que los elementos más pesados se
encuentran generalmente en cerca de uno entre mil millones de
átomos, de nuevo, mucho más de lo previsto.
Gamow atribuyó la extrema discrepancia a que las estimaciones
anteriores no tuvieron en cuenta la magnitud de la explosión inicial.
Si el universo realmente viene de un punto, las ecuaciones de la
relatividad general indican que en cuestión de segundos la
temperatura del universo descendería tanto que las reacciones
nucleares que se acumulan y rompen los elementos cesarían. Habría
tiempo para construir los elementos pesados, pero no tiempo
suficiente para descomponerlos. El universo comenzaría, como una
bomba A, como un gas neutrónico caliente; a medida que los
neutrones se bombardeaban unos a otros se fusionarían, formando
elementos ligeros y luego cada vez más pesados. Al ajustar un
parámetro que determina la densidad del universo en un momento
dado, Gamow fue capaz de producir elementos pesados en
cantidades cercanas a las que realmente se observaron.
A diferencia de Lemaitre, Gamow tenía un tremendo don para
publicitar y popularizar sus propias teorías, un don que, en pocos
años, establecería su teoría del elemento -pronto apodado el Big
Bang, irónicamente, por sus detractores- como la cosmología
dominante. Su talento propagandístico se demuestra en la primera
frase del artículo en el que propone sus puntos de vista:"En la
actualidad, existe un consenso general sobre el hecho de que las
abundancias relativas de los diversos elementos químicos estaban
determinadas por las condiciones físicas que existían en el universo
durante las primeras etapas de su expansión", lo que no era en
absoluto el caso: sólo un puñado de científicos había aceptado el
átomo primigenio de Lemaitre, y tal vez sólo dos o tres de ellos
creían que esto podría explicar el origen de los elementos.
Pero si no hubiera sido cierto antes, Gamow lo cambió: en 1947
publicó el libro inmensamente popular y bien escrito, Uno, Dos,
Tres, Infinito, que ofrecía una visión animada y amplia de la ciencia
física y la astronomía modernas. El último capítulo presenta el Big
Bang como un hecho aceptado.
La escritura persuasiva de Gamow y su uso de la analogía con la
bomba atómica, tan vívida para toda la población de la posguerra,
hizo que su teoría fuera plausible para el mundo laico de los
escritores y lectores de ciencia. Crecí en los años cincuenta, y
recuerdo lo emocionantes que me parecieron sus libros, que estaban
entre los que me orientaron hacia la física y la astronomía. La idea de
Gamow también tuvo un atractivo inmediato para sus colegas de la
ciencia nuclear. Con el fin de la guerra contra el fascismo y el
desarrollo de la Guerra Fría, muchos de los científicos del Proyecto
Manhattan abandonaron el trabajo de defensa, consternados por la
destrucción a la que su trabajo había sido dirigido. Estaban ansiosos
por convertir los logros científicos de los tiempos de guerra en
investigación en tiempos de paz, lo que sería igualmente desafiante.
La nueva cosmología de Gamow era justo el puente que necesitaban.
Y a finales de los años cuarenta y principios de los cincuenta, cuando
el campo comenzó a crecer, impulsado por la afluencia de científicos
nucleares como Gamow, el Big Bang se convirtió en el concepto más
candente de la astronomía.
Sin embargo, la rápida y generalizada aceptación de la teoría de
Gamow de un universo temporalmente finito fue una ruptura tan
aguda con el pensamiento científico del pasado como lo había sido el
universo espacial finito de Einstein. El Big Bang completó la
oscilación del péndulo cosmológico, hasta el universo medieval -
finito en extensión, teniendo un origen definido en un instante en el
tiempo, y creado por un proceso que ya no funciona en el universo.
El Big Bang de Gamow fue un rechazo de casi todas las premisas
que habían evolucionado en el curso de los últimos cientos de años
de desarrollo científico: la naturaleza infinita del universo y la
suposición de que su evolución podía describirse en términos de
procesos observables aquí y ahora.
Para el profano promedio, la teoría era ciertamente chocante y
fascinante. Sin embargo, parecía otro insulto al sentido común, como
el de Einstein. Si el universo tuvo un origen en el tiempo, ¿qué le
precedió? ¿Qué lo inició? El Big Bang parecía, en la superficie, una
invitación a hipotetizar algún poder sobrenatural como iniciador de
esta explosión titánica.
De hecho, la cuestión de qué causó el Big Bang ha sido un punto
débil de la teoría desde el principio. Gamow especuló que el Big
Bang fue precedido por un período, quizás infinito en longitud, en el
que el universo se contrajo hasta un punto y luego "rebotó" fuera de
esa singularidad hacia la expansión actual. Pero para los años
cincuenta, las observaciones indicaban que la velocidad de expansión
era lo suficientemente alta como para superar la fuerza gravitatoria
de toda la materia en el universo. Por lo tanto, la gravedad por sí sola
no podría haber llevado al universo a contraerse con tal energía que
estuviera "rebotando" a esta velocidad. Alguna fuerza adicional
desconocida debe haberle dado en algún momento un empuje
adicional, ya sea en el Big Bang mismo o en el pasado distante
durante la hipotética contracción de Gamow.
La situación es algo así como ver cómo rebota una pelota: cuanto
más rápido se ve que la pelota sube, mayor es la altura desde la que
debe haber caído. Pero para cualquier cuerpo gravitatorio, hay una
velocidad -la velocidad de escape- a la que un objeto vencerá la
fuerza de la gravedad y no volverá a caer ni entrará en órbita. Ningún
objeto puede rebotar de un cuerpo gravitatorio a una velocidad de
escape, es decir, que sería como una pelota que rebota más alto que
el punto desde el que cayó, requiere más energía que la que le
confiere inicialmente la gravedad. Por lo tanto, dado que el universo
se está expandiendo a una velocidad mayor que su velocidad de
escape, la gravedad por sí sola no puede explicar su expansión. Pero
no había otra fuente de energía lo suficientemente grande.
Además, incluso antes de que se propusiera, la teoría de Gamow
sobre el origen de los elementos había sido socavada. Gamow había
argumentado que las temperaturas de las estrellas son demasiado
bajas para crear elementos más pesados que el helio. De los
experimentos nucleares se sabía que el hidrógeno se fusionaría para
formar helio a temperaturas tan bajas como diez millones de grados,
que se sabe que existen en el núcleo de una estrella. Pero la fusión
del helio con el carbono requiere temperaturas mucho mayores -más
de mil millones de grados- porque cuantos más protones hay en un
núcleo más repelen a otros núcleos, tanto más energía se necesita
para superar esta repulsión y fusionarse.
Gamow sostenía que debido a que estas altas temperaturas no podían
ser alcanzadas por las estrellas, los elementos más pesados deben
haberse formado en el calor más intenso del Big Bang. Pero en abril
de 1946, varios meses antes de la publicación de la teoría de Gamow,
el astrónomo británico Fred Hoyle había presentado una hipótesis
alternativa que involucraba a estrellas que habían agotado su
combustible de hidrógeno. En una estrella normal, el hidrógeno se
convierte en helio en el denso núcleo caliente de la estrella. La
tremenda presión generada por la radiación que empuja hacia afuera
desde este núcleo apoya al resto de la estrella, evitando que colapse
bajo su propia gravedad. A medida que el núcleo de la estrella se
agota de hidrógeno, se contrae, aumentando su temperatura, y
quemando el combustible restante más rápido - evitando así el
colapso general de la estrella.
Una vez que el núcleo se convierte completamente en helio, ya no
puede tener lugar la fusión del hidrógeno; no hay nada que soporte el
peso de la estrella, así que se contrae rápidamente, y al hacerlo, la
temperatura aumenta rápidamente en el núcleo. Hoyle calculó que la
temperatura pronto alcanzaría los mil millones de grados necesarios
para iniciar la fusión del helio con el carbono. Una vez más, la
energía que sale del núcleo soportaría el peso de la estrella,
deteniendo su contracción, hasta que el helio sea consumido. Este
proceso continuaría, produciendo oxígeno a partir del carbono, y así
sucesivamente, eventualmente construyendo todos los elementos, ya
sea por fusión o por el mismo proceso de captura de neutrones que
Gamow utilizó en el Big Bang. Y con cada contracción la estrella
giraba más rápidamente, eventualmente arrojando gran parte de su
masa al espacio.
Hoyle explicó la producción de elementos pesados por un proceso
que continúa en el universo actual, y por lo tanto, a diferencia del
Big Bang, puede ser verificado. Además, calculó que este proceso
produciría los elementos en proporciones aproximadamente iguales a
las observadas. Si el Big Bang hubiera ocurrido, los dos procesos
juntos habrían producido más elementos pesados de lo que realmente
se observan.

■ EL ESTADO ESTACIONARIO

En dos años, Hoyle y dos colaboradores, Thomas Gold y H. Bondi,


habían formulado una alternativa general a la cosmología del Big
Bang: la teoría del Estado Estacionario. Curiosamente, esta
alternativa se desarrolló, como lo había hecho el Big Bang veinte
años antes, a partir de premisas filosóficas, no científicas. En su
artículo de 1948, Bondi y Gold señalaron que toda la cosmología
actual se basaba en "el principio cosmológico", la idea de que el
universo, a una escala suficientemente grande, se ve igual para los
observadores en cualquier lugar, en otras palabras, es homogéneo e
isotrópico, las suposiciones introducidas por Einstein. ¿Pero qué hay
de cómo se veía el universo en diferentes épocas, en diferentes
épocas? Si el universo se expande, como propone el Big Bang, se
vería completamente diferente para los observadores en diferentes
momentos. En cambio, el Estado Permanente propone un principio
cosmológico perfecto: que el universo debe parecerse a todos los
observadores, en todos los lugares y en todos los tiempos.
¿Cómo podría ser esto, si el universo se está expandiendo, como
parece mostrar la relación con el Hubble? A medida que el universo
se expande, su densidad disminuirá y, obviamente, su apariencia
cambiará. Para evitar esta consecuencia, Bondi y Gold plantearon la
hipótesis de un fenómeno totalmente nuevo, la creación espontánea y
continua de materia: en cada bloque de espacio a unos cien metros de
un lado, nace alrededor de un átomo por año. Esta minúscula
cantidad de materia que se acumula a través de vastas regiones del
espacio sobre los eones, pensaron, mantendría una densidad
constante en un universo en expansión.
La nueva materia, asumieron, aparece en forma de átomos de
hidrógeno. Estos se condensan gradualmente por su propia gravedad
en enormes nubes, luego en galaxias, y finalmente en estrellas, que
los procesan en los varios elementos más pesados, vomitándolos de
vuelta al espacio. A medida que el combustible de una galaxia se
agota a lo largo de miles de millones de años, la galaxia morirá, sus
estrellas se convertirán en brasas oscuras indivisibles. Mientras tanto,
sin embargo, nuevas galaxias nacen de la materia recién creada.
De esta manera, el Steady State contrarrestó uno de los argumentos
más fuertes que Gamow había presentado para el Big Bang-un
aparente acuerdo entre la edad de la tierra y la edad de las estrellas.
Las mediciones de la velocidad de expansión del Hubble habían
indicado que el Big Bang ocurrió hace unos pocos miles de millones
de años. En 1950, los geólogos, al comparar las cantidades relativas
de sustancias radioactivas, como el uranio, que se descomponen a un
ritmo conocido, determinaron que la edad de la Tierra era de unos
cinco mil millones de años. Los astrónomos habían estimado que una
estrella como el sol quemaría su combustible en unos diez mil
millones de años, y que el sol también tiene unos cinco mil millones
de años. Puesto que la constante de Hubble, que determina el tiempo
transcurrido desde el Big Bang, es incierta, se podría decir que las
tres figuras están en un acuerdo aproximado. Gamow argumentaba
así que el sol y la tierra se formaron poco después del Big Bang,
evidencia de que algo extraordinario sucedió en ese entonces.
De acuerdo con la teoría del Estado Estacionario, sin embargo, esto
simplemente indica que nuestra galaxia y sistema solar se formaron
relativamente recientemente, como deben haberlo hecho para
albergar vida. Las galaxias muy antiguas, habiendo quemado su
combustible durante decenas o cientos de miles de millones de años,
tendrían estrellas demasiado débiles para calentar planetas fértiles.
La teoría del estado estacionario era, en muchos sentidos, tan
diferente de las ideas científicas tradicionales como su rival, el Big
Bang. Aunque el Estado Estacionario asume que los procesos en el
presente pueden explicar el universo, plantea la hipótesis de un
proceso que no puede ser observado en la tierra, o incluso observado
en absoluto. Incluso en las profundidades del espacio interestelar, y
mucho menos cerca de la tierra, un cubo de espacio de cien metros
de lado contendría trillones de átomos, por lo que sería totalmente
imposible observar la creación de un solo átomo nuevo en un año.
El universo no evolutivo de la teoría del Estado estacionario también
se aparta de la tradición que, desde finales del siglo XVIII,
consideraba que la ciencia explicaba la historia y la evolución de la
naturaleza. Un universo que, a todos los efectos, nunca cambia es un
universo en el que el progreso real es totalmente imposible, como lo
es en el universo en decadencia del Big Bang.
Por lo tanto, a mediados del siglo XX no existía una visión
ampliamente apoyada de la cosmología compatible con la
cosmovisión abierta y progresista del siglo anterior. Como en la
época de Agustín, el detener o revertir el progreso en la tierra socavó
la idea de progreso en el cosmos. Para muchos de los que vivieron la
primera mitad de este siglo, la creencia en el progreso requería una fe
ciega o una visión bastante larga de la historia. La matanza de la
Primera Guerra Mundial, la miseria de la Depresión, el ascenso del
fascismo, otra guerra mundial, el Holocausto, el bombardeo atómico
de Japón - todos habían agotado la civilización. En 1948, Europa
estaba destrozada, con millones de personas hambrientas y sin hogar,
enfrentándose a un invierno sin calor ni refugio. La hambruna y las
epidemias acechaban a las naciones coloniales, con tasas de
mortalidad que se elevaban a niveles grotescos. China se encontraba
en medio de una brutal guerra civil, mientras que los hindúes y los
musulmanes se mataban unos a otros en conflictos comunales tras la
independencia de la India el año anterior. Los aliados de la Segunda
Guerra Mundial ya se habían enfrentado en preparación para una
nueva guerra, y ambos bandos estaban construyendo y acumulando
armas cada vez más mortíferas.
En una novela pesimista de ciencia ficción, El primero de octubre es
demasiado tarde, Hoyle vinculó explícitamente su cosmología y una
visión de la humanidad como incapaz de un progreso real, condenada
a un ciclo interminable de superpoblación y guerra. Desde el punto
de vista de finales de los años cuarenta, este pesimismo, y las dos
cosmologías engendradas entonces, es ciertamente comprensible.
Sin embargo, para muchos otros, la victoria sobre el fascismo y la
recuperación económica que comenzó en 1948 reivindicaron el
progreso humano. Los primeros años cincuenta fueron, para la
mayoría de los trabajadores, un período de creciente optimismo y
confianza. Por esta razón, aunque muchos leyeron las
popularizaciones de Gamow, el cosmos de los científicos condenado
al estancamiento o a la decadencia permaneció distante.

■ EL BIG BANG EN ECLIPSE

Durante una década, hasta 1957, el Big Bang y las teorías del Estado
estable tuvieron sus defensores, aunque, gracias a las habilidades
literarias de Gamow, el Big Bang recibió mucha más publicidad.
Ninguna de las partes fue capaz de hacer predicciones lo
suficientemente precisas sobre el problema clave, la abundancia de
elementos pesados, como para conseguir una victoria clara.
En 1957, después de años de trabajo constante, ayudado por los
avances en física nuclear y observaciones estelares, Margaret y
Gregory Burbridge, William Fowler y Hoyle publicaron una teoría
completa y detallada que mostraba cómo los sistemas estelares
podían producir todos los elementos conocidos en proporciones muy
cercanas a las observadas como existentes. Además, la teoría explica
la creciente evidencia de que la composición elemental varía de
estrella a estrella, algo que no sería posible si los elementos fueran
producidos por el Big Bang. La nueva teoría fue rápidamente
aceptada como sustancialmente correcta.
Los investigadores demostraron que los elementos más comunes -
helio, carbono, oxígeno, nitrógeno y todos los demás elementos más
ligeros que el hierro - se forman mediante procesos de fusión en las
estrellas. Cuanto más masiva es la estrella, más lejos puede proceder
el proceso de fusión, hasta que desarrolla el hierro; en ese momento
no se puede derivar más energía de la fusión, ya que el núcleo de
hierro es el más estable de todos. Así, cuando una estrella agota su
combustible, colapsa, y las capas externas no quemadas de la estrella
se mezclan repentinamente cuando caen en las temperaturas
intensamente altas del núcleo. La estrella explota como una
supernova, un "pequeño estallido" que eclipsa a toda una galaxia
durante un año. En esta explosión, los núcleos más pesados absorben
aún más neutrones, formando así los elementos más pesados,
incluidos los radiactivos como el uranio. Esta explosión dispersa los
nuevos elementos en el espacio, donde luego se condensan en nuevas
estrellas y planetas. La tierra y todo el sistema solar se formaron,
hace cinco mil millones de años, a partir de los escombros no del Big
Bang sino de una supernova.
Sin embargo, la teoría no era perfecta. Dado el brillo actual de las
estrellas en la mayoría de las galaxias -una indicación de su actividad
nuclear- no parecía que se produciría suficiente helio, casi un cuarto
de toda la materia; y era difícil ver cómo ciertos elementos de luz -
deuterio, litio, berilio y boro- que se quemaban en todas las estrellas
tan pronto como eran creadas, podían sobrevivir. Pero así como el
Big Bang de Lemaitre fracasó cuando se demostró que los rayos
cósmicos se producían en el universo actual y no en el pasado lejano,
así también fracasó Gamow cuando se demostró que los elementos
químicos eran producidos por las estrellas actuales.
Mientras que el Big Bang continuó siendo prominente en los relatos
populares de la cosmología, su apoyo entre los científicos disminuyó
rápidamente. Durante algunos años después de 1957, la cosmología
en su conjunto entró en eclipse, ya que las preguntas más
interesantes parecían estar en campos de tan rápido desarrollo como
la astrofísica estelar. Y con los primeros lanzamientos espaciales,
también se realizaron más esfuerzos en estudios del sistema solar,
incluyendo el campo infantil de la ciencia del plasma espacial. Como
resultado, el número de artículos de cosmología publicados
anualmente bajó de cuarenta o cincuenta al año a mediados de los
años cincuenta a una docena o más por año de 1958 a 1960. Y de
éstos, sólo un puñado desarrolló la teoría del Big Bang. Un segundo
esfuerzo para desarrollar una cosmología del Big Bang había
fracasado.
En 1961, sin embargo, las nuevas observaciones trajeron algún
consuelo a los teóricos del Big Bang. Desde principios de los años
cincuenta, los radiotelescopios habían detectado fuentes cada vez
más lejanas en el espacio, y con los avances en la tecnología de los
radares (provocados en parte por la investigación militar)
aparecieron objetos más tenues. Si, como suponía la teoría del
Estado Estacionario, el universo es homogéneo en el espacio y en el
tiempo, la densidad de los objetos emisores de radio debería haber
sido constante, porque mirar más allá en el espacio significa mirar
más atrás en el tiempo. Las observaciones, sin embargo, mostraron lo
contrario. Mientras uno miraba hacia afuera en el espacio y hacia
atrás en el tiempo, había más y más fuentes de radio: el universo
estaba, de hecho, cambiando y evolucionando con el tiempo, así que
el Estado Estacionario debe estar equivocado.
Con ambas teorías en problemas, los cosmólogos continuaron
respaldando a su favorita con la conciencia tranquila, ya que no
había mejor alternativa en el horizonte. Más investigadores
regresaron al campo y los trabajos de investigación surgieron de
nuevo a un ritmo de cuarenta o cincuenta por año. Este fue un breve
período de ebullición cuando los fanáticos del Big Bang y Steady
Staters trataron de rescatar sus teorías, y otras ideas menos
convencionales, como las que más tarde darían origen a la
cosmología del plasma, también fueron escuchadas.
Tres años después, la ayuda llegó al Big Bang desde otro cuarto.
Algunas fuentes de radio parecían ser pequeños puntos de luz en
forma de estrella. En 1964 se midieron los corrimientos hacia el rojo
de estos "objetos cuasi-estelares", o "cuasares", que resultaron ser
extremadamente altos, más altos que los medidos para las galaxias.
Si, como la mayoría de los científicos asumieron inmediatamente, se
trataba de corrimientos al rojo del Hubble, los cuásares deben estar
inmensamente lejos. Pero a tal distancia su brillo significaba que
irradiaban enormes cantidades de energía, en algunos casos cien mil
veces más que una galaxia entera. Sin embargo, la luz de los cuásares
varió notablemente en un período de tan sólo un año, de modo que
no podían ser más que un año luz más pequeños que una galaxia, que
es típicamente de cien mil años-luz de diámetro. La fusión
termonuclear, incluso una supernova, no podía reunir tanta energía
en tan poco espacio.
Siempre con una hipótesis audaz, Fred Hoyle propuso que la única
fuente posible de tal poder es la energía generada por el colapso
gravitacional de un objeto enormemente masivo, uno con millones
de veces la masa del sol. Robert Oppenheimer había calculado en los
años treinta que un objeto de masa suficiente no podía ser impedido
de colapsar completamente, hasta una singularidad, un punto. Hoyle
especuló que si una aglomeración de gas realmente enorme se
derrumbaba de manera similar, alcanzara o no una singularidad
(Hoyle pensó que no lo haría), liberaría una enorme cantidad de
energía. Mientras Hoyle era vago sobre el mecanismo de liberación
de la energía, y consecuentemente sobre el tipo de energía, era sin
embargo una posibilidad.
Dado que un objeto colapsado tan masivamente tendría un campo
gravitacional enormemente fuerte, sólo podría estudiarse
teóricamente utilizando las ecuaciones de relatividad general de
Einstein. De repente, los relativistas que trabajaban en el Big Bang
recibieron una infusión de sangre nueva a medida que los
investigadores cambiaban la física de Einstein a los cuásares. La
relatividad general resurgió de su remanso cosmológico y el Big
Bang volvió a parecer razonable. Si los objetos podían colapsar en
una singularidad -denominada brevemente agujero negro-, ¿por qué
el universo mismo no podía nacer de una singularidad?
El glamour de los misteriosos cuásares atrajo rápidamente a los
jóvenes investigadores a los cálculos arcanos de la relatividad
general y, por lo tanto, a los problemas cosmológicos, especialmente
los de naturaleza matemática. A partir de 1964 el número de artículos
publicados en cosmología aumentó, pero el crecimiento fue casi en
su totalidad en piezas puramente teóricas -exámenes matemáticos de
algún problema en la relatividad general-, que no hicieron ningún
esfuerzo por comparar los resultados con las observaciones. Ya en
1964, tal vez cuatro de cada cinco trabajos de cosmología eran
teóricos, y sólo un tercio lo había sido una década antes.

■ EL TERCER BIG BANG; MICROONDAS AL RESCATE

A pesar de la aparente confirmación de ciertos aspectos de la teoría


del Big Bang por parte de los cuásares, y del aumento definitivo de
la cosmología teórica, persistían problemas específicos, en particular
la energía, todavía inexplicable, que inicialmente estimuló el Big
Bang. Si el universo era "abierto", infinito y en expansión, como
indicaban las cifras de Gamow, todavía no había explicación para la
tasa de expansión observada. Robert Dicke y otros pensaron que si
podían regresar al universo cerrado de Einstein, las cosas serían más
sencillas: se expandirían por un tiempo y luego se contraerían de
nuevo a, o casi, una singularidad. Si se pudiera asumir que algo le
impedía alcanzar un punto matemático, una singularidad, volvería a
"rebotar" en la expansión. Tal universo oscilante existiría, por lo
tanto, en cierto sentido, para siempre; pero el único universo del que
tendríamos o podríamos tener conocimiento es este único ciclo,
finito tanto en el espacio como en el tiempo.
Gamow había calculado tanto la densidad de energía como la
densidad de materia del universo para todos los tiempos, incluyendo
el presente. La densidad de materia prevista para el universo actual
era de unos dos átomos por metro cúbico de espacio, y la densidad
de energía, expresada como la temperatura que la radiación
proveniente de la gran bola de fuego parecería tener hoy, después de
miles de millones de años de enfriamiento, era de 20° K - veinte
grados sobre el cero absoluto.
Estas cifras están muy cerca de las cantidades necesarias para cerrar
el universo. Dicke sabía que Gamow había seleccionado estos
valores para que la producción de elementos pesados saliera bien,
pero como ahora nadie creía que el Big Bang había creado los
elementos pesados, Dicke podía prescindir de ellos. En cambio,
asumió que el universo está cerrado, lo que requiere un campo
gravitacional más fuerte y, por lo tanto, una mayor densidad de tres a
doce átomos por metro cúbico, dependiendo de la velocidad de
expansión observada (algo que todavía permanece incierto por un
factor de aproximadamente dos).
Dicke también sabía que la teoría de la síntesis estelar (de los
Burbridges, Fowler y Hoyle) dejó abierta la fuente del 25 por ciento
de helio del universo, porque estrellas como las que se queman hoy
en día no podrían haber producido suficiente helio en el tiempo
desde que la galaxia parece haberse formado, aunque podrían haber
producido las cantidades correctas de los elementos más pesados. Le
puso el problema a un estudiante de postgrado, P.J.E. Peebles: Dado
un universo cerrado, ¿podría el Big Bang al menos producir la
cantidad de helio observada?
Peebles descubrió que sí. Como en los cálculos de Gamow, la
variable clave era la relación entre la energía y la materia: a medida
que el universo se expande, la energía irradiada disminuye porque
cada fotón es estirado por la expansión, y cuanto más larga es la
longitud de onda, menor es la energía. Sin embargo, el número de
fotones no cambiaría, ni el número de protones y electrones que
componen la materia. Por lo tanto, la relación entre fotones y
protones es constante, una relación desconocida. Variando esta
constante en su cálculo, Peebles encontró que a medida que el
número de fotones por protón disminuye, la producción de helio
aumenta. Si hubiera sólo unos cien mil millones de fotones por
núcleo, entonces el Big Bang habría producido la cantidad adecuada
de helio. Peebles pudo entonces predecir que el universo ahora
estaría lleno de radiación, principalmente ondas de radio con una
temperatura aparente de 30° K, algo más que la predicción de
Gamow.
En 1965, con el estímulo de Dicke, Peebles se propuso poner a
prueba esta predicción mediante la construcción de un
radiotelescopio para buscar esta radiación primordial. Sin embargo,
Arno Penzias y Robert Wilson, investigadores de Bell Labs, ya
habían descubierto la radiación que estaba buscando. Habían
encontrado esta radiación isotrópica, al menos en la frecuencia que
observaron. La radiación primordial predicha por Peebles, y mucho
antes por Gamow, realmente existía. El Big Bang debe haber
sucedido - o los cosmólogos tan eufóricos concluyeron
inmediatamente. Y cuando transmitieron las noticias a los excitados
reporteros científicos, la cosmología volvió a ser noticia de primera
plana.
El New York Times, en un artículo de primera plana, describió el
descubrimiento de Bell Labs como evidencia clara no sólo de que el
Big Bang ocurrió, sino de que el universo oscilante de Dicke (que
evitó la pregunta pegajosa de lo que sucedió antes del Big Bang) era
el modelo válido: "LAS SEÑALES IMPLICAN UN UN
UNIVERSO DE BIG BANG", dice el titular de la página principal.
Pero los reporteros habían pasado por alto el hecho de que Penzias y
Wilson habían medido una temperatura no de 30° K sino de 3,5° K.
Esto era considerablemente peor de lo que parecía: la cantidad de
energía en un campo de radiación es proporcional a su temperatura a
la cuarta potencia. La radiación observada tenía varias miles de veces
menos energía de la que Peebles o Gamow habían predicho. Incluso
para los estándares de los astrónomos, donde los factores de dos a
menudo se atribuyen a la incertidumbre de la observación, un
desacuerdo de miles de veces es un mal presagio.
Dicke dijo al New York Times que su grupo había pronosticado 10°
K, lo que consideró aceptablemente cercano a las observaciones.
(Esta cifra no aparece en ninguna parte en sus artículos publicados,
por lo que no está claro de dónde proviene.) E incluso 10° K produce
una diferencia de cien veces mayor entre la energía prevista y la
observada.
Mientras que los escritores de ciencia ignoraron este problema,
Peebles no lo hizo. Como señaló en su documento teórico que
acompañaba el informe de Penzias y Wilson sobre sus
observaciones, la baja temperatura observada implicaba un universo
mucho menos denso, casi mil veces demasiado difuso para cerrar el
cosmos, lo que él y Dicke querían inicialmente. En lugar de hacer el
universo de Gamow más denso, oscilando así, las nuevas
observaciones mostraron que es más difuso, con menos gravedad,
agravando en gran medida el problema original, de dónde provenía la
energía para la expansión.
Alternativamente, escribió Peebles, si el universo es lo
suficientemente denso como para oscilar, entonces la baja
temperatura y sus nuevas ecuaciones requieren que casi toda la
materia se haya convertido en helio, una clara contradicción de la
realidad.
Lejos de confirmar el modelo Peebles-Dicke, el descubrimiento de
PenziasWilson descartó claramente el modelo oscilante cerrado. Sin
embargo, Peebles inicialmente se aferró a sus suposiciones teóricas e
introdujo hipótesis adicionales para salvar la brecha entre los hechos
y la teoría. Dado que, de acuerdo con la relatividad general, un
universo cerrado con tan poca energía como se observó produciría
mucho más helio del que se observó, Peebles simplemente introdujo
una nueva modificación de las ecuaciones de la gravedad. La
modificación fue injustificada, excepto que, al igual que los epiciclos
de Tolomeo, "salvó el fenómeno", preservando tanto el universo
finito como un acuerdo con la temperatura de microondas.
En el plazo de un año, un nuevo desarrollo obligó a abandonar de
nuevo el Big Bang-universo cerrado, que provenía del antiguo
enemigo del Big Bang, Fred Hoyle. Intrigado por todo ese helio,
Hoyle, en una versión más elaborada de la obra de Peebles, calculó
cuidadosamente que un Big Bang produciría sólo elementos muy
ligeros: helio, deuterio y litio. Las cantidades, encontró, dependen
sensiblemente de la densidad del universo: si hubiera alrededor de un
átomo por cada ocho metros cúbicos, las cantidades resultantes de
helio, litio y deuterio (estos dos últimos bastante raros) se acercarían
mucho a los observados.
Aquí estaba entonces un segundo apoyo importante para el Big
Bang. A partir de un solo parámetro (la relación entre fotones y
protones, que Hoyle estimó en doce mil millones) y una sola
observación (la temperatura del fondo de microondas), los teóricos
del Big Bang fueron capaces de explicar la abundancia de tres
elementos y predecir la densidad de la materia en el universo. La
densidad resultante fue en realidad bastante cercana a las
estimaciones más recientes de la densidad de materia en las galaxias
y estrellas observables desde la Tierra.
La edad de oro del Big Bang, y su dominio incuestionable en la
cosmología, comenzó sobre esta base. Las pruebas ya no eran los
rayos cósmicos de Lemaitre o los elementos pesados de Gamow, sino
el fondo de microondas y tres elementos ligeros. Una vez más, los
cosmólogos argumentaron que estos fenómenos no podían ser
explicados por ninguna fuente actual. Al igual que con los rayos
cósmicos, el fondo de microondas es isotrópico, y esto, según los
cosmólogos, muestra que no puede derivar de fuentes actuales, que
están distribuidas de manera desigual.
El Big Bang que triunfó fue, sin duda, muy diferente al que los
cosmólogos estaban acostumbrados. Era, de hecho, una tercera
versión, mucho menos densa: un universo abierto que se expandía
indefinidamente. El desconcertante problema de lo que podría haber
impulsado esta vasta explosión, cien o más veces mayor de lo que la
gravedad podía contener, fue barrido silenciosamente bajo la
alfombra. El nuevo Big Bang se convirtió en el modelo estándar.

■ EL FIN DE LA EDAD DE ORO

El número anual de artículos de cosmología publicados se disparó de


sesenta en 1965 a más de quinientos en 1980, sin embargo, este
crecimiento fue casi exclusivamente en el trabajo puramente teórico:
en 1980 aproximadamente el 95 por ciento de estos artículos estaban
dedicados a varios modelos matemáticos, como el "universo tipo XI
de Bianchi", y a mediados de los años setenta, la confianza de los
cosmólogos era tal que se sentían capaces de describir en íntimo
detalle los sucesos del primer centésimo segundo de tiempo, hace
varios miles de millones de años. La teoría asumió cada vez más las
características de un conocimiento mito absoluto y exacto de los
acontecimientos del pasado lejano, pero una comprensión cada vez
más confusa de cómo condujeron al cosmos que ahora vemos, y un
rechazo creciente de la observación.
En una década el campo de la cosmología se transformó de un
pequeño grupo de teóricos discutiendo tratando de desarrollar teorías
que coincidieran con la observación, a una enorme falange de cientos
de investigadores, virtualmente todos unidos en sus suposiciones
básicas, preocupados principalmente por los matices matemáticos de
la teoría subyacente.
Esta tremenda expansión de la cosmología teórica fue estimulada por
poderosos incentivos económicos, tanto para los investigadores
como para sus instituciones. En ningún otro campo de la ciencia,
excluyendo la matemática en sí misma, se podría realizar una
investigación tan barata como en la cosmología. En los años setenta
se produjo una rápida contracción del dinero disponible para la
investigación en ciencias físicas, especialmente en Estados Unidos,
con el fin del auge del gasto en defensa de la guerra de Vietnam y del
Proyecto Apolo. En la mayoría de los campos de la ciencia, el avance
se basaba en la experimentación, que requería un equipo costoso y
una ardua búsqueda de dinero para construirlo. En estos campos, los
teóricos eran una minoría que necesitaba datos de los
experimentadores para inspirar o probar una nueva teoría. En
astrofísica, los teóricos también se basaban en datos extensos de
científicos nucleares y sus aceleradores, o en telescopios gigantes de
radio y ópticos de observadores, o en satélites aún más caros. Por el
contrario, los cosmólogos teóricos aparentemente no necesitan
ningún tipo de datos. Unos pocos, especialmente a finales de los años
setenta, comenzaron a usar computadoras para simulaciones; pero la
mayoría de sus cálculos, que consumen mucho tiempo, no
necesitaban más que papel y lápiz. La cosmología era una
investigación científica barata!
El tremendo crecimiento del lado teórico sesgó inevitablemente todo
el campo en contra de la observación, que se volvió secundario al
trabajo "real" de manipular las ecuaciones. Los cosmólogos vinieron
a mirar hacia abajo al astrónomo observador que pasaba largas
noches en el telescopio pero no podía comprender (o no le importaba
comprender) las complejidades de un universo Bianchi.
Al mismo tiempo, la inversión social en la teoría del Big Bang
aumentó considerablemente. Para un científico experimental, la
mayor parte del mundo científico en funcionamiento, el descrédito
de una teoría puede redirigir su trabajo, pero no puede hacerlo inútil.
Los buenos datos, obtenidos y analizados competentemente, tienen
un valor científico, incluso si la teoría que los inspiró está
equivocada. Otros teóricos encontrarán usos para ella que eran poco
imaginados cuando se reunió por primera vez. Incluso en el trabajo
teórico, los esfuerzos honestos para comparar una teoría con la
observación casi siempre resultan útiles independientemente de la
verdad de la teoría: un teórico está obligado a molestarse si su idea
favorita está equivocada, pero no se habrá perdido tiempo en
descartarla.
Pero con cientos de investigadores que se dedican a examinar
universos teóricos, matemáticos e hipotéticos, el caso es diferente.
No se necesitaba una gran perspicacia para darse cuenta de que si la
teoría del Big Bang estaba básicamente equivocada, como se había
pensado tan recientemente como a principios de los años sesenta,
entonces estos investigadores simplemente estaban perdiendo el
tiempo y el talento. Un desafío a la teoría del Big Bang amenazaría
las carreras de varios cientos de investigadores. No es de extrañar
que a finales de la década de los setenta no se aceptara prácticamente
ningún trabajo que desafiara el Big Bang para su presentación en las
principales convenciones o para su publicación en las principales
revistas. Se volvió simplemente inconcebible que el Big Bang
pudiera estar equivocado; era una cuestión de fe.
Sin embargo, en el curso de esta edad de oro, no había surgido ni una
sola confirmación nueva de la teoría. No se había observado ningún
fenómeno nuevo predicho por los teóricos, ni se había explicado
ninguna característica adicional del universo. De hecho, se estaban
desarrollando serios conflictos entre la teoría y la observación.
El primero y más grave fue el problema del origen de las galaxias y
otras inhomogeneidades a gran escala en el universo.
La extrema suavidad del fondo de microondas planteaba otro
problema más teórico. Según la teoría del Big Bang, los puntos del
universo separados por más de la distancia que la luz puede haber
atravesado desde que comenzó el universo (unos diez o veinte mil
millones de años-luz) no pueden tener efecto unos sobre otros. Como
resultado, partes del cielo separadas por más de unos pocos grados
estarían más allá de la esfera de influencia del otro. Entonces, ¿cómo
es que el fondo del microondas alcanzó una temperatura tan
uniforme?
Esta simple pregunta demuestra que uno de los parámetros básicos
de la teoría, el número de fotones por protón, es totalmente
arbitrario. ¿Por qué debería haber doce mil millones de fotones por
cada protón, en lugar de doce mil o treinta y seis? ¿Por qué la
temperatura del fondo del microondas es de 2,7° K en lugar de otra
temperatura?
Como se describe en el Capítulo Uno, este fondo isotrópico de
microondas también creó otros problemas. Los anisótropos, o
irregularidades, en el fondo se suponía que reflejaban pequeños
grupos en la materia del universo primitivo, que eventualmente
crecieron para convertirse en galaxias. Pero la anisotropía observada
era tan pequeña que estas fluctuaciones no habrían tenido tiempo
suficiente para convertirse en galaxias a menos que hubiera mucha
más materia -y por lo tanto mucha más gravedad- de la que parece
haber. El fondo del microondas era simplemente demasiado suave
para encajar en la teoría del Big Bang.
Y luego estaba el "problema de la planitud" -por qué omega, la
relación entre la densidad del universo y la necesaria para "cerrarlo",
estaba tan cerca de, pero no era igual a, 1. Si el omega fuera
exactamente 1, permanecería constante a medida que el universo se
expande, creando un universo perfecto, un universo
cuatridimensional plano que no se curva positivamente como una
esfera ni negativamente como una silla de montar, de ahí el
"problema de la planitud"; pero si el omega fuera menor que 1, como
parecía, la disparidad aumentaría a medida que el universo se
expande y su densidad relativa disminuye. Por el contrario, a medida
que retrocedemos en el tiempo hacia el Big Bang, la omega se
acercaría cada vez más a 1. Si, por ejemplo, sabemos que la omega
es 0,01 ahora, en un universo de veinte mil millones de años de
antigüedad, la omega habría sido de alrededor de 0,95 a doscientos
millones de años, 0,99995 a veinte mil años, y así sucesivamente.
Los cosmólogos habían calculado que a los 10 -43 segundos de edad la
omega variaría de 1 por 1 en una parte en 10 58 - e incluso para los
cosmólogos teóricos un número crucial afinado a cincuenta y ocho
decimales parecía sospechosamente conveniente. Una discrepancia
de sólo una parte en 1040 habría causado el colapso o la dispersión
del universo en menos de un segundo, lo que evidentemente no ha
ocurrido. Entonces, ¿por qué omega "en el principio" era igual
a .99999999999? . . ?
Todos estos problemas derivan de la premisa básica del Big Bang,
que el universo se originó como un mundo "perfecto", un Edén de
simetría cuyas características se ajustan a la razón pura. Los
cosmólogos tuvieron que explicar cómo llegó a ser tal perfección-
isotropía, una perfecta omega de 1. Sin embargo, también tuvieron
que explicar cómo su mundo perfecto dio a luz al actual, grumoso e
"imperfecto". En ambos lados hubo dificultades, y el éxito por un
lado tendió a llevar a la derrota por el otro.

■ EL CUARTO BIG BANG: LA INFLACIÓN

Así, a pesar de su dominio incuestionable, la tercera versión del Big


Bang era internamente inverosímil y, al menos en un aspecto, sus
predicciones sobre la suavidad de las microondas contradecían
claramente la observación. Pero abandonar la teoría ya estaba fuera
de discusión, así que una nueva generación de teóricos se dispuso a
revisarla una vez más.
En este punto, los cosmólogos apelaron a sus colegas en física de
partículas, quienes estaban sondeando la fina estructura de la
materia. Los cosmólogos sabían que un omega de 1 resolvería al
menos el problema de la planitud y probablemente el problema de la
anisotropía. Sin embargo, toda la materia conocida sumaba un
pequeño porcentaje de esa densidad, pero no era suficiente. Si el Big
Bang iba a ser salvado, tenía que haber mucho más de lo que
podemos ver, así que los cosmólogos decidieron que la mayor parte
del universo estaba oscuro, o "desaparecido" Como el dueño de una
mascota preocupada en busca de un perro perdido, los cosmólogos
les preguntaron a los físicos de partículas si podían ayudar a
encontrar un universo perdido.
Los físicos de las partículas estaban muy dispuestos, ya que una
alianza con la cosmología les ayudaría con sus propios dilemas. A
finales de los años setenta, el trabajo teórico en física de partículas
había buscado una teoría que unificara las tres fuerzas de la
naturaleza que son importantes en la pequeña escala: el
electromagnetismo y las fuerzas nucleares débiles y fuertes. (La
fuerza débil causa descomposición radioactiva, mientras que la
fuerza fuerte mantiene unidos los núcleos y es responsable de la
liberación de energía nuclear.) Tal Gran Teoría Unificada, o "GUT",
debía explicar estas fuerzas como aspectos de un principio más
fundamental, de la misma manera que Maxwell había unido la
electricidad y el magnetismo un siglo antes.
Al igual que los cosmólogos, los físicos de partículas enfocaron su
teoría principalmente sobre la base de ciertos supuestos matemáticos
"perfectos" a priori (descritos con más detalle en el Capítulo Ocho).
Como resultado, los GUTs postulados hicieron pocas predicciones
comprobables. En su mayor parte predijeron nuevas partículas y
fenómenos que sólo podían ser detectados con energías
extremadamente altas, alrededor de cien millones de trillones de
electronvoltios (eV) o más. (Un electrón voltio es la energía
adquirida por un electrón que cae a través de un potencial eléctrico
de un voltio.) Los aceleradores más grandes concebibles en la tierra
podrían acelerar a menos de una millonésima parte de esa gigantesca
energía - el Big Bang, sin embargo, supuestamente liberó tales
energías fantásticas en la primera fracción de segundo de la
existencia del universo. Tal vez, pensaron algunos teóricos de las
partículas, podamos encontrar en algún aspecto de la cosmología una
confirmación para los GUTs, y en el proceso encontrar el universo
perdido de los cosmólogos.
Uno de esos teóricos, Alan Guth, tuvo éxito de alguna manera. Guth
sabía que todos los GUTs asumen un hipotético y omnipresente
campo de fuerza llamado campo Higgs. En 1980 se dio cuenta de
que podía proporcionar energía no sólo para un Big Bang, sino para
una expansión mucho más rápida, una explosión exponencial que él
denominó la "inflación" El universo inflacionario se duplicaría en
tamaño cada 10-35 segundos, alcanzando un tamaño fantástico en un
instante, un truco que el viejo Big Bang tardó mucho más tiempo en
lograr. Una vez que la inflación terminó, después de 10-33 segundos
más o menos, la expansión del Big Bang normalmente sedado a la
velocidad de la luz podría comenzar.
La inflación resolvió el problema de la planitud, porque el universo
explotó a un tamaño tan grande, mucho más grande que la parte que
podemos observar, que debe aparecer plano (omega igual a 1), así
como la tierra aparece plana porque vemos sólo una parte diminuta
de ella, hasta un horizonte aparente. Además, la inflación explica el
suave fondo de microondas: debido a que el inflado se produce
mucho más rápido que la velocidad de la luz, las regiones que en un
momento dado están en contacto entre sí y, por lo tanto, a la misma
temperatura, son sopladas más lejos unas de otras que la distancia
que la luz puede haber recorrido durante la duración del universo.
Todo el universo observable había estado una vez contenido en una
región tan pequeña, por lo que todo debería tener la misma
temperatura.
Finalmente, dado que la inflación dictó que omega es 1, los
cosmólogos podrían usar este valor para calcular cómo se formaron
las galaxias a partir de los diminutos anisótropos en el fondo de las
microondas.
Pero eso no es todo. Desde que Gamow, la fuente de toda la materia
y energía del universo, y el impulso que impulsaba el Big Bang
mismo, había permanecido como un misterio. En el laboratorio, la
materia y la energía pueden transformarse la una en la otra, pero
nunca se crean ni se destruyen. En la teoría de Guth, el campo Higgs,
que existe en el vacío, genera toda la energía necesaria de nada-ex
nihilo. El universo, como él dijo, es un gran "almuerzo gratis",
cortesía del campo de Higgs.
La teoría de Guth no era perfecta. No decía qué es lo que falta el 99
por ciento del universo, sino que sólo daba una justificación teórica
al deseo de los cosmólogos por él. Y la teoría tenía, resultó ser,
inconsistencias internas. Pero ambos problemas eran de menor
importancia a la luz de su principal resultado: se había establecido el
vínculo entre la teoría de las partículas y la cosmología.
Comienza ahora un período de enorme fermento teórico. Cada año, o
incluso dos veces al año, teóricos de todo el mundo reemplazaban las
teorías inflacionarias existentes con versiones más nuevas - la
inflación fue seguida en 1983 por la Nueva Inflación, y luego por la
Nueva Inflación. Al mismo tiempo, los teóricos de las partículas
formularon nuevos GUTs a un ritmo igualmente frenético, generando
nuevas ideas como las supercuerdas y la supersimetría. La reputación
se hizo y se deshizo en un abrir y cerrar de ojos cuando algunos de
los jóvenes teóricos como Guth y Edward Witten en Princeton se
convirtieron en figuras de los medios de comunicación, sujetos de
artículos en las revistas de noticias nacionales.
Como escribió un filósofo sobre un período similar en el siglo XIX:
"Los principios se derrocaron unos a otros, los héroes de la mente se
derrocaron unos a otros con rapidez inaudita y en tres años más del
pasado fue barrido... que en otros tiempos en tres siglos". Todo esto
se supone que ha ocurrido en el reino del pensamiento puro". 5
De hecho, en todas estas intensas batallas teóricas, debidamente
publicadas en la prensa científica, prácticamente no hubo referencia
a la observación. Cada crítica se refería únicamente a la consistencia
matemática o a la relación de una teoría con otra. Algunas
dificultades subyacentes fueron ignoradas - por ejemplo, no había
una pizca de evidencia de que omega sea igual a 1, de hecho, la
evidencia sugiere que es alrededor de 0,02, como hemos visto. Así
que, a pesar del hecho de que los propios GUTs carecían de
confirmación experimental, omega se convirtió en 1 porque esto fue
predicho por todos los GUTs a través de los modelos inflacionarios
de Guth. Una hipótesis sin ninguna base de observación fue utilizada
para apoyar otras especulaciones sin fundamento.
Pero los GUTs hicieron una predicción comprobable, dramática:
todos predijeron que los protones se descomponían. Dado que los
protones constituyen la mayor parte de la masa observable en el
universo, esto significa que el universo está destinado a decaer. La
vida útil de un protón, sin embargo, fue enormemente larga: 10 30
años (mil millones de millones de millones de años). Una tonelada
de agua contiene alrededor de 10 30 protones, por lo que dentro de esa
masa un protón en promedio debería descomponerse cada año,
emitiendo una partícula energética característica que debería ser
observable.
Para probar esto, los científicos instalaron conjuntos de detectores
alrededor de cuerpos de agua del tamaño de una piscina en las
profundidades de las minas, donde estarían protegidos de los rayos
cósmicos que podrían confundir el experimento. Estas grandes
cantidades de agua se utilizaron para aumentar la probabilidad de
observar la descomposición de los protones.
Pero no pasó nada, durante días, semanas, meses, años. Los protones
no se descomponen. En 1987 estaba claro que los GUTs estaban
equivocados. Sin embargo, eso no detuvo a los físicos de partículas o
a los cosmólogos. Volvieron a sus pizarras y demostraron que la vida
útil del protón se extendía a 1033 años, más allá de los límites
establecidos por los experimentos, y cada uno volvió a su trabajo. (Si
el método científico es una manera de hacer preguntas sobre la
naturaleza, entonces los teóricos de las partículas y los cosmólogos
son personas que no aceptan un "no" como respuesta).
Sin embargo, los cosmólogos no estaban perturbados, porque los
teóricos de las partículas habían proporcionado un zoológico entero
de partículas para formar la masa faltante. Primero fueron los
neutrinos pesados. Los neutrinos son partículas reales, observadas en
experimentos de laboratorio, pero son bastante difíciles de detectar
porque interactúan muy poco con la materia. Parecen viajar a la
velocidad de la luz, por lo que no deben tener masa. Sin embargo, los
teóricos de las partículas postularon que los neutrinos sí tienen masa,
y algunos cosmólogos decidieron que estos neutrinos masivos
podrían ser la masa faltante.
Una supernova hizo estallar esta idea. Las supernovas producen
grandes cantidades de neutrinos cuando explotan. En 1987, cuando
ocurrió una supernova en la Gran Nube de Magallanes, una galaxia
satélite de nuestra propia Vía Láctea, los científicos pudieron
detectar los neutrinos liberados, usando los mismos arreglos que
habían estado esperando pacientemente a que se descompusiera un
protón. Todos los neutrinos llegaron en un solo grupo, mostrando que
todos viajan a la velocidad de la luz y que no tienen masa o tan poco
que no pueden llenar el universo.
Así que los cosmólogos, excepto algunos diehards, se volvieron
hacia otras partículas, las cuales, siendo totalmente hipotéticas, no
podían ser eliminadas como candidatas a la masa faltante por las
inconvenientes supernovas. Los físicos de partículas las
suministraban en grandes cantidades, equipadas con nombres-ejes
caprichosos (llamados así por un detergente), WIMPs, fotinos, y así
sucesivamente. Ninguno había sido observado, pero todos venían
con buenas credenciales, habiendo sido predicho por el GUT de
alguien.
A medida que avanzaba la década de los ochenta, el nivel de fantasía
teórica aumentó. El campo de Higgs comenzó a producir objetos
como cuerdas cósmicas; estos también sirvieron para explicar
problemas tales como la formación de galaxias. Finalmente los
cosmólogos despegaron por su cuenta, yendo más allá de los teóricos
de las partículas, postulando teorías gravitacionales cuánticas que
ponen a la gravedad bajo el mismo marco teórico que las tres fuerzas
de los GUTs. De este esfuerzo surgió la innovación teórica más
extraña de los ochenta -los universos de los bebés- de la que Stephen
Hawking fue pionero. En la escala de 10 -33 cm, menos de un millón
trillonésima parte del diámetro de un protón, el espacio mismo es,
según esta idea, una especie de espuma cuántica, que se forma y
deforma al azar; a partir de esto, pequeñas burbujas de forma
espacio-temporal, conectadas al resto por estrechos cordones
umbilicales llamados agujeros de gusano. Estas burbujas, una vez
formadas, se someten a su propio Big Bangs, produciendo universos
completos, conectados a los nuestros sólo por agujeros de gusano de
10-33 cm de diámetro. Así, de cada centímetro cúbico de nuestro
espacio, surgen unos 10143 universos cada segundo, todos conectados
a los nuestros por diminutos agujeros de gusano, y todos a su vez
dando nacimiento a una miríada de nuevos universos, a medida que
nuestro propio universo emergía de un universo padre. Es una visión
que parece pedir algún tipo de control de natalidad cósmico.
Esta teoría era un intento de eliminar un problema embarazoso, que
siempre había acosado al Big Bang: ¿qué pasó antes de eso?
Mientras que algunos cosmólogos estaban perfectamente contentos
de establecer el vínculo entre el Big Bang y la creación bíblica, otros,
incluyendo a Hawking, no lo estaban, y trataron de evitar un
comienzo al tiempo. La idea de muchos universos es una "solución"
ya que asume que cada universo es parte de una cadena infinita de
universos. Sin embargo, debido a que todos estos universos son, en
principio, inobservables de los nuestros, dejan nuestro propio
universo finito en el tiempo.
Anteriormente, en su libro A Brief History of Time, Hawking había
intentado resolver el mismo problema con una analogía matemática
comparando el universo en cuatro dimensiones con la superficie de
la tierra en dos dimensiones. El tiempo sería, explicó, como las
latitudes de la tierra: "antes del Big Bang" es tan insignificante como
"el sur del Polo Sur", por lo que el tiempo no tiene ni principio ni fin,
como un círculo, pero es todavía finito en extensión. Esta analogía
causó un sinfín de confusión, ya que muchos de los que leyeron su
libro llegaron a la conclusión de que había abandonado el Big Bang
y que abogaba por un universo de duración infinita, cosa que no era
así. En muchas partes del libro, el propio Hawking se refiere al
principio y al fin del universo. Su analogía con las líneas de latitud es
sólo un juego de palabras para minimizar las implicaciones
teológicas de un principio y un fin del tiempo.
Durante todo este período, ninguna de las especulaciones de los
cosmólogos recibió confirmación de la observación - de hecho, los
fundamentos de esta estructura teórica estaban siendo socavados.
Incluso con la materia oscura, el Big Bang todavía no podía explicar
el bajo nivel de anisotropía por microondas, o la formación de
galaxias y estrellas. Tampoco podía acomodar los complejos de
superclusters a gran escala de Tully (descritos en el Capitulo Uno). Y
la materia oscura en sí misma fue descartada por nuevas
observaciones y análisis. El Big Bang en todas sus versiones ha
suspendido todas las pruebas, pero sigue siendo la cosmología
dominante; y la torre de entidades teóricas e hipótesis sube
constantemente más alto. El péndulo cosmológico ha vuelto a girar
completamente. Los cosmólogos de hoy, como dice Alfven, "han
seguido el consejo de Platón de concentrarse en el lado teórico y no
prestar atención a los detalles observacionales", y están creando un
edificio perfecto de pensamiento puro, incapaz de ser refutado por
las meras apariencias.
De este modo, han vuelto a una forma de mito matemático. Un mito,
después de todo, no es más que una historia de orígenes, que se basa
únicamente en la creencia, y como tal no puede ser refutada por la
lógica o la evidencia. Tampoco el Big Bang. Carreras enteras en
cosmología se han construido ahora sobre teorías que nunca han sido
sometidas a pruebas de observación, o que han fracasado en dichas
pruebas y que, sin embargo, se han mantenido. Los supuestos básicos
del cosmos medieval -un universo creado de la nada, condenado a la
destrucción final, gobernado por leyes matemáticas perfectas que
pueden ser encontradas sólo por la razón- son ahora los supuestos de
la cosmología moderna.
Ciertamente este desarrollo se debe en parte a la creciente
legitimidad dentro de la cosmología de un método puramente
deductivo, justificado por el propio Einstein. En 1933 dijo: "Estoy
convencido de que la construcción matemática pura nos permite
descubrir los conceptos y las leyes que los conectan, lo que nos da la
clave para la comprensión de la naturaleza. . . .En cierto sentido, por
lo tanto, sostengo que el pensamiento puro puede captar la realidad,
como lo soñaron los antiguos.” 6 Los cosmólogos de hoy, con el
apoyo de esta elevada autoridad, proclaman con orgullo que han
abandonado el método experimental y en su lugar derivan nuevas
leyes del razonamiento matemático. Como dice George Field, "Creo
que el mejor método es empezar con teorías exactas, como la de
Einstein, y obtener resultados de ellas".
Como hemos visto, el propio Einstein no utilizó este método
deductivo para hacer sus grandes avances. Más importante aún, creo
que se habría horrorizado al ver lo que sus palabras han sido usadas
para justificar: incluso en su trabajo posterior sin éxito rechazó
despiadadamente las teorías claramente contradictorias por la
observación. Sin embargo, los cosmólogos de hoy en día toman el
método deductivo como una racionalización para aferrarse a teorías
largamente desmentidas, modificándolas en extrañas torres de
hipótesis y complejidades ad hoc, algo que Einstein, el amante de la
simplicidad y la belleza tanto en la naturaleza como en las
matemáticas, nunca habría tolerado.

■ COSMOLOGÍA E IDEOLOGÍA
Siempre ha habido una relación íntima entre las ideas dominantes en
cosmología y las ideas dominantes en la sociedad. Sería asombroso
si esa relación hubiera llegado a su fin en nuestro presente tiempo
iluminado. No es que los cosmólogos deriven directamente sus
teorías de ideas sociales o políticas, lejos de ello. Pero lo que les
parece razonable no puede dejar de estar influenciado por los
acontecimientos del mundo que les rodea y por lo que ellos y otros
piensan al respecto.
Por lo tanto, no es una coincidencia que el período durante el cual el
Big Bang estuvo en eclipse, desde alrededor de 1957 hasta 1964,
corresponda a la época de la expansión más vigorosa de la
recuperación de la posguerra y de un resurgimiento de la confianza
en el progreso. La edad de oro del Big Bang en los años setenta, por
otro lado, corresponde al final del boom de la posguerra y a una
nueva década de creciente pesimismo. De hecho, los vínculos entre
las ideas cosmológicas y sociales fueron explicitados tanto por
cosmólogos como por escritores políticos de la época.
A finales de los años sesenta y principios de los setenta, la
recuperación de la posguerra terminó en todas las economías de
mercado. Los salarios reales alcanzaron su punto máximo en Estados
Unidos y Europa Occidental, y algo más tarde en Japón. En el Tercer
Mundo, la producción de cereales per cápita, el mejor indicador
general del suministro de alimentos y del nivel de vida, alcanzó los
340 kilogramos al año y dejó de aumentar, para permanecer allí
durante los próximos veinte años. Si bien el suministro de alimentos
había aumentado en un 50 por ciento desde finales de los años
cuarenta, sólo recuperó los niveles de 1913.
A medida que pasaban los años setenta, los problemas económicos a
los que se enfrentaba el mundo entero, tanto en el este como en el
oeste, se hicieron más evidentes. Como ya había sucedido antes, los
nuevos mercados se estaban saturando y se ejercía una presión cada
vez mayor sobre los salarios y el nivel de vida en todo el mundo, a
medida que los industriales se esforzaban por mantener y aumentar
la rentabilidad de sus empresas.
Casi tan pronto como este cese del crecimiento comenzó a
manifestarse, empezaron a circular las ideas sociales que justificaban
la situación como inevitable. En 1968, el Club de Roma, que reúne a
industriales y académicos, defendió la idea del crecimiento cero: la
tierra es finita, el universo se está agotando, es imposible continuar
con el aumento de los niveles de vida. Las dos crisis del petróleo
fueron interpretadas como advertencias sobre la agotabilidad de los
recursos finitos, una lógica que debe parecer pintoresca a los
productores de petróleo que ahora van a la guerra en una lucha
contra un exceso persistente.
Muchos escritores utilizaron la cosmología del Big Bang y la idea de
la decadencia universal para apoyar el argumento de que el consumo
tiene que ser controlado. En su libro de 1976 The Poverty of Power
Barry Commoner parte de la premisa cosmológica de que "el
universo está constantemente, irremediablemente cada vez menos
ordenado de lo que estaba", y concluye que, dada esta tendencia
general, los estadounidenses deben conformarse con menos para
posponer el inevitable día en que el desorden total reina en la tierra.
El universo vacilante del Big Bang se convirtió en una metáfora de la
economía vacilante, ambos procesos igualmente inevitables, más allá
del control de los meros mortales.
Los cosmólogos y físicos tampoco estaban inmunes a la influencia
de tales analogías. En el popular relato del Big Bang de 1977, The
First Three Minutes, el ganador del Premio Nobel Steven Weinberg
concluye contemplando las lecciones filosóficas de este universo,
que terminarán en el frío helado de la decadencia final y la expansión
infinita, o en el ardiente colapso de una nueva singularidad:
Es casi irresistible para los humanos creer que tenemos alguna
relación especial con el universo, que la vida humana no es sólo un
resultado más o menos absurdo de una cadena de accidentes que se
remonta a los primeros tres minutos, sino que de alguna manera
fuimos construidos desde el principio. Mientras escribo esto, me
encuentro en un avión a 30.000 pies de altura, sobrevolando
Wyoming en camino a casa desde San Francisco a Boston. Abajo, la
tierra se ve muy suave y confortable: nubes esponjosas aquí y allá,
nieve que se torna rosada a medida que el sol se pone, caminos que
se extienden a lo largo del país de una ciudad a otra. Es muy difícil
darse cuenta de que todo esto es sólo una pequeña parte de un
universo abrumadoramente hostil. Es aún más difícil darse cuenta
de que este universo presente ha evolucionado desde una condición
temprana indeciblemente desconocida, y se enfrenta a una extinción
futura de frío interminable o calor intolerable. Cuanto más
comprensible parece el universo, más inútil parece también. 7

Para Weinberg, como para otros, el universo del Big Bang es


irreconciliable con el progreso humano. El fin puede venir dentro de
miles de millones de años, pero al final todo lo que la raza humana
ha logrado en eones no será nada, no tendrá ninguna consecuencia.
El progreso, entonces, es una ilusión, como lo fue para Agustín hace
mil seiscientos años. La única pregunta es cuándo se detendrá, ahora
o en algún momento en el futuro. Por lo tanto, no es de extrañar que
el Big Bang floreciera simultáneamente con las ideas sociales, como
el crecimiento cero, que niegan la realidad del progreso, y con una
crisis económica creciente que, al menos a corto plazo, había
paralizado ese progreso. Una vez más, la cosmología justificó el
curso de los acontecimientos en la tierra.
Pero probablemente no hay mejor ejemplo en este siglo de la
interacción de la ideología social y la cosmología que el desarrollo
del universo inflacionario en los años ochenta. Mil novecientos
ochenta, con la llegada al poder de las administraciones
conservadoras en Estados Unidos y en otros lugares, marcó el final
de un período de pesimismo de moda y el comienzo de una década
de auge especulativo. Alan Guth llegó a su idea de la inflación
cósmica justo cuando la peor inflación monetaria del siglo estaba
llegando a su clímax. Concluyó que el universo es un "almuerzo
gratis" justo cuando la economía estadounidense comenzó su propio
almuerzo gratis gigantesco, un período de especulación que
recompensó a sus participantes ricos mientras que la producción real
se estancó.
A lo largo de la década, el auge de la especulación financiera en Wall
Street se vio ensombrecido por el auge de las especulaciones de los
cosmólogos en Princeton, Cambridge y otros lugares. Mientras
Witten y sus colegas eran aclamados por la prensa como genios de
teorías que no producían ni una sola predicción válida, hombres
como Michael Milken y Donald Trump ganaban no sólo mucha más
fama sino también ingresos que alcanzaban, en el caso de Milken, los
500 millones de dólares al año por manipulaciones de papel que no
añadían ni un solo centavo a la producción nacional.
En el ámbito de las finanzas, las fortunas se construyeron sobre una
torre de deuda. Un especulador pediría prestados cuatro mil millones
de dólares para comprar una empresa, venderla por cinco mil
millones a otro especulador que, a su vez, la dividiría para venderla
en pedazos por seis mil millones de dólares, todo ello con dinero
prestado. Todos los involucrados cosecharon hermosas ganancias y
fueron aclamados como genios de la magia financiera, hasta que
fueron acusados.
El resultado de esto fue una disminución real del nivel de vida tanto
en Estados Unidos como en todo el mundo: a finales de los años
ochenta, el ingreso familiar real en Estados Unidos había caído en un
10 por ciento y estaba al mismo nivel que veinticinco años antes, a
pesar de que la mayoría de las familias ya tenían dos ingresos.
Obviamente, los especuladores a pequeña escala de la cosmología no
imitaron, de ninguna manera consciente, a los especuladores a gran
escala de Wall Street. Sin embargo, como en cualquier otra época, las
ideas dominantes de la sociedad impregnaron la cosmología. Si los
miembros más ricos de la sociedad ganaban miles de millones con la
mera manipulación de números, sin construir una sola fábrica o
molino, no parecía demasiado extraño que las reputaciones
científicas se pudieran hacer con teorías que ya no tienen relación
con la realidad. Si una torre de especulación financiera pudiera
construirse sobre la deuda -la promesa de un pago futuro-, entonces,
de manera similar, una torre de especulación cosmológica podría
construirse sobre la base de promesas de una futura confirmación
experimental. 3
Sin embargo, existe una relación más directa entre el desarrollo de la
economía durante la última década y el desarrollo de la cosmología y
la ciencia en general. En la década de los ochenta se produjo un
recorte, particularmente en Estados Unidos, de la cantidad de dinero
dedicada a la investigación y desarrollo no militar y una drástica
desaceleración del avance técnico. En gran medida, esto intensificó
una tendencia evidente en los años setenta e incluso en los sesenta.
Desde 1960 no ha habido un solo avance cualitativo importante en la
tecnología física.
Los treinta años anteriores a 1960 fueron testigos de una serie de
desarrollos fundamentales: la televisión en los años treinta; el
transistor, el ordenador, el radar y, por supuesto, la energía nuclear en
los cuarenta; el desarrollo de los viajes espaciales y el láser en los

3 En 1990, el cosmólogo Michael S. Turner, de la Universidad de Chicago,


comentó que los "días de los bonos basura de la cosmología" han terminado y
que la especulación teórica será ahora comprobada mediante la observación.
cincuenta. En las tres décadas siguientes se han producido mejoras
espectaculares en todos estos ámbitos, especialmente en el de los
ordenadores, pero no se ha producido ni una sola idea funcional y
cualitativamente nueva. Sólo en biología la ingeniería genética ha
supuesto un avance cualitativo.
Se trata de un cambio profundo para la sociedad moderna: no ha
habido desde el comienzo de la revolución industrial hace 250 años
un período similar de tres décadas sin grandes avances técnicos. Este
estancamiento técnico tiene un profundo impacto en la ciencia y la
tecnología. Una sociedad en avance, que requiere y, por lo tanto,
apoya el trabajo fundamental en ciencia y tecnología, genera
continuamente desafíos para las ciencias puras y proporciona los
materiales necesarios para hacer frente a esos desafíos. Así pues, los
problemas derivados del desarrollo de la electricidad y la
electrotecnología a finales del siglo XIX condujeron directamente al
estudio de la estructura nuclear y, finalmente, a la liberación de
energía nuclear. Cuando el progreso tecnológico se ralentiza o cesa,
esa fertilización cruzada de la teoría y el experimento, el
pensamiento y la acción, comienza a marchitarse y los científicos
comienzan a recurrir a la especulación estéril.
La desaceleración de la tecnología está, hoy en día, directamente
relacionada con el crecimiento de la especulación financiera. Cinco
mil millones de dólares invertidos en la compra, digamos, de Hughes
Aircraft, son cinco mil millones de dólares que el comprador,
General Motors, no invertirá en nuevas fábricas o nuevas
investigaciones. En la medida en que el mercado mundial parece
estar saturado, como lo está hoy en día, entonces los beneficios son
más fáciles de obtener mediante la especulación que mediante la
producción. ¿De qué sirve la nueva tecnología si las nuevas fábricas
no son rentables? La desviación de recursos financieros de los
avances técnicos ha alejado a miles de científicos de los desafíos del
mundo real hacia los desiertos de la especulación.
Afortunadamente para la ciencia, incluso la perfección de las
tecnologías existentes, como la informática, requiere una amplia base
de investigación científica. Pero es la investigación fundamental -
investigaciones cuyos resultados no parecen ser inmediatamente
útiles- la que sufre primero cuando el desarrollo tecnológico se
ralentiza. Hoy en día estas áreas son claramente cosmología y física
de partículas o de altas energías, donde el vínculo entre ciencia y
tecnología, teoría y progreso humano, se ha roto casi por completo.
Es aquí donde, como en la Grecia posclásica, el estancamiento de la
sociedad ha llevado al retorno de los mitos matemáticos, un retroceso
de los problemas de la materia base a la contemplación serena de los
números.
Hoy en día los cosmólogos a menudo se enorgullecen del aislamiento
de su trabajo del mundo cotidiano y de cualquier posible aplicación.
Ellos y sus colegas teóricos de partículas dan a sus hipotéticas
entidades nombres caprichosos y cómicos para hacer alarde de su
creencia de que su actividad es, en la base, un juego elaborado y
difícil, el "libre juego de la mente" En una sociedad acosada por
crecientes crisis, un mundo de pobreza, crimen, drogas y SIDA, un
mundo sin progreso, el reino puro de las matemáticas ofrece un
claustro sereno.
Afortunadamente, esta tendencia no es la única que ha caracterizado
el estudio del universo en el presente siglo. Mientras que esta
especulación matemática dominaba el campo, un desarrollo
completamente diferente surgió del estudio del electromagnetismo.
Es este camino, que condujo a la cosmología del plasma, el que
vamos a examinar ahora.

NOTAS
1. Abraham Pais, Sutil es el Señor, Nueva York, Oxford University
Press, 1982, p. 311.

2. Hannes Alfven, "How Should We Approach Cosmology" en


Problemas de la Física y la Evolución del Universo, Academia de
Ciencias de la RSS de Armenia, Yerevan, 1978, p. 14.

3. Albert Einstein, Essays in Science, Philosophical Library, Nueva


York, 1934, p. 69.

4. H. T . Poggio, "Ciencia y predicción", Suplemento a la Naturaleza,


21 de marzo de 1931, p. 454.

5. Karl Marx y Friedrich Engels, The German Ideology, Nueva York,


International Publishers, 1970, p. 39.

6. Einstein, Essays in Science, p. 18. 7. Steven Weinberg, The First


Three Minutes, Nueva York, Basic Books, 1977, p. 154.

7. Steven Weinberg, The First Three Minutes, Nueva York, Basic


Books, 1977, p. 154.
5 - LAS LANZAS DE ODIN

El espacio está lleno de electrones e iones eléctricos voladores de todo tipo.


- KRISTIAN BIRKELAND, 1904

Era la cuestión de por qué los errantes -los planetas- se movían como lo hacían,
lo que desencadenó la avalancha científica hace varios cientos de años. Los
mismos objetos están ahora de nuevo en el centro de la ciencia; sólo las
preguntas que hacemos son diferentes. Ahora nos preguntamos cómo ir allí, y
también cómo se formaron estos cuerpos. Y si el cielo nocturno en el que los
observamos está a gran latitud, fuera de esta sala de conferencias -quizás sobre
una pequeña isla en el archipiélago de Estocolmo- también podemos ver en el
cielo una aurora, que es un plasma cósmico, que nos recuerda la época en que
nuestro mundo nació de plasma. Porque al principio era el plasma.
- HANNES ALFVEN, Conferencia Nobel, 1970

La cosmología del Big Bang, como hemos visto, se basa en lo último


en teorías físicas -teorías tan nuevas y abstractas que no tienen
confirmación en el mundo real. Por el contrario, la cosmología del
plasma se basa en la física básica que se desarrolló hace más de cien
años: la física del electromagnetismo. Estos conceptos subyacentes
pueden no ser nuevos, pero han sido confirmados en la práctica, no
sólo por millones de experimentos, sino por toda la estructura de la
tecnología moderna. Sin el electromagnetismo, no tendríamos
electricidad, nada que requiera electricidad para su funcionamiento o
incluso para su producción: volveríamos al nivel técnico de la era de
Andrew Jackson. Los conceptos de electromagnetismo son también,
a diferencia de las ideas arcanas de la nueva física, fácilmente
comprensibles.
Probablemente el descubrimiento más importante sobre la
electricidad y el magnetismo es que son fenómenos estrechamente
relacionados. En 1751 Benjamin Franklin señaló esa relación por
primera vez, demostrando mediante experimentos que las descargas
eléctricas podían magnetizar y desmagnetizar el hierro. Pero no fue
hasta 1820 que la relación fue estudiada sistemáticamente, y los
conceptos clave del electromagnetismo comenzaron a ser
formulados. Ese año, Hans Christian 0rsted demostró que una
corriente eléctrica que se mueve a través de un cable crea un campo
magnético a su alrededor. Es decir, un imán suspendido cerca del
alambre será jalado alrededor del alambre en un círculo,
transformando la energía eléctrica de la corriente en movimiento.
0rsted había descubierto el principio básico del motor eléctrico. Once
años más tarde, Michael Faraday demostró lo contrario, que un
campo magnético en movimiento puede generar una corriente
eléctrica. Si un conductor de cualquier tipo -una bobina de alambre o
un disco de metal- pasa a través de un campo magnético, se genera
una corriente en él. De este modo, el movimiento mecánico se puede
convertir en corrientes eléctricas, el principio de la dinamo o
generador eléctrico. En conjunto, estos dos principios obviamente
tenían profundas implicaciones tecnológicas. No sólo se puede
traducir el movimiento en electricidad, sino que se puede volver a
traducir esa electricidad en movimiento de nuevo, incluso en un
lugar distante. En una década, esto llevó a la invención del telégrafo,
que permite que los mensajes vuelen a través de un continente en un
instante, en lugar de arrastrarse a pie o a caballo. Faraday desarrolló
leyes que relacionan el magnetismo con la electricidad. Los basó en
la noción de que los campos magnéticos impregnan el espacio, y
pueden ser imaginados como haces de líneas curvas (Fig. 5.1). Esta
fue una innovación radical en una época en la que los científicos
consideraban que el espacio entre las partículas de materia estaba
completamente vacío. Pero no fue hasta 1862 que James Clerk
Maxwell unificó todos los fenómenos eléctricos y magnéticos
conocidos en un solo conjunto de ecuaciones: las leyes de Maxwell.
Fig. 5 .1a. Orsted descubrió que una corriente eléctrica, un flujo de cargas
eléctricas, crea un campo magnético a su alrededor. El campo tira de un polo de
un imán alrededor de un círculo.

Fig. 5.1b. Faraday descubrió más tarde que un conductor que se mueve a través
de un campo magnético producirá una corriente entre el exterior y el eje del
disco.

Las leyes describen, con precisión matemática, cuatro principios


básicos del electromagnetismo: (1) un campo magnético cambiante
genera un campo eléctrico en ángulo recto con respecto a la
dirección del cambio; (2) de manera similar, un campo eléctrico
cambiante genera un campo magnético en ángulo recto; (3) una carga
eléctrica aislada e inmóvil atrae cargas opuestas y repele como
cargas con una fuerza que disminuye a medida que se reduce el
cuadrado de la distancia; (4) no hay polos magnéticos aislados -
polos norte y polos sur siempre vienen en pares. Estas leyes, por muy
simples que sean, tienen enormes consecuencias. Por un lado, la
existencia de campos eléctricos y magnéticos no requiere un medio
físico: un campo eléctrico cambiante puede producir un campo
magnético cambiante, que a su vez producirá campos eléctricos
cambiantes incluso en espacios vacíos. Maxwell se dio cuenta de que
tales cambios se propagan como las ondas, moviéndose a la
velocidad de la luz. Dando un gran salto, planteó la hipótesis de que
tales ondas electromagnéticas son luz. Los experimentos
subsiguientes le demostraron que tenía razón: la electricidad, el
magnetismo y la luz son todos aspectos de una sola realidad
electromagnética. Además, las ecuaciones implican que cualquier
partícula cargada acelerada emitirá radiación electromagnética. Si
una partícula cargada se mueve a una velocidad constante en línea
recta, producirá un campo eléctrico que cambia constantemente y un
campo magnético que no cambia. Pero si se acelera, producirá un
campo magnético cambiante, que a su vez producirá un campo
eléctrico cambiante, y así sucesivamente se emitirá una onda de
radiación electromagnética. Así se pueden producir olas, por
ejemplo, cambiando las corrientes. Unos años más tarde, Heinrich
Hertz utilizó este descubrimiento para producir las primeras ondas de
radio. A primera vista, las relaciones descritas por las leyes de
Maxwell, y observadas por primera vez por Orsted y Faraday,
parecen un poco peculiares. Las fuerzas mecánicas de la vida
cotidiana actúan en línea recta, pero las fuerzas electromagnéticas
actúan en ángulo recto. A los estudiantes de física de primer año se
les ha enseñado durante generaciones una mnemotécnica útil para
recordar cómo operan estas fuerzas. Por ejemplo, si su pulgar
representa la dirección de una corriente eléctrica, los dedos de su
mano derecha se enroscarán en la dirección del campo magnético
creado por la corriente. Si estira el pulgar derecho, el índice y el dedo
medio hacia afuera en ángulos rectos entre sí, su pulgar indica la
dirección del campo magnético, su dedo medio la dirección del
movimiento de una partícula cargada, y su índice la dirección de la
fuerza del campo magnético sobre la partícula. Una partícula cargada
que se mueve libremente, como un electrón, se moverá en un círculo
alrededor de una línea de campo magnético (Fig. 5.2). Aunque todo
esto puede parecer confuso, existe un análogo familiar: el
movimiento de los fluidos. Los científicos de finales del siglo XIX
que estudiaban la dinámica de fluidos encontraron que las ecuaciones
que se les ocurrieron para describir el movimiento de los fluidos y,
en particular, la acción de los vórtices de los fluidos, coinciden
exactamente con las ecuaciones de Maxwell en algunas situaciones.
Específicamente, si no hay cargas desequilibradas (no hay exceso de
cargas positivas o negativas), las líneas magnéticas de fuerza
alrededor de una corriente eléctrica son idénticas al movimiento del
fluido alrededor de un vórtice. Sin embargo, cuando se introducen
cargas eléctricas, como la carga estática que se acumula en una
secadora de ropa o en interiores durante un día seco de invierno, la
analogía se rompe. Como resultado, los modelos físicos de los
dinamicistas de fluidos eran de uso limitado.

Fig. 5.2 Los electrones giran alrededor de las líneas magnéticas de fuerza
(Arriba). Dos corrientes que se mueven a lo largo de líneas de fuerza paralelas
crearán campos magnéticos que jalarán las dos corrientes juntas (Inferior). Esto
es similar al comportamiento de los vórtices fluidos: los que se mueven en la
misma dirección se atraen, mientras que los que se mueven en direcciones
opuestas se repelen.

En la década de 1890 J. J. J. Thomson realizó una serie de


experimentos que llevaron al descubrimiento de que las cargas
negativas son transportadas por el electrón. El electrón es la partícula
ligera y altamente móvil que transporta las corrientes, mientras que
el protón -descubierto en 1911 por Ernest Rutherford- es casi dos mil
veces más pesado, y es el núcleo relativamente inmóvil que
constituye el núcleo de cada átomo. (Trabajos posteriores en los años
treinta llevaron al descubrimiento de que el neutrón, una partícula
neutra sin carga, es otra parte del núcleo.

■ LA AURORA BOREAL

Con estos simples ingredientes -las leyes de Maxwell, los electrones


y los protones- se ha desarrollado una sociedad técnica enormemente
compleja. Una sorprendente cantidad de la tecnología actual todavía
se basa en los avances teóricos realizados a mediados del siglo XIX
y el posterior descubrimiento de electrones y protones. Quizás
igualmente sorprendente, con estos mismos ingredientes se podría
formar una imagen precisa del universo. La primera persona en
iniciar este camino de aplicación del electromagnetismo al cosmos
fue el científico e inventor noruego Kristian Birkeland. Nacido en
1867, cinco años después de que se formularan las leyes de Maxwell,
Birkeland estudió en Bonn, Ginebra y Leipzig, aprendiendo sobre la
teoría electromagnética de pioneros como Heinrich Hertz y Henri
Poincare (cuya investigación condujo más tarde a la teoría de la
relatividad). En 1895, recién salido de sus estudios, Birkeland aplicó
lo que aprendió para explicar el fenómeno de la aurora. La aurora es
uno de los despliegues más impresionantes que el cielo tiene para
ofrecer. En el mejor de los casos, en el extremo norte, es una cortina
de luz brillante, multicolor y siempre cambiante, dividida por todas
partes en picos y serpentinas que se mueven a través de las
apariciones del cielo que los vikingos llamaban "las Lanzas de Odín"
(Fig. 5.3).

Fig. 5 .3. Las lanzas de Odín, la aurora.


Birkeland había visto algo así como este resplandor fosforescente en
su laboratorio. En ese momento, la frontera de la investigación
electromagnética estaba en los rayos catódicos. Cuando se aplica un
campo eléctrico a un tubo parcialmente evacuado que ha sido
recubierto con un material fluorescente, unos misteriosos rayos
iluminan un extremo del tubo, creando un resplandor opalescente.
(Al estudiar los rayos, Wilhelm Rontgen descubrió los rayos X, que
son emitidos por el tubo.) Birkeland razonó que si una corriente
eléctrica que se mueve en el laboratorio a través de un vacío cercano
puede producir este resplandor cuando golpea el material
fluorescente, tal vez los electrones que se mueven a través del
espacio puedan iluminar de manera similar los cielos del norte
cuando chocan contra la atmósfera de la tierra -las auroras eran tubos
gigantes de rayos catódicos naturales. (Hoy en día, los tubos de rayos
catódicos se encuentran en todos los hogares estadounidenses como
pantallas de televisión. La aurora podría ser considerada un
programa de televisión de la naturaleza.) Birkeland planteó la
hipótesis de que la corriente se origina en el sol, donde pensó que las
manchas solares emiten corrientes de partículas cargadas. Pero, se
preguntó, ¿por qué la aurora sólo se encuentra cerca de los polos de
la tierra, y por qué toma la forma sorprendente que tiene? En sus
propios experimentos con haces de electrones, Birkeland notó que
los electrones son guiados hacia un imán cercano. La tierra tiene un
poderoso campo magnético. Birkeland razonó que también guiaría
las corrientes: cuando las corrientes en el espacio se encuentren con
este campo, se verán forzadas a girar en espiral alrededor de las
líneas de campo magnético. Sería fácil, por lo tanto, que las
corrientes se movieran a lo largo de las líneas de fuerza magnética,
pero casi imposible para ellos moverse a través de ellas. Si las
corrientes siguen las líneas de campo, entonces entrarán en la
atmósfera sólo donde el campo magnético de la Tierra es casi
vertical, y eso es cerca de los polos. Se llegó a otra conclusión. Las
corrientes no podían permanecer distribuidas uniformemente a
medida que se movían a lo largo de las líneas de campo. Las
corrientes vecinas, cada una produciendo campos magnéticos
alrededor de sí misma, serán juntadas. De este modo, las corrientes
se verán obligadas a fusionarse en grandes filamentos, con muy poca
corriente entre ellos. De esta manera se forman las delicadas cortinas
de la aurora. Para probar su teoría, Birkeland construyó un
dispositivo experimental para modelar la aurora en el laboratorio.
Para la tierra sustituyó una esfera de metal magnetizada, y para la
atmósfera resplandeciente, pintó un fósforo sobre la esfera que
brillaba al ser golpeada por electrones. Cuando disparó un rayo de
electrones a la esfera, el fósforo brillaba en las mismas latitudes que
la aurora real (Fig. 5.4). Experimentos más detallados confirmaron la
correlación entre el modelo y la realidad.

Fig. 5.4 Birkeland (izquierda) con su modelo.

No satisfecho sólo con estos datos de laboratorio, Birkeland buscó


mediciones del campo magnético que, según su hipótesis, es creado
por las corrientes que fluyen durante las intensas "tormentas"
aurorales, pero para obtener estas mediciones tendría que organizar
una costosa expedición al norte de Noruega, donde tenía la intención
de establecer una red de detectores de campo magnético. Para
financiar esta expedición se apoyó en el otro lado de su trabajo
científico: sus inventos.
Birkeland ha participado en el desarrollo de equipos de alta tensión
para centrales hidroeléctricas. Mientras trabajaba en un nuevo diseño
para un disyuntor, Birkeland notó, como otros antes que él, que los
pedazos de hierro sueltos son succionados en una bobina
electromagnética, llamada solenoide, con tal fuerza que vuelan como
proyectiles. Inmediatamente vio una aplicación práctica: un cañón
electromagnético. En 1901 obtuvo una patente y organizó
Birkeland's Firearms para desarrollar el dispositivo. Rápidamente
reuniendo un núcleo de inversores, Birkeland construyó un modelo
de prueba que disparó grandes proyectiles a una velocidad de cien
metros por segundo. Como esto era demasiado lento para un cañón,
Birkeland decidió que su invento era mejor para lanzar torpedos a
corta distancia.

Fig. 5.5. El cañón electromagnético más grande de Birkeland, ahora en el Museo


Técnico Noruego.

En 1903, con el fin de recaudar fondos para su expedición planeada,


organizó una demostración pública de su arma más grande (Fig. 5.5).
En una gran sala, apuntó el arma a una tabla de madera de tres
pulgadas de grosor y explicó su funcionamiento a la multitud
reunida, incluidos los representantes de Krupp y Armstrong, los
principales fabricantes de armas de Europa. Más tarde describió lo
que siguió: " ``Damas y Caballeros,' dije, `pueden sentarse. Cuando
aprieto ese interruptor, no verás ni oirás nada excepto el portazo del
proyectil contra el objetivo". Hubo un relámpago, un ruido
ensordecedor y sibilante, un arco de luz brillante debido a un
cortocircuito de tres mil amperios y un disparo de llama desde el
cañón. Algunas de las señoras gritaron y un momento después cundió
el pánico. Fue el momento más dramático de mi vida. Con esta toma,
le disparé a mis acciones de 300 a cero. Pero el proyectil dio en el
blanco". 1
El espectacular fracaso del cañón no perturbó a Birkeland (ni
invalidó el concepto: ochenta años después, su arma
electromagnética es objeto de una intensa investigación con fines que
van desde la elevación de cargas útiles espaciales hasta el
lanzamiento de misiles). Birkeland estaba fascinado por la sacudida
de un rayo que su pistola en cortocircuito había producido
accidentalmente.
En una semana, encontró una aplicación para los relámpagos
artificiales. Sam Eyde, que buscaba producir fertilizantes
nitrogenados directamente del nitrógeno del aire, evitando el uso de
guano u otros materiales importados, dijo a Birkeland que necesitaba
"el rayo más grande que se pudiera producir en la tierra" En el plazo
de un año, los dos hombres colaboraron, usando energía
hidroeléctrica barata y las gigantescas máquinas de Birkeland para
producir fertilizantes por tonelada, y crearon lo que sigue siendo una
de las industrias más grandes de Noruega.
Con los fondos que generó de sus varios inventos, Birkeland montó
una serie de expediciones para estudiar la aurora. Puso en marcha su
red de detectores ante el mal tiempo: "Con vientos fuertes, era
imposible salir", escribió más tarde, "y en más de una ocasión se
necesitaron tres hombres con un gran esfuerzo para cerrar nuestra
puertecita. Las temperaturas de -20° C acompañadas de vientos de
20-30 m/seg [hasta 70 MPH] eran bastante frecuentes. Nadie que no
lo haya probado puede imaginar lo que es estar fuera con este
tiempo!" 2 Las mediciones de Birkeland mostraron que los campos
magnéticos generados por la aurora están tan localizados en el suelo
que sólo pueden haber sido producidos por corrientes casi verticales,
alineadas a lo largo del campo magnético de la tierra. Estudiando la
correlación de las tormentas magnéticas en la tierra con la rotación
de los grupos de manchas solares en el sol, también confirmó la
fuente de las partículas cargadas, y estimó con bastante precisión su
velocidad - alrededor de 1.000 km/seg.
En la década siguiente Birkeland generalizó su teoría de la aurora a
otros fenómenos astronómicos, afirmando que las manchas solares,
los anillos de Saturno, e incluso la formación de galaxias pueden
explicarse por las corrientes eléctricas y los campos magnéticos que
se mueven a través de los tenues gases conductores del espacio. En
1904 escribió que "el espacio está lleno de electrones e iones
eléctricos voladores de todo tipo" y que, por primera vez, había
vislumbrado el universo de plasma.

■ ALFVEN Y CHAPMAN

En el momento de su muerte, en 1917, Birkeland era el científico


más conocido de Escandinavia y estaba siendo considerado para
recibir el Premio Nobel. Pero, a pesar de su prestigio, sus ideas sobre
las corrientes en el espacio fueron eclipsadas durante más de sesenta
años. En gran parte esto se debió a la personalidad que llegó a
dominar los campos de estudio auroral y los campos magnéticos en
el espacio en general -Sydney Chapman, un científico británico cuyo
enfoque de la ciencia era el opuesto al de Birkeland.
Hacia 1920, poco después de la muerte de Birkeland, Chapman
comenzó a introducir en el estudio de la aurora la misma precisión
matemática que se estaba popularizando en el campo más arcano y
glamoroso de la cosmología. Birkeland había sido un defensor
ejemplar del método inductivo de formulación de hipótesis
científicas inspirado por la observación y el uso de aproximaciones
matemáticas para describir sus teorías. Chapman empleó el método
deductivo: formuló sus hipótesis matemáticas "rigurosas" y las
aplicó en la medida de lo necesario a la observación. Las corrientes
confinadas a la cubierta esférica de la atmósfera terrestre podían ser
tratadas rigurosamente, por lo que Chapman decidió que debían ser
la base de cualquier teoría de sonido: las tormentas aurorales debían
ser causadas por perturbaciones en la atmósfera terrestre.
Confundiendo las limitaciones de sus métodos deductivos con los
límites de la realidad física, descartó las corrientes en el espacio que
no encajarían en ecuaciones elegantes y esféricamente simétricas. La
visión de Birkeland de un universo lleno de campos y corrientes
llegó a ser casi enterrada con él.
Su renacimiento fue principalmente obra de otro escandinavo, a
quien ya hemos conocido en estas páginas: Hannes Alfven. Viendo a
Alfven hoy en día, uno difícilmente adivinaría que este hombre de
voz suave es una de las figuras más controvertidas de la ciencia del
siglo XX. Parece ser un tipo amable y abuelo (como de hecho lo es),
y recuerda sus muchas batallas con una sonrisa lista. Pero aunque
Alfven siempre ha sido de voz suave, nunca ha suavizado sus
palabras en materia de ciencia. Sesenta años después de haber
comenzado su carrera científica, veinte años después de haber sido
galardonado con el Premio Nobel, sigue siendo el centro de los
conflictos científicos y, a pesar de su comportamiento silencioso,
siempre ha disfrutado de una buena lucha.
Alfven nació en 1908 en Norrkoping, Suecia. Como estudiante de
postgrado en física en la Universidad de Uppsala, Alfven se sintió
atraído inicialmente por el campo de la física nuclear, que estaba
floreciendo a principios de los años treinta. Los físicos nucleares
estaban haciendo una serie de descubrimientos rápidos que
conducirían, dentro de la década, al descubrimiento de la fisión y
fusión nuclear y, más tarde, a la liberación de energía nuclear.
Incluso antes de recibir su doctorado en 1934, Alfven comenzó a
alejarse del estudio de la física nuclear. Inicialmente trabajó con un
equipo de investigación estudiando los rayos cósmicos, las partículas
enormemente energéticas cuyo origen en el espacio parecía tan
misterioso. Lemaitre había propuesto recientemente que los rayos
cósmicos se derivan de la explosión de su átomo primitivo, el primer
Big Bang. El trabajo de Alfven era diseñar y construir grandes
contadores Geiger para registrar las energías de los rayos cósmicos.
Para Alfven fue un simple paso de monitorear los rayos a preguntarse
qué son y cómo llegaron a ser.
Los científicos más prominentes de la época, James Jeans y Robert
Millikan, habían propuesto que los rayos cósmicos son de origen
nuclear, y que son el resultado de una reacción de aniquilación o
fusión nuclear desconocida. Alfven, un simple estudiante de
postgrado, pensó que tenía una idea mejor y la publicó como una
breve carta en la prestigiosa revista británica Nature.
El artículo "Origen de la radiación cósmica", publicado en abril de
1933, revela los principales temas de las siguientes décadas de
investigación de Alfven. Propuso que los rayos cósmicos son
acelerados por interacciones eléctricas con granos de polvo cargados
en el espacio interestelar. Los granos de polvo, enormemente más
grandes que los electrones y protones de los rayos cósmicos, les
imparten gran energía y los aceleran a las altas velocidades
observadas. En lugar de interacciones nucleares exóticas o un átomo
primitivo aún más exótico, Alfven visualizó las colisiones comunes
entre el polvo y los átomos como una explicación adecuada de los
rayos cósmicos.
De manera característica, Alfven asumió que los fenómenos
cósmicos son similares, si no idénticos, a las fuerzas y procesos que
observamos en la Tierra -en este caso, las fuerzas electrostáticas y las
colisiones entre partículas de diferente masa. Igualmente
característico, contradecía la sabiduría recibida de la época. Para
Alfven, el laboratorio es una mejor guía hacia el cielo que la
autoridad del científico más prestigioso.
La idea inicial de Alfven era que las colisiones entre las partículas de
polvo y los rayos cósmicos son demasiado raras para producir el
número de rayos observados. Pero lo convirtió de la física nuclear a
los estudios electromagnéticos. A partir de 1936 Alfven esbozó, en
una serie de documentos muy originales, los fundamentos de lo que
más tarde llamaría electrodinámica cósmica: la ciencia del universo
plasmático. Convencido de que las fuerzas eléctricas están
implicadas en la generación de los rayos cósmicos, Alfven siguió el
método de Birkeland de extender los modelos de laboratorio a los
cielos, aunque a una escala mucho mayor. Sabía cómo se crean las
partículas de alta energía en el laboratorio: el ciclotrón, inventado
seis años antes, utiliza los campos eléctricos para acelerar las
partículas y los campos magnéticos para guiar sus trayectorias.
¿Cómo, preguntó Alfven, sería posible un ciclotrón cósmico y
natural?
Se pueden generar campos eléctricos potentes moviendo un
conductor eléctrico a través de un campo magnético. El aparato más
sencillo, desarrollado un siglo antes, era el generador de discos de
Faraday, también llamado generador homopolar o unipolar: un
conductor, moviéndose en círculo en un campo magnético, produce
un campo eléctrico entre el eje y la circunferencia.
Las observaciones de la Tierra ya habían demostrado que el sol tiene
un gran campo magnético, por lo que a Alfven le parecía probable
que todas las estrellas tuvieran campos similares. Eligió el caso de un
sistema de doble estrella para incorporar el movimiento necesario.
Aquí, dos estrellas girarían una alrededor de la otra -una ocurrencia
lo suficientemente común- creando campos eléctricos gigantes a
medida que se mueven.
¿Pero qué hay del director? Se suponía que el espacio era un vacío,
por lo tanto incapaz de transportar corrientes eléctricas. Aquí, Alfven
nuevamente extrapoló audazmente del laboratorio. En la tierra,
incluso los gases extremadamente enrarecidos pueden transportar
una corriente si han sido ionizados, es decir, si los electrones han
sido despojados de los átomos. En los años veinte, el químico
estadounidense Irving Langmuir había iniciado el estudio sistemático
de estos gases portadores de corriente, que él denominó "plasma", y
Alfven razonó que dicho plasma también debía existir en el espacio.
Los iones y electrones en el espacio podrían ser acelerados por un
generador de doble estrella y podrían transportar corrientes enormes,
mil millones de amperios o más. Si esto fuera así, la partícula se
aceleraría a un trillón de electronvoltios (1TeV), casi tan alto como
las energías más altas que se observan en los rayos cósmicos.
En esa época, una de las cosas más misteriosas de los rayos cósmicos
era su isotropía. Al igual que el fondo de microondas descubierto
décadas después, los rayos cósmicos emiten de manera uniforme
desde todas las partes del cielo. La mayoría de los científicos
asumieron que la fuente de los rayos no puede estar dentro de la Vía
Láctea: si se originaron dentro de ella, parecerían estar concentrados
en una banda estrecha a través del cielo, como las estrellas de la Vía
Láctea.
Alfven, sin embargo, explicó que su isotropía no demostró nada de
eso. Los sistemas de doble estrella producen corrientes de partículas
de alta energía, que a su vez producen un campo magnético. Por lo
tanto, argumentó, una galaxia debe estar impregnada por un campo
magnético débil, tal vez unas pocas trillonésimas de un gauss (un
gauss es aproximadamente la fuerza del campo magnético en la
superficie de la tierra). Las partículas de rayos cósmicos que se
encuentren con este campo se verán forzadas a entrar en una
compleja espiral que se curvará en unos pocos años luz de espacio -
cualquiera que sea la dirección de la que vinieron originalmente, se
encontrarán irremediablemente revueltas para cuando lleguen a la
Tierra.
Así, Alfven mostró que, aunque aparentemente isotrópicos, los rayos
cósmicos no necesitan penetrar todo el universo uniformemente -sólo
el interior de una galaxia. Esto, además, elimina el problema de
explicar la gigantesca cantidad de energía necesaria si los rayos se
distribuyen uniformemente por todo el universo.
En sólo dos años de estudio del problema de los rayos cósmicos,
Alfven desarrolló cinco conceptos básicos que serían utilizados
nuevamente en el desarrollo de la electrodinámica cósmica: la
aceleración electromagnética de partículas como los rayos cósmicos,
la generación homopolar de grandes campos eléctricos en el espacio,
la existencia de corrientes a gran escala y campos magnéticos y,
finalmente, un plasma portador de corriente en el espacio.
Cada uno de estos conceptos tuvo que esperar veinte años o más para
la aceptación general y la confirmación de la observación. La
aceleración electromagnética de los rayos cósmicos y la existencia de
un campo magnético galáctico no fueron generalmente aceptados
hasta mediados de los años cincuenta, mientras que los generadores
homopolares y las corrientes a gran escala que producen no fueron
confirmados hasta principios de los setenta. En el momento en que
Alfven formuló estas ideas, prácticamente todos los demás
científicos asumieron que el espacio, especialmente el espacio entre
las estrellas, es básicamente vacío, un vacío. Pero fue en este espacio
vacío donde los elegantes modelos de Chapman encajaban tan bien
que sus corrientes y campos estaban todos enclavados con seguridad
en la propia atmósfera de la tierra. La idea de un universo lleno de
plasma, corrientes, campos magnéticos, grandes ciclotrones y otros
equipos eléctricos a escala parecía simplemente extraña.
■ VOLVER A LA AURORA

El trabajo inicial de Alfven sobre los rayos cósmicos no fue refutado,


sino totalmente ignorado. Pero una colisión con el pensamiento
ortodoxo era inevitable cuando en 1939 Alfven tomó los conceptos
que había desarrollado para los rayos cósmicos y los aplicó al
problema de las tormentas aurorales, o subtormentas magnéticas,
como se las llamaba entonces.
Alfven comenzó por revivir la teoría de Birkeland de que las
tormentas ocurren cuando las partículas emitidas por las manchas
solares crean corrientes cerca de la tierra alineadas con su campo
magnético. Pero sabía que había un defecto básico en la teoría de
Birkeland. Birkeland especuló que la corriente viene ya hecha del sol
en un rayo que consiste sólo de electrones. Sin embargo, Alfven
sabía que si el sol emitiera sólo electrones, rápidamente desarrollaría
una carga positiva tan enorme que la corriente cesaría -los electrones
serían atraídos de vuelta al sol. Así que, asumió, el sol emite un flujo
de plasma con cantidades iguales de protones y electrones. En esto
estuvo de acuerdo con Chapman y otros, pero sólo en esto.
Para Chapman no le pasa nada importante a esta corriente hasta que
llega a las corrientes y campos en la cima de la atmósfera terrestre.
Alfven, sin embargo, pensó que las cosas más importantes suceden
en el espacio, específicamente la generación de las corrientes que
alimentan la aurora. Al igual que con su anterior modelo de rayos
cósmicos, Alfven encontró los tres elementos de un generador: un
campo magnético (el de la tierra), movimiento (el flujo de las
partículas solares más allá de la tierra), y un conductor (el plasma
que rodea la tierra). A medida que la corriente de plasma fluye más
allá del campo magnético, distorsionándolo en el proceso, se genera
un campo eléctrico que atrae electrones en una dirección y protones
en la otra. Este generador, Alfven vio, era el suministro de energía
para las corrientes aurorales.
A medida que el flujo de partículas solares alcanza el campo
magnético de la Tierra, se produce un potencial eléctrico que mueve
los protones hacia el oeste y los electrones hacia el este (Fig. 5.6). La
atracción entre las cargas opuestas los impulsa a completar el circuito
-los electrones "quieren" volver a fluir hacia los protones- para que
se muevan a lo largo de las líneas del campo magnético terrestre,
como Birkeland había señalado, girando en espiral alrededor de las
líneas. Para llegar de este a oeste, fluyen por las líneas hacia la
ionosfera (la capa eléctricamente conductora de la atmósfera), fluyen
a través de la ionosfera, y luego fluyen hacia arriba por otra línea de
campo magnético al otro lado de la tierra. Cuando los electrones,
acelerados por este vasto generador, golpean los átomos en la
atmósfera, los excitan, creando las poderosas tormentas aurorales.

Fig. 5.6 En la teoría de la aurora de Alfven, el plasma del sol (naranja) se mueve
a través del campo magnético de la tierra (rojo) (ver la parte posterior de la
cubierta del libro). En el ecuador, los protones en el plasma son forzados hacia el
oeste y los electrones hacia el este (a la derecha). Los electrones vuelven a fluir
hacia el oeste a lo largo de las líneas de campo magnético. Primero descienden a
la ionosfera cerca de los polos (líneas verdes y azules); esto crea la aurora a
medida que los electrones chocan con los átomos atmosféricos, haciendo que
emitan luz. Los electrones entonces fluyen a través de la ionosfera hacia el oeste
y luego de vuelta al ecuador (a lo largo de las líneas de campo hacia la
izquierda).

Debido a que la teoría de Alfven contradecía completamente las


ideas dominantes de Chapman, le resultó casi imposible conseguir
que se publicara. Al final se publicó en una revista sueca
relativamente oscura. Peor aún, Chapman se negó a debatir sus ideas
de ninguna manera. A pesar de las polémicas presentaciones de
Alfven en las conferencias, Chapman se levantaría, diría brevemente
que él y sus colegas no estaban de acuerdo, y agregaría: "Estamos
preparando un documento que aclarará estos asuntos", Alfven
protestaría, pero Chapman se sentaría y el asunto estaría cerrado.
Durante treinta años, hasta la muerte de Chapman en 1970, Alfven
intentó en vano involucrarlo en el debate. Sus relaciones personales
se mantuvieron amistosas a pesar de las marcadas diferencias
científicas. En una ocasión, Alfven y su esposa, Kersten, fueron
invitados por Chapman a Cambridge. Chapman llevó a Alfven,
veinte años menor que él, a un recorrido a pie por el antiguo campus.
Fue una experiencia frustrante para el joven. Alfven recuerda: "Cada
vez que intentaba plantear nuestras diferencias, cuando empecé a
decir:'¿No parece razonable que, en las subtormentas...', Chapman
interrumpiera cortésmente y señalara a alguna pintoresca torre vieja?
Luego, durante media hora, hablaba de su historia. Luego intentaría
que la conversación volviera a la ciencia y pasaría lo mismo".
Otro año más, Chapman fue el invitado de Alfven en Suecia. En
lugar de una gira por Estocolmo, Alfven había preparado
cuidadosamente una réplica moderna del experimento de la esfera
magnética de Birkeland. Tal vez Chapman, al ver las corrientes "en
la carne", al menos discutiría por qué creía que no podían existir en
el espacio: "Pero se negó rotundamente a bajar al sótano y verlas",
recuerda Alfven, "¡Estaba por debajo de su dignidad como
matemático mirar un aparato de laboratorio!
Dada la posición dominante de Chapman en el campo, era inevitable
que Alfven tuviera una batalla cuesta arriba. Como señala Charles
Kennel, profesor de física de la UCLA, su estilo científico añadió al
problema: "El método de trabajo de Alfven atrajo la controversia.
Imagina ideas radicalmente nuevas sin tener que trabajar siempre en
la física detallada. Desde entonces, anuncia sus conclusiones a la
comunidad científica de una manera contundente, muchos individuos
que encuentran sus concepciones de mascotas desafiadas son
antagónicos, e inicialmente, puede haber buenas razones científicas
para desafiar a Alfven. Sin embargo, al final, Alfven ha demostrado
tener razón en grandes temas suficientes veces como para creer que
uno ignora lo que Alfven piensa bajo su propio riesgo".
Como muchos pensadores originales, Alfven enfatiza los nuevos
conceptos sobre el establecimiento de la certeza de los detalles
exactos. Como resultado, los detalles de sus ideas iniciales a menudo
resultan ser erróneos. Por ejemplo, muchos de los detalles de la
teoría de la aurora de Alfven resultaron ser erróneos más tarde,
aunque los contornos generales son completamente correctos. Pero
debido a que sus conceptos se basan en fenómenos bien estudiados
en el laboratorio, no en construcciones matemáticas arbitrarias,
confía en que puede extrapolar teorías bien probadas a escalas
mucho mayores de objetos astrofísicos. Las características más
importantes, tanto cualitativas como cuantitativas, de los fenómenos
observados se comparan con las predicciones del modelo. Si se
corresponden bien y si el modelo parece ser físicamente razonable -
en concordancia con lo que se ve en el laboratorio-, entonces
probablemente está lo suficientemente cerca como para justificar su
publicación. Incluso si hay muchos cabos sueltos, el modelo señalará
la investigación en la dirección correcta. En la mayoría de los casos,
los detalles se elaboran a lo largo de décadas, ya sea por otros o por
Alfven a medida que regresa repetidamente a un problema.
El enfoque es, por tanto, el opuesto diametral a la deducción, que
simplifica la física de un problema hasta que puede ser tratado con
todo detalle con rigor y exactitud matemáticos. Para Alfven es el
proceso físico, no la descripción matemática, lo que es primario.
Como resultado de su enfoque, y debido a que sus ideas están a
menudo muy por delante de la sabiduría convencional, han
transcurrido décadas entre la formulación y la aceptación de sus
ideas. Para cuando se confirman, la mayoría de los científicos han
olvidado de quién eran las ideas que tenían en primer lugar, y el
propio Alfven se ha trasladado a otros problemas. Este es el caso de
los campos magnéticos galácticos y la aceleración electromagnética
de los rayos cósmicos. Esta última fue reformulada una década
después de la ponencia de Alfven por Enrico Fermi, y desde entonces
se la conoce como el proceso Fermi.

■ EN EL SISTEMA SOLAR

Durante la Segunda Guerra Mundial, mucho antes de que se hubieran


resuelto las discusiones con Chapman, Alfven se estaba moviendo a
escalas mayores, aplicando las nociones de generadores cósmicos y
corrientes cósmicas. Su trabajo sobre la aurora lo llevó de vuelta al
sol mismo, la fuente última de la aurora boreal. También es propenso
a tormentas espectaculares, que empequeñecen a toda la tierra en
tamaño, con manchas solares y prominencias que se elevan cientos
de miles de millas por encima de la superficie solar (Fig. 5.7). En
artículos publicados en 1940 y 1941, Alfven planteó la hipótesis de
que las manchas solares, cuya rotación en forma de remolino se
conocía desde hacía mucho tiempo, pueden actuar como
generadores, produciendo potentes campos eléctricos a medida que
giran en el campo magnético del sol. Aceleradas por estos campos,
las corrientes eléctricas se disparan a lo largo de las líneas de campo
magnético del sol, calentando los iones en la atmósfera del sol y
haciéndolos brillar brillantemente, casi como una aurora solar.
Fig. 5.7 Una prominencia que surge de la superficie del sol. Alfven explicó la
creación de la prominencia a través de la generación de corrientes eléctricas en
las manchas solares: las partículas aceleradas se aceleran a lo largo de las líneas
del campo magnético del sol, creando las prominencias brillantes.

Desde el sol fue un paso más hacia todo el sistema solar. Uno de los
grandes rompecabezas del origen del sistema solar es por qué el sol
tiene tan poco giro o momento angular. Desde Laplace, la mayoría de
los científicos habían pensado que el sol y los planetas se habían
condensado a partir de una sola nebulosa o nube de gas. Pero había
una dificultad: Para cualquier objeto aislado, el momento angular
total (producto del radio, la velocidad y la masa) es constante, de
modo que a medida que el radio se reduce, la velocidad aumenta. Así
que a medida que esta nebulosa se contrajo, habría girado más
rápido.
Dada la masa y órbita conocidas de cada planeta y del sol, y la
velocidad de rotación del sol, es sencillo calcular el momento
angular del sistema solar y qué objetos en él tienen el momento más
angular alrededor del centro del sol, y la respuesta es desconcertante.
Si el sol hubiera retenido el momento angular de todo el sistema,
ahora giraría una vez cada trece horas más o menos, tan rápido como
un planeta típico. Pero toma cincuenta veces más tiempo,
aproximadamente veintiocho días. El sol tiene sólo el 2 por ciento
del momento angular total del sistema solar, mientras que Júpiter,
con sólo una milésima parte de la masa, tiene el 70 por ciento;
Saturno tiene casi todo el resto, alrededor del 27 por ciento. De
alguna manera, una enorme cantidad de momento angular fue
transferida del sol a los planetas, especialmente a los planetas
gigantes.
Incluso el sistema solar en su conjunto parece tener muy poco
momento angular. Presumiblemente se contrajo de una nube de
aproximadamente un año luz de radio, aproximadamente la distancia
entre las estrellas. Incluso si la nube hubiera completado una rotación
a la misma velocidad que la galaxia (aproximadamente una vez cada
cuatrocientos millones de años) habría tenido setecientas veces el
momento angular del sistema solar en la actualidad. Tal nube no
habría formado una estrella si hubiera retenido su momento angular:
a medida que se contraía habría girado más y más rápido hasta que
dejara de contraerse en un radio de veinte mil millones de kilómetros
más o menos. Incluso si, en el proceso de contracción, la estrella
central hubiera retenido sólo el 2 por ciento de este momento
angular, habría dejado de contraerse a un tamaño aproximado de diez
millones de kilómetros -más de una docena de veces el tamaño del
sol, y demasiado grande para una estrella. Su gas sería demasiado
frío y difuso para quemar hidrógeno en helio. En resumen, para que
el sistema solar se forme, debe haber perdido alrededor del 99,9 por
ciento del momento angular inicial, y transferido el 98 por ciento del
resto a los planetas. ¿Cómo pudo pasar esto?
Alfven creía que las corrientes eléctricas creadas por el campo
magnético de una protoestrella podían hacer el truco. Supongamos
que un cuerpo magnetizado giratorio está rodeado por nubes de
plasma que no giran tan rápidamente (Fig. 5.8). El campo magnético
rotará con el cuerpo central, barriendo a través de las nubes y
generando una corriente eléctrica dentro de ellas. Esta corriente
eléctrica, al estar en un campo magnético, ejercerá una fuerza que
hará que la nube se mueva en la dirección del campo magnético
giratorio. Como las aspas de un gigantesco ventilador, el campo
magnético transfiere el momento angular del cuerpo central a las
nubes. El circuito resultante será una corriente gigantesca que
transportará billones de amperios, fluyendo a lo largo de las líneas
del campo magnético solar, a través de la nube y de vuelta al sol en
su ecuador. Así como la corriente que fluye hacia la nube acelerará
su rotación, la corriente que fluye hacia el sol ralentizará su rotación.
De esta manera, la mayor parte del momento angular de la nube
protosolar puede ser transferido ya sea al plasma circundante, que
será lanzado hacia afuera, o al campo magnético mismo, mientras
que gran parte del resto será transferido a los planetas a medida que
se forman a partir de nubes de plasma más pequeñas y más densas.

Fig. 5.8 Alfven explicó la transferencia del momento angular del sol a los
planetas a través de un sistema actual. Las nubes de plasma que se mueven en el
campo magnético del sol generan una corriente eléctrica que fluye hacia el sol.
La interacción de esta corriente y el campo magnético produce una fuerza en la
nube que la acelera. La corriente regresa al sol, donde su interacción con el
propio campo magnético del sol ralentiza su rotación. De esta manera el sol
pierde suficiente momento angular para contraerse en una estrella.

■ EL PLASMA VA A LA GUERRA

Trabajando en la Suecia neutral, Alfven continuó su trabajo


astrofísico mientras que los científicos en la mayoría de los otros
países se concentraron en la investigación de la guerra. El desarrollo
del radar en tiempos de guerra llevó a una gran expansión y
aplicación de la física del plasma. Los dispositivos desarrollados
para producir ondas de radar -el klystron y el magnetrón- se basaron
en la teoría del plasma para su diseño. Y la guerra pronto se hizo
sentir en el laboratorio de Alfven en la persona de un científico
noruego, Nicolai Herlofson, un estudiante del principal discípulo de
Birkeland. Herlofson había estado continuando la aplicación de la
física del plasma de laboratorio en Birkeland a problemas
cosmológicos, pero después de la conquista nazi de Noruega, había
convertido su talento técnico a los problemas más inmediatos de la
resistencia noruega, comprando armas y llevando inteligencia
microfotografiada a través de la frontera sueco-noruega. Un día, la
Gestapo llamó a su puerta y salió por la ventana: "Afortunadamente,
corrió rápido, así que se escapó y pronto apareció en nuestro
laboratorio en Suecia", recuerda Alfven.
Herlofson contribuyó sustancialmente al trabajo de plasma sueco,
llegando a ser director del Laboratorio de Física del Plasma del
Instituto Real de Tecnología, donde Alfven trabajó:"Muchas de mis
mejores ideas surgieron de conversaciones con Herlofson", dice
Alfven,"pero es un hombre tan modesto que rara vez permite que su
nombre aparezca en los papeles a los que ha contribuido".
Herlofson pronto partió hacia Inglaterra, donde se unió al
Establecimiento Meteorológico Central. Pero en 1946 utilizó la física
del plasma para resolver un misterio que había quedado de la guerra.
Durante los ataques del V-2 en 1944 y 1945, Gran Bretaña se apoyó
en los radares para avisar unos minutos de la llegada de los cohetes.
Muchas veces el radar producía falsas alarmas, detectando sólo ecos.
El Dr. J. S. Hey, de los grupos de investigación de Operaciones del
Ejército, adivinó que de alguna manera los meteoritos estaban
causando las falsas alarmas. Sin embargo, ¿cómo podrían los
pequeños meteoritos imitar a los grandes cohetes alemanes?
Poco después del fin de la guerra, Herlofson se enteró del misterio y
desarrolló una teoría: los meteoritos, demasiado pequeños para
producir un eco de radar, dejaron finas huellas de plasma a su paso
por la atmósfera. Las ondas de radar, calculó Herlofson, harían
resonar el plasma, de la misma manera que la nota alta de un
cantante hace resonar al cristal. Fue esta resonancia de plasma la que
produjo un eco enorme como el de los cohetes alemanes.
El trabajo de Herlofson mostró en la práctica que las ondas de radio
indican algo sobre plasmas distantes. En el curso de la guerra, el
enorme aumento de la tecnología de radio provocada por el uso del
radar había proporcionado a los astrónomos una nueva herramienta
para estudiar el plasma en el espacio: el radiotelescopio. Antes de la
guerra, los ingenieros estadounidenses Karl Jansky y Grote Reber
habían descubierto que algunos objetos celestes, incluido el sol, son
fuentes potentes de ondas de radio. La investigación militar con
radares permitió el tremendo desarrollo del radiotelescopio, una gran
antena diseñada para estudiar estas fuentes. Para Alfven y Herlofson,
las misteriosas ondas de radio del espacio eran señales de plasma
distante, al igual que las reflexiones de radar mejoradas de los rastros
de los meteoritos.
En 1950 los dos científicos propusieron que las señales de radio son
producidas por electrones energéticos atrapados en campos
magnéticos. Cualquier electrón, acelerado por las fuerzas de los
campos magnéticos, irradia ondas electromagnéticas. Pero a medida
que las partículas energéticas viajan cerca de la velocidad de la luz,
la frecuencia de la radiación cambia, aumentando como el cuadrado
de la energía. Por lo tanto, las poderosas señales de alta frecuencia
provenientes de fuentes como la nebulosa del Cangrejo implicaban la
existencia de fuertes campos magnéticos y electrones acelerados en
el espacio interestelar. Ahora el plasma podría ser estudiado mucho
más allá del sistema solar, hasta los confines del universo.
La guerra tuvo un segundo y profundo impacto en los estudios de
plasma, uno que fortaleció enormemente los vínculos entre el
espacio y los estudios de laboratorio. El desarrollo de la bomba
atómica había llevado a científicos como Edward Teller a abogar por
armas aún más poderosas en las que el calor generado por la fisión
de una bomba atómica se utilizara para fusionar núcleos de
hidrógeno con helio, como lo hace el sol en su núcleo. Otros
científicos, asqueados por esas armas de destrucción masiva, se
preguntaban cómo se podría aprovechar esa misma energía, la fusión
nuclear, para la producción pacífica de energía barata y abundante.
La fusión utiliza combustibles que son abundantes en la naturaleza y
producen mucha menos radioactividad que los reactores de fisión
que la Marina de los Estados Unidos estaba desarrollando para
conducir sus submarinos. Pero para lograr la fusión, se necesitan
temperaturas de cien millones de grados, que ningún contenedor
físico puede soportar. Lo único que podía contener un plasma tan
caliente era un campo magnético.
Durante décadas los científicos han sabido que si una corriente alta
se descarga a través de un plasma, los campos magnéticos creados
pellizcan la corriente y el plasma juntos (un proceso descrito en el
Capítulo Uno). A principios de los años cincuenta, los científicos de
Estados Unidos, Inglaterra y la Unión Soviética, trabajando en
secreto, demostraron que el plasma superhot puede ser creado y
confinado con tales pellizcos. Pero el plasma resultó ser
extraordinariamente torpe. En lugar de pellizcarse suavemente a altas
temperaturas y permanecer estable mientras se producía la fusión, se
dobló y se inclinó como un bronco salvaje. Los científicos de la
fusión necesitaban desesperadamente una forma de controlar el
plasma rebelde.
Alfven proporcionó la teoría. En 1950 había recopilado gran parte de
su trabajo inédito de la última década en un libro de texto innovador,
Cosmic Electrodynamics. Abarcando una amplia gama de problemas
y fenómenos, se volvería extremadamente influyente, a veces de
maneras bastante sorprendentes. El libro proporcionó por primera
vez un análisis teórico detallado de cómo las descargas eléctricas se
constriñen a través de sus propios campos magnéticos. Aplica este
análisis a dos problemas cósmicos en los que había trabajado durante
mucho tiempo: la aurora y las prominencias solares. Aquí Alfven
muestra que la estructura filamentosa de ambos puede ser explicada
en detalle por el efecto de pellizco.
Alfven demuestra que los problemas de la fusión en el laboratorio y
las prominencias en el espacio están estrechamente relacionados. De
las leyes de Maxwell deriva reglas con las que un investigador puede
desarrollar modelos de laboratorio a pequeña escala de procesos
astrofísicos a gran escala. También analiza cómo se pueden utilizar
estos procesos para predecir el comportamiento del plasma en el
laboratorio.
Encontró que ciertas variables clave no cambian con la escala: la
resistencia eléctrica, la velocidad y la energía permanecieron iguales.
Otras cantidades cambian: por ejemplo, el tiempo se escala como
tamaño, de modo que si un proceso es un millón de veces más
pequeño, ocurre un millón de veces más rápido. Así, los procesos
majestuosos del cosmos, que van desde auroras que duran horas
hasta prominencias que duran días o galaxias que duran miles de
millones de años, pueden ser modelados en el laboratorio mediante
descargas rápidas que duran millonésimas de segundo. Cuando las
densidades de los objetos astronómicos se reducen a proporciones de
laboratorio, sus densidades se convierten en las de los gases
ordinarios (Tabla 5.1).
Igualmente importante, sin embargo, es el uso inverso de estas reglas
de escalado. Cuando los campos magnéticos y las corrientes de estos
objetos se reducen, se vuelven increíblemente intensos: millones de
gauss, millones de amperios, mucho más allá de los niveles
alcanzables en el laboratorio. Sin embargo, al estudiar los fenómenos
cósmicos, muestra Alfven, los científicos pueden aprender sobre
cómo funcionarán los dispositivos de fusión más poderosos que los
que existen en la actualidad. De hecho, podrían aprender a diseñar
tales dispositivos a partir de las lecciones en los cielos.
En 1956, los científicos de la fusión, todavía en secreto, se reunían
en las conferencias internacionales de electrodinamistas cósmicos.
Ese año, Alfven fue anfitrión del Simposio Internacional de la Unión
Astronómica sobre Fenómenos Electromagnéticos en Física Cósmica
en Estocolmo. Un investigador, Winston Bostick del Stevens
Institute of Technology en Hoboken, Nueva Jersey, reportó justo el
tipo de modelado de laboratorio que Alfven había descrito. Bostick
descubrió que los diminutos plasmas disparados a alta velocidad uno
hacia el otro pellizcan y se retuercen en las elegantes formas de las
galaxias espirales.

LA RED ELÉCTRICA CÓSMICA

A medida que el trabajo de fusión crecía, los investigadores de la


fusión recurrían cada vez más al libro de texto de Alfven en busca de
orientación en sus esfuerzos por controlar el plasma pellizcado. El
mismo Alfven, dividiendo su tiempo entre la investigación
tecnológica y la cósmica, avanzó rápidamente en su comprensión del
proceso de filamentación. Ya contaba con la ayuda de colegas como
Carl Gunne Falthammar, veinte años menor que él, que estaban
mucho más dispuestos a profundizar en los detalles matemáticos de
los fenómenos estudiados. Además, los resultados experimentales de
los experimentos de pellizco de fusión le estaban dando ahora los
datos necesarios para inspirar y comprobar el trabajo teórico
posterior.
En la reedición de Cosmic Electrodynamics, escrita con Falthammar
en 1963, Alfven da a la filamentación un papel central en la
producción de homogeneidades en el plasma, a escalas que van
desde el laboratorio hasta las nebulosas estelares -las vastas nubes de
gas brillante que rodean a muchos cúmulos de estrellas en una
galaxia. Cuando una corriente fluye a través de un plasma, muestra
Alfven, debe asumir la forma de un filamento para poder moverse a
lo largo de las líneas de campo magnético. El flujo de electrones se
vuelve así libre de fuerzas: al moverse exactamente a lo largo de las
líneas de un campo magnético, ninguna fuerza magnética actúa sobre
ellos. En un filamento libre de fuerza, los electrones, en efecto,
cooperan para minimizar la dificultad de flujo. Los que están a lo
largo del centro del filamento fluyen en líneas rectas, produciendo un
campo magnético en espiral por el que pueden fluir los electrones
externos. Los electrones externos, a su vez, que fluyen en espirales
alrededor del borde del filamento, producen las líneas rectas del
campo magnético en el eje a lo largo del cual fluyen los electrones
internos. Juntos, los electrones se mueven en un complejo patrón de
trayectorias helicoidales con un paso cada vez más pronunciado a
medida que se acercan al eje del filamento (Fig. 5.9).

ver Tabla p.194

Alfven descubrió leyes de escala que relacionan los fenómenos


plasmáticos a diferentes escalas. Estos permiten utilizar el plasma de
laboratorio como modelo para el plasma astronómico y viceversa. Lo
que es más sorprendente es que cuando el plasma espacial se reduce
al tamaño de un laboratorio, su densidad es comparable a la del
plasma de laboratorio. Sus campos y corrientes magnéticas y la
duración de los procesos son comparables, aunque en algunos casos
las corrientes y los campos magnéticos son de diez a cien veces
mayores que lo que se ha logrado en el laboratorio, y por lo tanto
podrían servir como modelos para futuros experimentos. En esta
tabla, modificada a partir de la obra original de Alfven, las
características de varios plasmas se escalan a un tamaño único de
diez centímetros. Tenga en cuenta que, teniendo en cuenta esta
escala, la evolución intergaláctica a lo largo de miles de millones de
años debe ser vista como eventos transitorios, que no duran en el
laboratorio más de una millonésima de segundo, sólo la duración de
una descarga plasmática típica.

En la nueva visión de Alfven, la falta de homogeneidad -producida


por la formación de corrientes filamentosas- es una propiedad casi
inevitable de los plasmas, y por lo tanto del universo en su conjunto.
El universo, por lo tanto, forma una gigantesca red de energía, con
enormes corrientes eléctricas que fluyen a lo largo de "alambres"
filamentosos que se extienden a través del cosmos.

Fig. 5.9. Un filamento sin fuerza. La corriente eléctrica y el plasma fluyen a lo


largo de líneas de campo magnético helicoidal que son más rectas hacia el
centro.

No sólo la corriente y el campo magnético se concentran en los


filamentos en espiral, sino que el plasma mismo es pellizcado por los
campos magnéticos, aspirado por un tornado electromagnético.
El descubrimiento de la forma helicoidal sin fuerza de los filamentos
fue doblemente significativo. Por otra parte, ofrece un método
inconfundible para identificar los filamentos si se observa su forma
peculiar. Por otro lado, sus formas helicoidales muestran que los
filamentos de pellizco no son simplemente "alambres" que
transportan corrientes en una dirección, sino que son vórtices de
corriente, torbellinos de plasma.
Los filamentos no se forman simplemente al ser juntados, sino que
en realidad se retuercen juntos. A medida que cada corriente
pequeña, moviéndose a lo largo de las líneas del campo de fondo,
trata de moverse a través de las líneas del campo hacia su vecino, es
arrastrada en una espiral, donde aporta su energía al patrón más
grande del filamento, de la misma manera que los mechones de
algodón son hilados juntos y retorcidos en un solo hilo.
Este entendimiento debía resultar crítico en el estudio del
comportamiento de los filamentos y su papel en el universo.

■ ERUPCIONES SOLARES Y EL PROBLEMA ENERGÉTICO EN


SUECIA

Al formar las estructuras filamentosas observadas en las escalas más


pequeñas y más grandes, la materia y la energía pueden ser
comprimidas en el espacio. Pero está claro que la energía también
puede ser comprimida en el tiempo: el universo está lleno de
liberaciones repentinas y explosivas de energía. Un ejemplo con el
que Alfven estaba familiarizado es la llamarada solar, la liberación
repentina de energía en la superficie del sol, que genera los flujos de
partículas que producen tormentas magnéticas en la tierra. Sus
modelos "generadores" de fenómenos cósmicos mostraban cómo se
puede producir energía gradualmente, como en una central de buen
comportamiento, pero no de forma explosiva, como en las bengalas.
Comprender la liberación explosiva de energía fue la clave de la
dinámica del cosmos.
Una vez más, Alfven y sus colegas se inspiraron no en la teoría
matemática, sino en su trabajo práctico en tecnología. A finales de
los años cincuenta, Alfven y otros miembros del Royal Institute
habían sido llamados por la compañía eléctrica sueca ASEA para
resolver un problema urgente. La mayor parte del suministro
eléctrico de Suecia es generado por energía hidroeléctrica en el norte
del país, y luego se transmite a más de seiscientas millas hacia el sur
industrial. ASEA descubrió que era más barato transformar la
corriente alterna en corriente continua para su transmisión con
grandes rectificadores de mercurio. Un rectificador permite que una
corriente pase en una sola dirección, reteniéndola durante la otra
mitad del ciclo, produciendo así CC. Pero de vez en cuando un
rectificador explotaba, causando daños considerables.
Herlofson y Alfven fueron consultados porque el mecanismo
rectificador, que consiste en una celda de vapor de mercurio de baja
presión, emplea un plasma que transporta corriente. El equipo del
Instituto Real localizó rápidamente el problema: la presión del vapor
de mercurio en los rectificadores era demasiado baja. Como
resultado, a altas corrientes casi todos los electrones llevaban el flujo
eléctrico, creando una situación inestable en la que el plasma
comenzaba a salpicarse dentro del rectificador.
A baja corriente, este chapoteo no era grave. Si se amontonaran
demasiados iones (las cargas positivas) en un lado, los electrones
serían atraídos hacia ellos, neutralizándolos. Pero en la alta corriente
pasó algo más. Si los iones se derramaran accidentalmente fuera de
una región, los electrones de la corriente se precipitarían hacia los
iones con tal ímpetu que su colisión empujaría a los iones más lejos
de la región. Esto aceleró más los electrones, y así sucesivamente.
Sin embargo, unos pocos iones se romperían y acelerarían hacia los
electrones del otro lado, empujando a la mayoría de ellos hacia atrás.
Un desgarro cada vez mayor en el plasma se abriría, con los
electrones agrupándose en un lado y los iones en el otro. A medida
que la brecha se ensanchaba, menos electrones podían pasar, por lo
que la corriente (el número de electrones que pasaban por un punto
por segundo) se reducía. Esto es como desconectar repentinamente
un aparato. La caída de la corriente produce una caída repentina en el
campo magnético creado por la corriente, y el campo magnético
cambiante crea una fuerza eléctrica poderosa que acelera aún más los
electrones. En el caso de un aparato desenchufado, el voltaje se
vuelve lo suficientemente alto como para hacer que una chispa salte
desde el enchufe hasta la bujía. En el caso del rectificador, el voltaje
se acumula hasta que los electrones calientan tanto el plasma del
rectificador que se produce una explosión, y las chispas gigantescas
saltan por el aire de la estación. La energía se libera repentinamente,
creando el daño explosivo.
El fenómeno Herlofson, Alfven, y sus colegas explicaron que se
llama una explosión de doble capa. Desde los años veinte se han
observado brechas de doble capa -cargadas de plasma-, pero esta fue
la primera vez que se demostró que pueden ser la fuente de una
liberación de energía explosiva. Además, una doble capa explosiva
permite que la energía generada durante un período de tiempo y a
través de un espacio extendido sea liberada repentinamente en un
espacio pequeño - una gigantesca compresión de potencia. La
energía de la explosión del rectificador había sido generada en el
norte de Suecia por una dinamo giratoria y almacenada en los
campos magnéticos de varios cientos de kilómetros de línea de
transmisión. En efecto, este campo magnético es el momento
almacenado de todos los electrones de la corriente, no sólo los pocos
presentes en el rectificador. El fenómeno es intrínsecamente no local
y puede ser entendido sólo considerando el rectificador como parte
de un circuito enorme.
Esto dio una idea vital a dos de los colegas de Alfven, Carl Jacobsen
y Per Carlqvist. Alven había explicado las prominencias solares
como corrientes filamentosas y constrictivas, generadas por el
movimiento de un vórtice en la atmósfera del sol. A veces las
prominencias son precedidas por, y obviamente conectadas con, las
misteriosas erupciones solares - explosiones que pueden durar tan
poco como unos pocos segundos pero que pueden liberar hasta 1034
ergs en una región no más grande que la tierra. (A modo de
comparación, el propio sol libera esta cantidad de energía en diez
segundos; es suficiente para hervir todos los océanos de la tierra.
Carlqvist y Jacobsen razonaron que las corrientes filamentosas en
una prominencia, generadas lenta y gradualmente, podrían
desarrollar dobles capas explosivas en algún punto de su camino. En
ese caso, al igual que con el rectificador, la energía generada durante
días y esparcida por un vasto circuito sería liberada en un área
pequeña en segundos. A través de la acción del campo magnético, la
energía podía ser concentrada a la velocidad de la luz y liberada casi
tan repentinamente.
Así, los eventos explosivos en el universo podrían explicarse no sólo
mirando dónde ocurrieron, sino viéndolos como parte de un proceso
global, parte de una red de energía cósmica, cuyos circuitos estaban
definidos por las corrientes filamentosas.

LA BELLEZA MATEMÁTICA LEVANTA LA CABEZA

A mediados de los años sesenta, Alfven y sus colegas del Instituto


Real de Tecnología habían creado una imagen de los procesos de
plasma del sistema solar. El modelo era inhomogéneo, con corrientes
concentradas en filamentos, y global, las corrientes que llevan la
energía generada en un lugar a otro a millones de kilómetros de
distancia. Al igual que con la tecnología terrestre, la energía generada
en vastas regiones y largos períodos podría ser liberada de manera
explosiva en un espacio minúsculo.
Este sistema solar era un lugar dinámico y complejo, y todo menos
matemáticamente elegante. Las complejidades de los filamentos y de
las capas dobles sólo se entendían parcialmente y sólo podían
cuantificarse de forma aproximada. Sin embargo, su modelo
correspondía en su desarrollo general tanto a experimentos en el
laboratorio como a observaciones del espacio.
Desgraciadamente, en 1965 este modelo seguía siendo una visión de
un solo grupo de colaboradores. Fue rechazada casi unánimemente
por otros científicos cuyo estudio del sistema solar todavía estaba
dominado por modelos matemáticamente elegantes y puros.
Irónicamente, para entonces sus creencias no sólo se derivaban de la
obra todavía influyente de Chapman, sino también de algunos de los
propios conceptos de Alfven: Alfven se vio obligado a luchar con los
fantasmas de sus propias teorías. Pero al igual que con la continua
batalla con Chapman, el problema subyacente era el mismo: la
precisión física y de observación frente al rigor matemático y la
elegancia, el método empírico frente al método deductivo.
Para entender esta fase del desarrollo de la teoría del plasma tenemos
que volver a la obra de Alfven de 1943. Mientras continuaba sus
estudios de los fenómenos solares, especialmente las manchas
solares, se había dado cuenta de que el plasma soporta las ondas, no
las ondas de sonido o de luz, sino las ondas de campos magnéticos
cambiantes, ondas que él llamaba ondas magnetohidrodinámicas,
ondas MHD para abreviar. Como sus otras ideas, esto también
contradecía la sabiduría convencional. Los científicos habían creído
durante mucho tiempo que las ondas electromagnéticas no pueden
penetrar un buen conductor, como un metal o plasma. (Esta es la
razón por la que no puede recibir señales de radio cuando su coche
pasa por debajo de un puente metálico.) Los conductores
cortocircuitan los campos eléctricos: los electrones se mueven tan
libremente que cancelan los campos eléctricos cambiantes de la
onda: no hay campo eléctrico, no hay onda electromagnética.
Pero Alfven había demostrado que las ondas pueden formarse en un
plasma cuando los campos magnéticos y el plasma se mueven juntos.
En un medio perfectamente conductor, y por lo tanto sin campo
eléctrico, las líneas magnéticas imaginarias de fuerza se visualizarían
tan móviles como lo hacía el plasma: las líneas de fuerza están, en
los términos de Alfven, "congeladas" en el plasma. La lógica es
simple: cualquier movimiento del plasma a través de las líneas de
campo generaría un campo eléctrico, pero un conductor perfecto no
permitiría tal campo. Así que cuando el plasma se mueve, las líneas
de campo magnético también deben "moverse". Así, las ondas en el
plasma crearían ondas de dirección del campo magnético.
En los años cincuenta, la realidad de las ondas MHD, u "ondas
Alfven", como ahora se denominan universalmente, fue llevada a
casa por la fuerza a los científicos del plasma que trabajan para
domar la fusión termonuclear. Como ya hemos mencionado, los
científicos de la fusión esperaban que los pellizcos pudieran
exprimir, calentar y confinar un plasma el tiempo suficiente para que
ocurriera la fusión. Pero a finales de los años cincuenta, las cosas
iban mal: cada vez que se exprimía el plasma se volvía inestable,
pellizcándose en una sarta de salchichas, o retorciéndose y
lanzándose contra las paredes de su contenedor. Los científicos de la
fusión aprendieron rápidamente que esto resulta de las ondas de
Alfven: son inestabilidades de MHD. Para domarlos, los
investigadores recurrieron a los modelos de Alfven de líneas de
campo onduladas y congeladas; al hacerlo encontraron que las
teorías MHD producen formas matemáticas muy elegantes y se
aplican a una amplia variedad de nuevos dispositivos, entre los que
destaca el tokamak, el dispositivo de plasma inventado por los
soviéticos para producir fusión.
El entusiasmo por la teoría MHD se extendió rápidamente a medida
que los satélites sondeaban más profundamente en el espacio, pues se
hizo evidente que el espacio "vacío" de Chapman -incapaz de llevar
corriente debido a su infinita resistencia- ya no era sostenible. Pero
una matemática casi tan elegante como la de Chapman podría
derivarse de la infinita conductividad -resistencia cero- asumida por
la teoría MHD. Así, casi sin transición, el modelo dominante de
espacio pasó de un aislamiento perfecto a una conductividad
perfecta. En cualquier caso, los cielos seguían siendo perfectos.
Demasiado perfectos.
Esta conductividad perfecta y los campos magnéticos congelados
descartaron completamente todo el trabajo de Alfven después de
1943: en tal plasma no puede haber campos eléctricos, ni corriente
alineada con las líneas de campo magnético, ni generación de energía
eléctrica; todo esto requiere una resistencia finita y un flujo de
plasma que pase los campos magnéticos. En el modelo MHD
perfectamente conductivo, la energía se disiparía instantáneamente,
no se podría acumular voltaje; sería como una central eléctrica sin
aisladores, no se puede hacer. El plasma MHD infinitamente
conductor nunca desarrollaría inhomogeneidades, sino que sería un
plasma perfectamente liso, dominado por efectos locales, en el que
ninguna estructura a gran escala podría transmitir potencia a grandes
distancias.
Una vez más, toda la charla de Alfven sobre filamentos, corrientes y
dobles capas fue rechazada como imposible en un plasma
infinitamente conductor, tal como lo había sido con el plasma
perfectamente no conductor de Chapman. El hecho de que el modelo
de MHD en sí es de Alfven fue poco a poco oscurecido a medida que
los físicos llegaron a confiar en nuevos libros de texto de astrofísicos
como Lyman Spitzer y S. Chandrasekhar.
Alfven se enfrentó así a su propio fantasma. Era consciente del
conflicto entre sus primeros modelos de MHD y su trabajo posterior,
incluso en 1950, cuando otro científico, T. G. Cowling, señaló que el
plasma espacial debería estar conduciendo casi perfectamente.
Alfven sabía que no era así, por el comportamiento del plasma, pero
no estaba seguro de por qué: "Me dio mucho dolor de cabeza",
confesó más tarde.
A lo largo de los años, sin embargo, comenzó a señalar que el
modelo de MHD que había desarrollado, como cualquier teoría
matemática, es sólo una aproximación, aplicable a situaciones
específicas, y por lo tanto tiene límites muy reales - y, como toda
fórmula matemática, no es una ley universalmente aplicable. Existen
barreras reales que impiden que el plasma espacial alcance una
conductividad infinita: los campos magnéticos creados por las
propias corrientes.
Ya en 1939 Alfven descubrió los límites de la cantidad de corriente
que un plasma puede transportar. En sus estudios de los rayos
cósmicos imaginó lo que pasaría si se formara una gran corriente de
rayos cósmicos, viajando con altas energías. A medida que la
corriente crecía, también lo hacía el campo magnético circular que
formaba, haciendo que los electrones o iones giraran a su alrededor.
Sus caminos se enredarían en él, impidiendo un mayor crecimiento
de la corriente (Fig. 5.10).
Para las partículas que viajan cerca de la velocidad de la luz, la
relatividad restringida muestra que a medida que su energía aumenta,
también lo hace su masa aparente. Estas partículas más masivas son
dobladas con menos fuerza por el campo magnético, y así mantienen
corrientes más altas. Por lo tanto, al igual que con un circuito
ordinario en la tierra, cuanto mayor sea la energía o el voltaje de la
partícula, mayor será la corriente máxima. Esta relación puede
expresarse como una resistencia de unos treinta ohmios. (La
resistencia es el voltaje dividido por la corriente. En comparación, la
resistencia de una bombilla de cien vatios es de 120 ohmios.) Así,
para los haces concentrados de partículas en el espacio, el plasma
cósmico no es ni puramente conductor ni puramente aislante -tiene
una resistencia muy terrenal.
Fig. 5.10 En los años treinta, Alfven calculó que las corrientes por encima de un
cierto valor no podían ser fácilmente transportadas por el plasma. A medida que
aumenta el campo magnético producido por la corriente (líneas que van de a a
e), los electrones se enredan más en el campo, hasta que ya no pueden seguir
adelante. Más tarde los científicos descubrieron que los electrones en los
filamentos libres de fuerza no están tan limitados.

Más tarde, en los años cincuenta, Alfven señaló restricciones menos


específicas sobre las corrientes, debido a la naturaleza esencialmente
transitoria de la mayoría de los fenómenos celestiales. Incluso las
corrientes muy por debajo del máximo (la "corriente de Alfven")
requieren una cantidad significativa de tiempo para acumularse: hay
que verter energía en la creación de un campo magnético, de la
misma manera que cuando se desconecta repentinamente una
corriente, la energía fluye desde el campo magnético hacia la propia
corriente. Estos efectos inductivos, bien conocidos en la ingeniería
eléctrica, son particularmente importantes en las descargas eléctricas
rápidas y localizadas, como las erupciones solares. Este drenaje de
energía actúa como una resistencia, impidiendo de nuevo el libre
flujo de electrones. Finalmente, Alfven, mientras trabajaba con
Falthammar en la electrodinámica cósmica revisada a principios de
los años sesenta, se dio cuenta de que incluso para fenómenos
plasmáticos de relativamente largo plazo, la resistencia del plasma
puede ser significativa bajo ciertas condiciones. La mayoría de los
plasmas en el espacio, encontró, son tan difusos que los electrones y
los iones giran en espiral alrededor de las líneas de campo magnético
sin chocar entre sí. En consecuencia, es extremadamente difícil para
los electrones o iones moverse perpendicularmente a la dirección del
campo magnético, por lo que en esa dirección existe, de hecho, una
fuerte resistencia. Por lo tanto, a medida que el plasma se mueve
lentamente más allá de los campos magnéticos, se generan campos
eléctricos significativos y no se producen cortocircuitos.
Igualmente importante, incluso a lo largo de las líneas de fuerza,
pueden desarrollarse dobles capas, introduciendo una enorme
resistencia en un circuito; el aumento de voltaje que resulta puede
producir liberaciones de energía explosivas.
Debido a que el plasma tiene una resistencia efectiva, las líneas de
campo no se pueden"congelar", ya que cuanto más fuerte es la
resistencia, más rápido puede deslizarse un plasma por las líneas de
campo: una resistencia de aproximadamente una décima parte de un
ohmio produce velocidades de deslizamiento de hasta 1.000
km/segundo, tan altas como las velocidades en el espacio
generalmente se consiguen.
Como resultado de estos diversos efectos, la teoría MHD se aplica
sólo a plasmas muy densos, como aquellos dentro de una estrella -
donde, vale la pena notar, la teoría MHD había sido aplicada
originalmente. Para la mayoría de los plasmas, el esquema congelado
de Alfven de los años cuarenta simplemente no es válido.
Una vez que Alfven estuvo seguro de los límites de la teoría MHD y
de las líneas de campo congeladas, promulgó sus nuevas ideas:
"Originalmente pensé que el concepto de congelado era muy bueno
pedagógicamente", explica, "pero en realidad, era un concepto
pseudo-pedagógico peligroso que te hace creer que entiendes un
fenómeno cuando lo has malinterpretado drásticamente".
Puesto que fue su idea en primer lugar, Alfven creyó que podría
aclarar el malentendido y ganar aceptación para el circuito mucho
más válido y el punto de vista actual en poco tiempo. Pero el
fantasma de Alfven era más poderoso de lo que pensaba. El enfoque
de MHD encaja perfectamente con el creciente uso de los
astrofísicos de un enfoque matemáticamente riguroso y deductivo, un
desarrollo que también ralentizó notablemente la investigación de la
fusión.
Alfven se exasperó cada vez más contra el mal uso de las líneas de
campo congeladas, llamándolo una "pseudociencia" sobre los
"pseudoplasmas", pero durante el resto de los años sesenta no tuvo
éxito, y su modelo del sistema solar fue rechazado. El prestigio cada
vez mayor de su trabajo magnético-hidrodinámico eclipsó su trabajo
más reciente y de aplicación más general sobre el plasma no
homogéneo.
El apogeo de este conflicto se produjo en 1970, cuando Alfven fue
galardonado con el Premio Nobel. Al presentar el premio, Torsten
Gustafson elogió el desarrollo de la magnetohidrodinámica de
Alfven y su concepto de líneas congeladas de fuerza magnética,
conceptos cuyas limitaciones Alfven había estado tratando de
explicar. Por primera y última vez en la historia del Premio Nobel,
Alfven criticó en su discurso la obra por la que fue galardonado, y
denunció su persistente mala aplicación para reforzar las teorías
elegantes: "Pero es sólo el plasma," dijo, "lo que no ``entiende'' cuán
hermosas son las teorías y se niega absolutamente a
obedecerlas."Contrastando el universo de deducción "perfecto" con
el universo dinámico y filamentoso que realmente se observa, Alfven
afirmó que sólo la observación vinculada a experimentos de
laboratorio puede llevar a la comprensión del sistema solar y su
origen. La teoría matemática, enfatizó, debe ser siempre el servidor
de la comprensión física y de la observación cercana, nunca el
maestro.

LA POLÍTICA DEL PLASMA

Alfven enfrentó otras batallas en la segunda mitad de los años


sesenta. Desde hace mucho tiempo ha estado involucrado
políticamente y es particularmente activo en el movimiento
internacional de desarme. Dado que Suecia no tenía armas nucleares
y era neutral, estas actividades no habían dado lugar a conflictos con
las autoridades nacionales. Sin embargo, a mediados de los años
sesenta, Suecia comenzó a considerar la investigación y el desarrollo
de la energía nuclear, un tema para el que Alfven se sentía bien
calificado.
Alfven se involucró en un debate cada vez más acalorado con los
políticos del gobierno. Considera que las nuevas políticas propuestas
subestiman la contribución que la fusión puede aportar a la solución
del problema energético, y que no financian suficientemente la
investigación sobre la fusión necesaria. También criticó los planes
específicos para un reactor nuclear, despreciándolos por ser
técnicamente inviables y equivocados. Se encontró en desacuerdo
con los burócratas locales, y su hostilidad hacia él no se suavizó
cuando su crítica técnica al reactor resultó estar bien fundada. (Más
tarde se convirtió en energía convencional.)
Alfven se convirtió en una mosca cada vez más pública, y sus
relaciones con los políticos se deterioraron aún más en 1966 cuando,
escribiendo bajo el seudónimo de Olaf Johannesson, publicó una
mordaz sátira político-científica, The Great Computer. En la novela
describe la futura adquisición del planeta por parte de las
computadoras, una idea popular entre los escritores de ciencia
ficción. Alfven, sin embargo, lo usó como un vehículo para
ridiculizar la creciente infatuación del gobierno y los negocios con el
nuevo poder de las computadoras, y para ridiculizar a gran parte del
establecimiento sueco -líderes corporativos codiciosos, burócratas
con poca visión de futuro y políticos ávidos de poder que se unieron
para crear una utopía para las computadoras. En la Suecia moderna,
un estado dirigido por una alianza de políticos, burócratas y líderes
corporativos, la sátira de Alfven no lo hizo querer a aquellos que ya
estaban enfrentados a su aguda crítica de la política nuclear.
En 1967, las relaciones de Alfven con los dirigentes del
establishment científico sueco se habían deteriorado tanto que
decidió abandonar Suecia: "Me dijeron que mi financiación se
reduciría drásticamente a menos que apoyara el reactor", recuerda.
Inmediatamente se le ofrecieron cátedras en universidades soviéticas
y estadounidenses. Después de una estancia de dos meses en la
Unión Soviética, se trasladó a la Universidad de California en San
Diego.

LA MAREA CAMBIA

Mil novecientos sesenta y siete fue, para Alfven, un punto de


inflexión porque, por primera vez, observaciones decisivas
demostraron que su concepto de un plasma cósmico dinámico e
inhomogéneo era correcto. Las sondas espaciales que habían sido
lanzadas recientemente y los datos que devolvieron significaban la
muerte a la idea de cielos perfectos e inmutables, gobernados por
elegantes leyes matemáticas. En su lugar había un universo mucho
más interesante e inquieto.
Los astrónomos ya no tenían que adivinar desde lejos, porque las
sondas espaciales eran capaces de medir las propiedades de un
plasma cuando pasaban a través de él. Igualmente importante, la
radiación que es absorbida por la atmósfera terrestre y no puede ser
observada desde la superficie - rayos X, rayos gamma, rayos
infrarrojos y ultravioletas - fue abierta a los telescopios espaciales.
Los astrónomos verían ahora gran parte del plasma universal.
Ya en 1959 el descubrimiento por parte de los primeros satélites de
los cinturones de radiación de Van Allen que rodean la tierra parecía
corroborar la teoría de Alfven sobre la aurora, propuesta veinte años
antes. Había planteado la hipótesis de que los protones y los
electrones están atrapados en cinturones separados por el campo
magnético de la tierra, interactuando con el viento solar, justo lo que
los satélites encontraron. Pero los cinturones también pueden
entenderse sobre la base de la teoría de MHD. La pregunta clave era
si existen corrientes eléctricas en el espacio.
En 1967 llegó la respuesta. Los satélites que transportan
magnetómetros, dispositivos de medición de campo magnético,
reportaron campos magnéticos extremadamente localizados en las
zonas aurorales. Alex Dessler, entonces editor del Journal of
Geophysical Research, había visto los datos en un documento
presentado por A.J. Zmuda, J.H. Martin y F.T. Heuring. Dessler se
había convencido al escuchar a Alfven y Falthammar en varias
reuniones científicas de que las corrientes alineadas con el campo de
Alfven -corrientes que se mueven a lo largo de las líneas de campo
magnético- probablemente existían. Se dio cuenta de que los campos
magnéticos localizados eran una evidencia cierta, ya que sólo las
corrientes localizadas pueden producirlos. Cuando no pudo persuadir
a Zmuda para que incluyera esta explicación en su propio artículo,
Dessler y un estudiante de posgrado, W. David Cummings,
publicaron en su propio nombre "corrientes de Birkeland" en honor a
su proponente inicial.
En pocos años, a medida que los satélites más sofisticados sondeaban
la magnetosfera de la Tierra, la evidencia se hizo abrumadoramente
convincente. Las corrientes y filamentos que Birkeland había
postulado y Alfven había elaborado en un modelo concreto realmente
existen y dominan la región inmediata de la tierra. En el transcurso
de los años setenta, los argumentos anteriores de Alfven sobre los
límites de su propia aproximación de MHD fueron ampliamente
aceptados por los geofísicos que estudiaban la aurora. Chapman, que
había muerto en 1970, fue rápidamente rechazado.
A finales de los años setenta, la confirmación de las corrientes
filamentosas se había extendido hacia el exterior tan rápido como las
sondas espaciales podían viajar. En 1979, las sondas Voyager,
equipadas con sofisticados instrumentos de plasma, pasaron por
Júpiter y en los años ochenta pasaron a sondear Saturno y Urano: "A
medida que avanzaba la nave, cambiaron completamente las teorías
preexistentes sobre el campo magnético y los entornos de plasma de
los tres planetas", dice Dessler (Fig. 5.11). Por todas partes los datos
mostraban corrientes filamentosas, vórtices de plasma retorcidos,
enormes generadores homopolares, dobles capas: todo el zoológico
de plasma que Alfven y sus colegas habían teorizado. Sus conceptos
dominaron el estudio del sistema solar y se utilizaron como base para
la planificación de nuevas sondas para los planetas y cometas.

Fig. 5.11 Uno de los lugares clave donde se confirmaron las teorías de Alfven es
Júpiter. Los instrumentos del Voyager mostraron que una hoja de corriente
eléctrica (disco de líneas discontinuas en esta simulación computarizada de la
NASA) es producida por la rotación del campo magnético de Júpiter (líneas de
arqueo). Aquí, los científicos pudieron estudiar directamente por primera vez el
generador homopolar que Alfven había propuesto cuarenta años antes para
explicar una variedad de procesos astrofísicos.

■ LAS CORRIENTES GALÁCTICAS

Como es característico, cuando sus teorías sobre el sistema solar


fueron ampliamente aceptadas, Alfven ya se había trasladado a una
nueva frontera de controversia, aplicando sus modelos de plasma al
reino de las galaxias.
No es de extrañar que sus nuevas teorías se derivaran de los nuevos
desarrollos en el laboratorio. En los años sesenta Alfven había
enfatizado que las corrientes filamentosas y pellizcadas son
esenciales para el universo del plasma, formando la vasta red de
energía que conecta las regiones donde se genera la energía con las
regiones donde se libera. Aunque había propuesto algunos modelos
concretos de filamentación a gran escala, todavía había algunos
cabos sueltos teóricos.
Alfven sabía que las corrientes arbitrariamente grandes pueden ser
transportadas por el plasma a lo largo de las líneas de campo
magnético, aunque fenómenos como las dobles capas pueden
desarrollar resistencias que las dificultan. Pero, ¿qué sucede cuando
la corriente se pellizca a sí misma? Si el campo magnético de una
corriente aumentara hasta el punto de sobrepasar el campo de fondo,
los electrones ya no podrían fluir a lo largo de las líneas de campo. Si
su corriente excediera el límite que Alfven había calculado en 1939,
sus propias líneas de campo enredarían sus caminos y destruirían el
flujo. Esto significaba que, en muchos casos, un filamento no podía
concentrar eficazmente los campos magnéticos, excepto a pequeña
escala. Entonces, ¿cómo podrían formarse filamentos gigantescos,
obviamente portadores de vastas corrientes mucho más allá del límite
de Alfven, a una escala tan grande?
A finales de los años sesenta, los investigadores habían desarrollado
potentes haces de electrones capaces de transportar corrientes
cercanas al límite de Alfven y, mediante el uso de campos
magnéticos externos, fueron capaces de empujar más allá de él.
Heideki Yoshikawa, del Laboratorio de Física del Plasma de
Princeton, se preguntó si era posible transportar corrientes aún
mayores sin un campo externo; a través de cálculos teóricos
descubrió que es posible, si las corrientes formaran un filamento
libre de fuerza. En este caso, todos los electrones se moverían a lo
largo de las líneas de campo, por lo que sus trayectorias no se
enredarían. Sin embargo, el campo en sí, con líneas helicoidales
envueltas alrededor de las rectas en su eje, es producido por la
corriente, por lo que no hay límite ni para la corriente ni para la
intensidad del campo.
Yoshikawa publicó su prueba de que las corrientes libres de fuerza
pueden formar filamentos arbitrariamente grandes en 1970, y menos
de un año después sus resultados fueron confirmados por
experimentos de laboratorio.
La capacidad de los filamentos libres de fuerza para transportar
grandes corrientes y concentrarlas, produciendo fuertes campos
magnéticos, fue la clave que resolvió una serie de problemas
molestos en el modelo de Alfven. Una, por ejemplo, era la cuestión
de cómo las corrientes pueden transferir exactamente el momento
angular en un sistema solar en desarrollo. Desde los años cuarenta
Alfven había vuelto repetidamente a los problemas de la
transferencia de momento angular, porque era obvio que el sistema
solar nunca podría haber llegado a estar sin un mecanismo eficiente.
A veces había propuesto que las ondas MHD podían hacer el truco,
pero siempre el campo magnético tal como estaba teorizado parecía
demasiado débil e inestable. Si las corrientes se distribuyeran
uniformemente, el campo magnético sería demasiado débil para
acelerar el plasma de la nube de gas. Esto, a su vez, no lograría
ralentizar la rotación de la estrella, sino que el campo magnético
podría enredarse con el plasma.
Con los poderosos filamentos de vórtice que los experimentos y el
trabajo teórico de Yoshikawa han demostrado que son posibles, la
situación cambió. En lugar de intentar acelerar las nubes
protoplanetarias con una débil red de campos magnéticos, el sol las
golpeaba con "bates de béisbol" de filamentos magnéticos que se
pinzaban a sí mismos (Fig. 5.12). Sus campos magnéticos
concentrados transferirían el impulso eficientemente, y los
filamentos mismos rodarían a través del plasma sin volverse
inestables, como lo haría un campo disperso.
En 1972 Alfven y un colega, Gustaf Arrhenius, desarrollaron un
modelo detallado de formación del sistema solar que utiliza los
filamentos -"superprominencias", los llamaron- para transferir el
momento angular. Y debido a que los filamentos pellizcan
fuertemente el plasma, aceleran enormemente la condensación de los
planetas. Un proceso idéntico, aunque más pequeño, produce
satélites alrededor de cada planeta.
Alfven tenía ahora, en su modelo de formación del sistema solar y en
el de Arrhenius, un trampolín para saltar a una escala mayor. Porque
si las estrellas y los planetas pueden formarse por la acción de las
corrientes filamentosas, ¿por qué los sistemas solares enteros no
pueden ser formados de manera similar por las corrientes de una
galaxia? Con Per Carlqvist, Alfven desarrolló en 1977 la idea de que
el mismo efecto de pellizco conduce a la formación de densas nubes
interestelares, el lugar de nacimiento de las estrellas. Una vez más, el
proceso es idéntico, pero esta vez inmensamente más grande: los
filamentos que barren a través de una nebulosa protogaláctica
pellizcan el plasma en los materiales de construcción del sol y otras
estrellas. Una vez que el material se pellizca inicialmente, la
gravitación atraerá parte de él, especialmente partículas de polvo y
hielo de movimiento más lento, lo que creará una semilla para el
crecimiento de un cuerpo central. Además, el movimiento vortex del
filamento proporcionará un momento angular a cada una de las
aglomeraciones más pequeñas dentro de él, generando un nuevo y
más pequeño conjunto de corrientes que transportan filamentos y un
nuevo ciclo de compresión que forma un sistema solar. (En 1989,
esta hipótesis, ahora ampliamente aceptada, fue confirmada
definitivamente cuando los científicos observaron que los ejes de
rotación de todas las estrellas en una nube dada están alineados con
el campo magnético de la nube - claramente, una formación estelar
controlada por el campo magnético).

Fig. 5.12a. Si las corrientes alrededor del sol y los campos magnéticos asociados
a ellas se distribuyeran uniformemente, serían "enrolladas" por el plasma del
sistema solar, convirtiéndose finalmente en circulares, y por lo tanto incapaces
de transferir el impulso del sol.

Fig. 5.12b. Sin embargo, si las corrientes se concentraran en filamentos libres de


fuerza, que Alfven denominó superprominencias, podrían empujar el plasma sin
que ellos mismos se enrollaran. Además, los filamentos pellizcarían el plasma
juntos, iniciando el proceso de formación de los planetas y satélites.

Fig. 5.13 El circuito galáctico: aquí toda la galaxia actúa como un generador de
discos, girando en un campo intergaláctico. Las corrientes fluyen hacia adentro
en el plano de la galaxia, a lo largo de los brazos en espiral, y hacia afuera a lo
largo del eje de rotación.

"El siguiente paso obvio fue observar el sistema de corrientes


eléctricas de la galaxia en su conjunto, al que Alfven y Carlqvist
recurrieron más tarde ese mismo año. La galaxia, girando alrededor
de un campo magnético intergaláctico, generaría campos eléctricos
extremadamente poderosos y potenciales de hasta cien millones de
millones de voltios (Fig. 5.13). Esto, a su vez, llevaría a la formación
de un sistema de corrientes filamentosas a lo largo del plano de la
galaxia, que serpentearía hacia el interior del centro galáctico y se
elevaría a lo largo de su eje, casi exactamente igual que el sistema
actual de un sistema solar, pero cien millones de veces mayor. Las
corrientes son también cien millones de veces mayores: unos pocos
miles de millones de amperios para un sistema solar y casi mil
millones de millones de amperios para una galaxia.
Si las capas dobles ocurren naturalmente en todas las corrientes
filamentosas cuando se pellizcan juntas, razonó Carlqvist, también
pueden ocurrir en una escala galáctica. En el sol, la liberación
repentina de energía magnética almacenada en una doble capa
produciría 1034 ergs, pero la energía almacenada del circuito
galáctico es la friolera de 1057 ergs, tanta energía como la que
produce la galaxia en treinta millones de años. La liberación
repentina de esta energía aceleraría un haz de electrones e iones a lo
largo del eje galáctico, irradiando poderosas ondas de radio a medida
que los electrones giran en espiral alrededor de las líneas de campo.
Esto es exactamente lo que los radioastrónomos habían observado
durante décadas en las misteriosas "radio galaxias", objetos que
disparan rayos de energía simples o dobles a nubes distantes en el
espacio intergaláctico. Desde mediados de los años sesenta, la
mayoría de los astrónomos han creído que la fuente de energía de las
radiogalaxias es la misma que la de los cuásares, que son similares
en términos generales pero aún más espectaculares -alguna forma de
un gran agujero negro monstruoso. La sabiduría recibida afirmaba
que a medida que los flujos de materia circulan hacia el agujero
negro, acelerando hasta casi la velocidad de la luz, algunos son
disparados a lo largo del eje de rotación, formando haces de gas
brillante: los chorros de radio.
Ahora bien, aquí estaban Alfven y Carlqvist con una explicación
mucho menos exótica. La galaxia en su conjunto actúa como un
generador eléctrico ordinario, y las dobles capas, versiones a escala
de una explosión encontrada en las plantas generadoras suecas, son
los aceleradores de los rayos. Los chorros en sí mismos no son más
que corrientes de partículas de alta energía, parte de un vasto sistema
de corrientes que rodea la galaxia.
A finales de los setenta Alfven y sus colegas habían conquistado el
sistema solar con sus teorías de filamentos, corrientes y dobles capas,
gracias a la evidencia del Voyager y otras sondas espaciales. Ahora,
sin embargo, estaban invadiendo el territorio de los astrofísicos, lejos
del alcance de las naves espaciales. Aquí, en estos confines, el
fantasma de los primeros trabajos de Alfven aún deambulaba. Casi
todos los astrofísicos habían aprendido sobre el plasma de libros de
texto antiguos, que utilizan la aproximación de campo congelada de
MHD indiscriminadamente. Naturalmente, descartaron las corrientes
y generadores de Alfven como imposibles, ya que contradecían todo
lo conocido (para los astrofísicos) del plasma en el espacio. Peor aún,
la explicación de Alfven de las radiogalaxias planteó preguntas sobre
la existencia misma de los agujeros negros: en 1980, un vasto campo
de trabajo teórico. En cualquier caso, Alfven estaba desafiando una
vez más una "realidad" construida a partir de ecuaciones
matemáticas limpias, ya sea las de MHD, o las de los agujeros
negros, de la relatividad general de Einstein.
Pero eso, resultó ser sólo el principio. Porque Alfven estaba ahora
montando un desafío también a la fundación misma de la cosmología
moderna - estaba, por primera vez, comenzando a plantear preguntas
muy reales acerca de la validez del Big Bang.

NOTAS
1. O. Devik, Blant Fiskere, Aschehoug, Oslo, Noruega, 1971 (citado
en A. Egeland y E. Leer, "Professor Kr. Birkeland," IEEE
Transactions in Plasma Science, Vol. PS-14, p. 666).

2. A. Egeland y E. Leer, IEEE Transactions. Ibídem.


6 - EL UNIVERSO DE PLASMA

Tratar de escribir un gran drama cósmico lleva necesariamente al mito. Intentar


que el conocimiento sustituya a la ignorancia en regiones cada vez más grandes
del espacio y el tiempo es ciencia.
- HANNES ALFVEN

Alfven había sido escéptico del Big Bang desde la primera vez que
escuchó hablar de él, en 1939. Lemaitre, el creador de la teoría, había
venido a una conferencia de astrofísica en Estocolmo para exponer
su controvertida idea del átomo primitivo: "En aquel momento sentí
que la motivación de su teoría era la necesidad de Lemaitre de
reconciliar su física con la doctrina de la creación de la Iglesia ex
nihilo", recordó Alfven años después. Su escepticismo se profundizó
por su enfoque general de vincular estrechamente la teoría con el
experimento. El método de Lemaitre para obtener una historia del
universo a partir de las predicciones de la relatividad general se
asemejaba a la elegante matemática de Chapman: se daba más
importancia a las ecuaciones que a la plausibilidad física de la teoría
o a su acuerdo con la observación.
Más concretamente, sin embargo, Alfven ya estaba profundamente
involucrado en la cuestión de los rayos cósmicos, tan central en la
hipótesis de Lemaitre. Como hemos visto, Alfven explicó
correctamente los rayos cósmicos como el producto de la aceleración
electromagnética, no como los misteriosos fragmentos del átomo
primitivo o sus descendientes estelares.
Pero no fue hasta más de veinte años después, en 1961, que el propio
Alfven se volvió hacia la cosmología. En ese momento, después de
haber gozado de gran popularidad en los años cincuenta, la teoría del
Big Bang estaba aparentemente contra las cuerdas. La teoría de
Gamow sobre el origen de los elementos había sido claramente
refutada, y su principal rival, la teoría del Estado Estacionario,
también estaba en apuros porque las observaciones de radio habían
indicado que el universo está en verdad evolucionando.
Alfven, elaborando el trabajo de un colega y maestro mayor, Oskar
Klein, entró en la disputa con una tercera alternativa. En los años
cincuenta, Klein había propuesto otra causa para la expansión del
Hubble: su culpable era la antimateria, uno de los fenómenos más
extraños observados en el laboratorio. Pronosticado teóricamente por
Paul Dirac en los años 30, fue poco después discovere.pl en la
naturaleza; ahora se utiliza rutinariamente en los enormes
aceleradores de partículas de la física de alta energía.
La antimateria es idéntica a la materia ordinaria excepto por dos
cosas. Primero, su carga es opuesta a la de las partículas ordinarias:
los antiprotones tienen una carga negativa, mientras que los
antielectrones (llamados "positrones") tienen una carga positiva.
Segundo, y mucho más sorprendente, cuando la materia y la
antimateria chocan, se aniquilan entre sí, convirtiéndose mutuamente
en pura energía. Por el contrario, la materia y la antimateria pueden
ser creadas juntas a partir de energía pura. Debido a esta propiedad,
la antimateria se crea cuando las partículas de materia ordinaria
chocan en aceleradores de partículas (las antipartículas resultantes se
utilizan para otros experimentos).
La antimateria ha sido durante mucho tiempo un rompecabezas
cosmológico, que brilla por su ausencia. En la tierra, la antimateria
esencialmente no existe en la naturaleza, porque se aniquila
rápidamente si se forma. Pero es difícil saber si existe en otra parte
del universo, ya que sus propiedades, vistas desde lejos, son idénticas
a las de la materia ordinaria. Estrellas enteras y sistemas solares
hechos de antimateria podrían existir fácilmente sin que nosotros lo
sepamos. Por otra parte, no hay pruebas directas de que realmente
exista en otros lugares. Su inexistencia, sin embargo, sería un
inmenso rompecabezas, ya que en la tierra, cuando uno crea materia
a partir de la energía, se producen cantidades iguales de antimateria.
¿Por qué no sería así en el universo?
Klein sugirió que la expansión del Hubble podría ser explicada si el
universo en verdad consistiera de cantidades iguales de materia y
antimateria. Si la mezcla estuviera suficientemente diluida, las
colisiones entre la materia y las partículas de antimateria serían raras.
Pero si se volviera denso, por ejemplo a través del colapso
gravitacional, la tasa de aniquilación aumentaría rápidamente,
llevando a la explosión que la expansión del Hubble parece indicar.
La idea era intrigante. La antimateria ciertamente tiene el poder de
crear las enormes velocidades observadas en la expansión del Hubble
- una libra de materia combinada con una libra de materia explotaría
con la energía de una bomba de hidrógeno de veinte megatones. La
materia o antimateria lanzada más rápidamente se movería más lejos,
produciendo la relación del Hubble entre distancia y velocidad.
La teoría, como Alfven se dio cuenta, tiene problemas significativos.
Si la materia y la antimateria se mezclaran uniformemente, ¿por qué
no se aniquilarían completamente, destruyendo el universo, o al
menos parte de él? ¿Cómo podrían separarse las regiones puramente
materiales, como el sistema solar? El problema de nuevo es cómo un
universo homogéneo puede volverse inhomogéneo, antimateria en un
lugar y materia en otro.
En 1961 Alfven, en colaboración con Klein en una teoría revisada de
la antimateria, propuso un mecanismo de plasma que puede separar
la materia y la antimateria en regiones distintas. El proceso comienza
con una agrupación gravitacional de la materia que crea un campo
gravitacional. Con la materia normal tal campo separará los
elementos más pesados de los más ligeros - los más pesados, al
moverse más lentamente, se "hundirán" (esto ocurre sólo si un
número suficiente de colisiones iguala la energía de las partículas
más pesadas y más ligeras; de lo contrario, todas ellas siguen los
mismos caminos en el espacio). Normalmente, los protones, aunque
mucho más pesados, no pueden separarse de los electrones, ya que
las cargas opuestas se atraen entre sí. Pero si esto fuera una mezcla
de materia y antimateria, los antiprotones y protones, una mezcla
eléctricamente neutra, se hundirían mientras que los positrones y los
electrones, otra mezcla neutra, se elevarían. Aquí, Alfven introdujo
un mecanismo de sus primeros trabajos sobre la aurora: si estas
mezclas se movieran a través de un campo magnético, se produciría
una corriente. En ambos casos la antimateria fluiría en una dirección,
la materia en la otra, por lo que se produciría una separación (Fig.
6.1).

Fig. 6.1

Alfven y Klein calcularon que tal proceso puede separar masas de


materia o antimateria lo suficientemente grandes como para producir
un sistema solar. Pero nubes más grandes crecerán, razonaron.
Cuando una nube de antimateria choca contra una nube de materia
ordinaria, no se aniquilarán totalmente entre sí; en cambio, sólo una
capa delgada será aniquilada, generando una capa de plasma caliente
de baja densidad, que empujará a las nubes a separarse. (Esto es
como la "capa de vapor de Leidenfrost" que suspende una gota de
agua en una sartén caliente, permitiendo que la gota se mueva tan
libremente.) Las nubes de tipo opuesto se repelen entre sí, pero se
combinan con nubes de tipo similar, produciendo masas cada vez
mayores de materia ordinaria o antimateria.
Sin embargo, de acuerdo con su teoría, a medida que el universo
observable se contrae gravitacionalmente, su densidad aumentará y
con ella la velocidad de las colisiones de las nubes. Finalmente,
cuando el universo tenga unos cien millones de años-luz de diámetro
(la centésima parte de su tamaño actual), las colisiones serán tan
violentas que las capas de Leidenfrost se verán alteradas, y algunas
de las nubes se mezclarán en una enorme explosión. Las nubes no
mezcladas sobrevivientes serán empujadas hacia afuera, en la
expansión del Hubble (Fig. 6.2).
Así, en el escenario de Alfven y Klein, sólo una pequeña parte del
universo -la que vemos- se habrá derrumbado primero y luego
explotado. En lugar de venir de un punto singular, la explosión viene
de una vasta región de cientos de millones de años-luz de diámetro y
toma cientos de millones de años-luz para desarrollarse - no se
requiere ningún "origen del universo".

Fig. 6.2.

Alfven y Klein habían esbozado una alternativa audaz tanto al Big


Bang como al Estado Estacionario, pero era sólo un esbozo, y había
un enorme salto entre la física del plasma del laboratorio y la del
cosmos. En 1962 ni siquiera la teoría de la aurora de Alfven era
aceptada. Y mientras sus teorías del plasma estaban siendo probadas
en laboratorios de fusión, la teoría de la antimateria o "ambiplasma",
como él la llama, estaba básicamente sin apoyo de laboratorio.
Incluso hoy en día la antimateria se produce en cantidades tan
pequeñas que las pruebas de laboratorio de la hipótesis de Alfven
siguen siendo imposibles.
La nueva alternativa recibió brevemente la atención porque tanto el
Big Bang como el Estado Estacionario estaban en eclipse. Pero con
el resurgimiento del Big Bang a mediados de los años sesenta se
olvidó la cosmología de Klein-Alfven. Durante una década y media
los astrónomos, de hecho, tuvieron razones para perseguir el Big
Bang, ya que el fondo de microondas y la abundancia de elementos
de luz parecían confirmarlo. Y las teorías de Alfven, por una vez,
parecían tan especulativas como las de la oposición, si no más.

■ EL UNIVERSO JERÁRQUICO

A finales de los años setenta, el Big Bang volvió a estar en


problemas: las observaciones habían demostrado que el universo es a
la vez demasiado grumoso y demasiado difuso para que el Big Bang
lo tuviera en cuenta. Los problemas estaban relacionados. En un
cosmos difuso, la gravedad no podía actuar lo suficientemente rápido
como para unir la materia en los cúmulos de galaxias que vemos hoy
en día. Y en un cosmos difuso, con omega mucho menos de 1, el Big
Bang tiene enormes inconsistencias.
Alfven había vuelto a prestar atención a la cosmología. En los veinte
años transcurridos, había extendido sus teorías del plasma hasta la
escala de las galaxias, y las observaciones desde sondas espaciales
confirmaron rápidamente sus teorías, al menos en la escala del
sistema solar.

Fig. 6.3 . El triple salto cósmico.


Dada la creciente escala de sus teorías, desarrolló la idea del "triple
salto cósmico" (Fig. 6.3). Con él, de la escala de laboratorio de unos
pocos centímetros se puede extrapolar a la escala de la magnetosfera
de la tierra, diez mil millones de centímetros o cien mil kilómetros.
Entonces, de la observación en esa escala, uno puede extrapolar otro
factor de mil millones a la escala de años luz -relevante para la
galaxia- y de estas observaciones, uno puede entonces saltar un
tercer factor de mil millones a la escala del universo observable.
Al regresar a la cosmología, inmediatamente centró su ataque en el
punto más débil de la cosmología convencional: la falta de
homogeneidad del universo. Aquí, llamó la atención sobre el trabajo
de Gerard DeVaucouleur.
En los años setenta, los astrónomos sabían no sólo que el universo es
inhomogéneo, agrupado en una jerarquía de estrellas, galaxias,
cúmulos y super cúmulos, sino que también habían descubierto
sorprendentes regularidades en este agrupamiento. En 1970
DeVaucouleur resumió la evidencia en un artículo ampliamente leído
en la revista Science. Basándose en su propio trabajo y en el de otros
durante la década anterior, mostró que a medida que los objetos en el
universo se hacen más grandes, su densidad disminuye, y que la
densidad disminuye a medida que el cuadrado del tamaño del objeto.
Un objeto diez veces más grande, entonces, es cien veces menos
denso.
Como señala DeVaucouleur, esta relación tiene profundas
implicaciones cosmológicas. La cosmología convencional enfatizó la
importancia de la omega, la relación entre la densidad media del
universo y la necesaria para contener gravitacionalmente la
expansión del Hubble. Sin embargo, si la densidad media disminuye
a medida que aumenta el tamaño, no se puede definir una densidad
"media" para todo el universo infinito. Incluso dentro del universo
observable, sobreestimaremos esta densidad si medimos una región
demasiado pequeña, incluso mil millones de años-luz de diámetro,
porque estaremos midiendo dentro de algún cúmulo, super cúmulo o
aglomeración más grande.
La densidad cósmica observada, con omega igualando a 0,02, ya era
un gran dolor de cabeza para los teóricos del Big Bang. Si la relación
de DeVaucouleur se aplicara a la escala del universo observable, la
verdadera densidad -la relevante para la expansión del Hubble- sería
mucho menor: omega podría caer a 0,0002, un valor que convertiría
sus dolores de cabeza en migrañas.
Como Alfven alegremente señaló, en un universo con esa pequeña
materia, la gravitación será tan débil que la diferencia entre la
gravedad newtoniana y la relatividad general será de poca
importancia. Para todos los propósitos prácticos, la relatividad
general, la base de la cosmología convencional, puede ser ignorada!
En esencia, la relación DeVaucouleur pone un límite superior a la
velocidad de escape de cualquier cuerpo gravitatorio. Las leyes de
Newton dictan que el cuadrado de la velocidad de escape es
proporcional a la densidad de un objeto multiplicada por el cuadrado
de su tamaño o radio (o proporcional a su masa dividida por su radio,
la cosa equivalente, ya que la densidad es la masa dividida por el
volumen o el radio al cubo). Pero DeVaucouleur ha demostrado que,
en un rango de estrellas a superclusters, la densidad por radio al
cuadrado permanece constante. Como resultado, sólo hay un
estrecho rango de velocidades de escape, con un límite superior de
un máximo de uno o dos mil kilómetros por segundo (Fig. 6.4). Pero
la relatividad general hace una gran diferencia sólo cuando la
velocidad de escape se acerca a la velocidad de la luz: trescientos mil
kilómetros por segundo. El descubrimiento de DeVaucouleur
muestra que en ninguna parte del universo -excepto quizás cerca de
unas pocas estrellas de neutrones ultradensas- la relatividad general
es más que una corrección sutil.
Fig. 6.4 Si la densidad de un objeto astronómico se traza contra su radio, un
objeto con una velocidad orbital o de escape constante cae a lo largo de las
líneas diagonales. Cuando se trazan objetos reales (cruces y puntos),
prácticamente ninguno cae por encima de unos 1.000 km/seg, muy por debajo
del límite teórico de la velocidad de la luz, 300.000 km/seg.

Como el propio DeVaucouleur señala, la relación también elimina la


materia oscura. Si la materia oscura existiera con la densidad
asumida por los cosmólogos, su fuerte gravitación podría hacer que
los objetos giraran más rápido que el límite de velocidad de
DeVaucouleur de unos pocos miles de kilómetros por segundo. La
velocidad de un objeto en órbita en un campo gravitacional es
siempre una gran fracción de la velocidad de escape. Esto, a su vez,
depende del tamaño y la densidad del cuerpo gravitatorio. Cuerpos
de materia oscura, del tamaño de superclusters o más grandes,
podrían producir velocidades en galaxias muy superiores a las
observadas. Así que, a menos que la materia oscura se dispersara de
alguna manera por todo el universo, las relaciones de DeVaucouleur
lo descartaron.
Alfven utilizó los datos de DeVaucouleur para enfatizar la naturaleza
paradójica del Big Bang. Años antes, Gamow había temido que la
gravedad no pudiera proporcionar suficiente energía para alimentar
el Big Bang, para hacer que el universo "rebotara" a partir de una
contracción anterior. Si la relación de DeVaucouleur se mantenía a la
escala del universo observable, había mucha menos materia, y por lo
tanto menos energía gravitacional, de lo que Gamow había
imaginado que era posible. La energía proporcionada por un
hipotético colapso anterior suministraría sólo una diezmilésima parte
de la energía necesaria para la expansión del Hubble. Fue como dejar
caer una pelota un pie y verla"rebotar" dos millas hacia arriba.
Alfven preguntó:"¿De dónde viene esta enorme energía adicional? El
universo no es, como la teoría de la inflación iba a decir pronto, un
"almuerzo gratis", sino un almuerzo que Alguien había pagado diez
mil veces más.
Montones de datos apoyaron estas embarazosas conclusiones.
Refutarlos significaría afirmar que la relación de DeVaucouleur,
probada hasta distancias de cien millones de años-luz, no se aplicaría
a nada más grande, una apuesta arriesgada en el mejor de los casos.
Para Alfven, las bajas densidades cósmicas implicadas por la
relación de DeVaucouleur fueron una gran ayuda para su cosmología
de la antimateria, que asume que la parte observable del universo
había sido quizás cien veces más pequeña en tamaño que en la
actualidad. Con la estimación de mayor densidad, la "velocidad de
escape" de un universo tan pequeño habría sido casi la velocidad de
la luz, poniendo en juego todas las complicaciones de la relatividad
general. La densidad mucho más baja, sin embargo, permite una
velocidad de escape de alrededor del 20 por ciento de la velocidad de
la luz, lo suficientemente baja como para ignorar la relatividad
general y sus espacios curvos.
En 1977 Alfven introdujo una versión revisada de su teoría del
ambiplasma y la de Klein, incorporando la cosmología jerárquica de
DeVaucouleur. Primero, Alfven notó que la jerarquía de las entidades
encajaba perfectamente en su teoría de que sólo una parte del
universo infinito participaba en la expansión del Hubble. Esta parte
es solo una de la serie de objetos jerárquicos-uno más grande que los
superclusters observados. Alfven apodó a esta entidad, coextensa con
la parte observable del universo, la "metagalaxia".
Como en la versión anterior, esta metagalaxia se contraerá
gravitacionalmente hasta que la materia y la antimateria, previamente
separadas, se mezclen y exploten. Pero más que una sola explosión,
Alfven postuló una serie: a medida que cada subfragmento expulsado
de la explosión metagaláctica se enfría y condensa, también alcanza
el límite crítico de inestabilidad y explota, a su vez, en fragmentos
más pequeños (Fig. 6.5).
Alfven argumentó que este modelo, al que llamó el "modelo de los
fuegos artificiales" (en imitación irónica de la anterior nomenclatura
de Lemaitre) puede explicar el límite de velocidad de DeVaucouleur.
Si la velocidad de escape de un objeto se mantiene dentro de este
límite de velocidad, sus movimientos internos son demasiado suaves
para alterar las capas de Leidenfrost. Pero a medida que un objeto
compuesto de nubes separadas de materia y antimateria colapsa
gravitacionalmente, sus movimientos internos se aceleran, las
colisiones entre las nubes se vuelven más violentas, las capas de
Leidenfrost se interrumpen y se producen explosiones. Por lo tanto,
cualquier objeto existente hoy en día debe obedecer el límite de
velocidad de DeVaucouleur, y la relación masa-radio o densidad-área
relacionada. La explosión de los fuegos artificiales crearía
naturalmente una jerarquía de tales objetos.
El modelo de fuegos artificiales también puede explicar el hecho de
que la expansión del Hubble es aproximadamente simétrica a todas
las escalas -es decir, la velocidad de todas las galaxias a una distancia
dada es aproximadamente la misma. Alfven señaló que si la simetría
fuera exacta -es decir, si todas las galaxias a la misma distancia
retrocedieran exactamente a la misma velocidad, y si las galaxias a
diferentes distancias tuvieran la misma relación de velocidad a
distancia- entonces parecería que todas retrocedieran desde un punto
en un momento dado- un Big Bang. Sin embargo, las varias
velocidades observadas del Hubble varían por lo menos en un 10 por
ciento, dependiendo de la distancia y dirección. Por lo tanto, el radio
más pequeño de la metagalaxia que podría justificarse en la
evidencia es aproximadamente el 10 por ciento del radio actual del
universo, uno o dos mil millones de años-luz. Tal simetría suelta a
gran escala puede explicarse fácilmente por la explosión de una
metagalaxia de unos pocos cientos de millones de años-luz de
diámetro.

Fig. 6.5 El modelo de los fuegos artificiales.

Pero una sola explosión, como en el viejo modelo de Alfven, no


podía ni siquiera producir una simetría aproximada a pequeña escala.
Puesto que algunas galaxias serán expulsadas del lado más cercano
de la metagalaxia y otras del centro, habrá una mezcla aleatoria de
velocidades dentro de cualquier volumen pequeño. Las galaxias más
rápidas desde el centro superarán a las más lentas desde el borde. En
volúmenes menores a cien millones de años luz de diámetro, el
efecto Hubble sería eliminado.
El modelo de fuegos artificiales resolvería este problema. En cada
volumen local, una explosión más pequeña impondría su propia
relación local con el Hubble. Incluso localmente, las galaxias que se
mueven más rápido a partir de una explosión local se alejarán más,
generando la relación entre el desplazamiento al rojo y la distancia
en todas las escalas.

ANTIMATERIA O NO?
Un aspecto clave de la cosmología de Alfven ha sido un acalorado
debate y sigue siendo una cuestión abierta. ¿Hay cantidades
sustanciales de antimateria en el universo? La sabiduría
convencional decía no, ninguna, y en los años sesenta no había
evidencia de que este no fuera el caso. Pero en 1976 Carlqvist y
Bertil Laurent habían encontrado algunas posibles señales de
antimateria.
Tomaron el nuevo modelo de Alfven y preguntaron qué pasa con los
electrones y positrones que absorben la tremenda energía producida
por la aniquilación. Calcularon que la mayoría de las partículas
tendrán entre 10 y 100 MeV (millones de electrones voltios) -
equivalente a temperaturas de entre cien mil millones y un billón de
grados - y a una energía tan alta viajarán a una velocidad muy
cercana a la de la luz. Las partículas ocasionalmente colisionaban
con fotones de luz estelar y transferían una pequeña cantidad de su
energía a los fotones, convirtiéndolos en rayos X.
Los astrónomos ya habían observado un fondo universal de tales
rayos X, similar en su isotropía o suavidad al fondo de microondas.
Carlqvist y Laurent compararon el espectro del fondo de los rayos X
con el que deberían producir los electrones y positrones, y
encontraron una excelente coincidencia. Este espectro requiere una
densidad de aproximadamente un electrón o positrón por cada mil
metros cúbicos de espacio -la misma cantidad necesaria para
producir la energía de expansión del Hubble en la densidad de
materia que Alfven había extrapolado de la relación DeVaucouleur.
Esta evidencia de la existencia de la antimateria fue publicada en
1976 en la prestigiosa revista Nature y trajo una respuesta inmediata
de los cosmólogos ortodoxos. Gary Steigman atacó la teoría de la
antimateria, argumentando que los rayos gamma producidos con los
electrones y positrones serían millones de veces más intensos de lo
que realmente se había observado. Además, los electrones y
positrones mismos se aniquilaban entre sí de vez en cuando,
liberando rayos gamma de.5 MeV en mayor número que el
observado. Dado que los rayos gamma observados son mucho
menores, concluye Steigman, la antimateria debe ser
extremadamente rara.
Carlqvist y Laurent respondieron en el mismo número de Nature,
señalando que Steigman asume un universo homogéneo (un punto
crítico en el debate entre la cosmología de Alfven y la del Big Bang).
Con una explosión de metagalaxia, que ocurrió en un área específica
y limitada, hace diez mil millones de años o más, los rayos gamma
de la aniquilación inicial habrían escapado de la metagalaxia hace
eones.
Argumentan además que las aniquilaciones electrón-positrón
dependen de la densidad de materia del universo. Dada la densidad
implícita en el modelo de Alfven y los datos de DeVaucouleur (cien
veces menos que los utilizados por Steigman), la intensidad de los
rayos gamma coincide estrechamente con el fondo observado. Así
que tanto el fondo de rayos X como el de rayos gamma están
perfectamente contabilizados.
El debate no terminó ahí, pues Steigman repitió más tarde sus
objeciones a escala galáctica. Si la antimateria existe a escala
galáctica, afirmó, entonces las colisiones entre la materia y las
galaxias de antimateria liberarían muchos más rayos gamma que los
observados. Aquí, la pregunta clave fue cuán efectivamente las capas
de Leidenfrost pueden separar las regiones de materia y antimateria.
Alfven, sin embargo, no había hecho cálculos detallados sobre la
rapidez con que se forman las capas en una colisión, una cuestión
crítica, porque cuanto más rápido se formen, menos rayos gamma se
producirán y menos aniquilación ocurrirá antes de que las dos
regiones del plasma reboten aparte.
Aunque Bo Lehnert había hecho cálculos preliminares sobre este
problema, el trabajo principal fue hecho por un profesor de física en
San Diego, William Thompson. Él mismo era escéptico de la tesis de
Alfven, pero quería examinarla, al menos en teoría. Su trabajo
indicaba que las capas de Leidenfrost se formarían en sólo unos
pocos años, un instante, considerando que las colisiones
intergalácticas toman cientos de millones de años. Cuando una
galaxia de materia ordinaria choca con otra de antimateria, sus
estrellas pasarán unas junto a otras sin colisiones, ya que en
cualquier caso están tan ampliamente espaciadas: el plasma en cada
una de ellas será detenido por una capa de Leidenfrost y rebotará en
el espacio sin liberar ningún rayo gamma. Thompson concluyó que
ninguna evidencia sólida contradice la existencia de la antimateria,
aunque se mantuvo escéptico de cualquier evidencia que implique
que sí existe. En esto, como en otras cuestiones cosmológicas, es
crucial una mayor observación.

■ EL PÉNDULO COSMOLÓGICO

Mientras Alfven y sus colegas desarrollaban una cosmología


alternativa, abrió un amplio ataque a los fundamentos metodológicos
y filosóficos del Big Bang. En 1978 formuló la tesis general que he
elaborado aquí: que el Big Bang es un regreso a una cosmología
esencialmente mítica. A lo largo de los milenios, argumentó Alfven,
la cosmología ha alternado entre un enfoque mítico y uno científico,
una alternancia que él denominó el péndulo cosmológico.
El enfoque mítico parte de ciertas suposiciones sobre las
"condiciones iniciales" y procede a explicar el universo desde ese
principio. Las suposiciones derivan de alguna autoridad: religiosa,
filosófica, matemática o estética. La diferencia entre mito y ciencia
es la diferencia entre la inspiración divina de la'razón sin ayuda'
(como dice Bertrand Russell) por un lado y las teorías desarrolladas
en contacto observacional con el mundo real por el otro", escribe
Alfven. Tratar de que el conocimiento sustituya a la ignorancia en
regiones cada vez más grandes del espacio y el tiempo es ciencia".
El sistema ptolomeo -basado en la aceptación incuestionable de los
cielos inmutables, la centralidad de la tierra y la necesidad de un
movimiento circular perfecto- es una cosmología mítica. El sistema
copernicano, perfeccionado por Kepler y Galileo, es empírico: las
elipses no son más bellas que los círculos, pero son las órbitas de los
planetas.
La cosmología actual representa un retorno a los mitos ptolemaicos,
cree Alfven: "Tanto la cosmología ptolemaica como la del Big Bang
partieron de resultados filosófico-matemáticos incuestionablemente
correctos y extremadamente hermosos. Nadie puede estudiar la
ciencia pitagórica que comprende la teoría matemática de la música
y la teoría de los poliedros regulares sin quedar inmensamente
impresionado. Lo mismo ocurre con la teoría de la relatividad.... "
Pero ni la cosmología del Ptolomeo ni la del Big Bang corresponden
a la observación. En particular, el uso del Big Bang de la relatividad
general es válido sólo si el universo es lo suficientemente denso
como para ser "cerrado", o cercano a él. Por lo demás, como muestra
la observación, la relatividad general y todo su enfoque matemático
son un mero matiz en la escala cosmológica. Por razones similares,
como hemos visto, las predicciones iniciales de los teóricos del Big
Bang eran erróneas: la temperatura de fondo de las microondas es
inferior a la prevista, en un orden de magnitud, y el universo no es de
ninguna manera homogéneo.
Como no tiene apoyo empírico, Alfven concluye, "el Big Bang es un
mito, un mito maravilloso tal vez, que merece un lugar de honor en
el columbario que ya contiene el mito indio de un universo cíclico, el
huevo cósmico chino, el mito bíblico de la creación en seis días, el
mito cosmológico ptolemaico, y muchos otros" El método
subyacente de la cosmología relativista se basa en una filosofía
errónea:

La razón por la que se han hecho tantos intentos de adivinar cuál


era el estado hace varios miles de millones de años es
probablemente la creencia general de que hace mucho tiempo el
estado del Universo debe haber sido mucho más simple, mucho más
regular que hoy, de hecho tan simple que podría ser representado
por un modelo matemático que podría derivarse de algunos
principios fundamentales a través de un pensamiento muy ingenioso.
Excepto por alguna referencia vaga y poco convincente a la segunda
ley de la termodinámica, no parece haberse dado ninguna
motivación científica razonable para esta creencia. Esta creencia
probablemente emana de los viejos mitos de la creación. Dios
estableció un orden y una "armonía" perfectos y debería ser posible
encontrar los principios que siguió cuando lo hizo. Ciertamente era
lo suficientemente inteligente como para entender la teoría general
de la relatividad, y si lo hizo, ¿por qué no iba a crear el Universo de
acuerdo a sus maravillosos principios?

Lo peor de todo es que este enfoque permite que la teoría gobierne


sobre la observación, como los astrónomos ptolemaicos que se
negaron a mirar a través del telescopio de Galileo. Hoy la
cosmología está en manos de científicos que nunca habían visitado
un laboratorio o mirado a través de un telescopio, y aunque lo
hubieran hecho, estaba por debajo de su dignidad ensuciarse las
manos. Miraban con desprecio a los físicos experimentales y a los
observadores, cuyo único trabajo era confirmar las conclusiones de
alto nivel a las que habían llegado, y se creía que los que no podían
confirmarlas eran incompetentes. Observar a los astrónomos fue
sometido a una fuerte presión por parte de los teóricos. El resultado
fue el desarrollo de un establecimiento cosmológico, como el de la
ortodoxia ptolemaica, que no toleraba objeciones ni disensiones. 1

Como alternativa a esta ortodoxia, Alfven aboga por un retorno a un


enfoque estrictamente empírico, uno que no esconda la observación
inconveniente bajo la alfombra cuando entra en conflicto con el
dogma. "La diferencia entre ciencia y mito -escribió- es la diferencia
entre el pensamiento crítico y la creencia en los profetas, entre'De
omnibus est dubitandum' (Todo debe ser cuestionado -Descartes)
y'Credo quia absurdum' (Creo porque es absurdo -Tertuliano)".
Pero Alfven's permaneció a principios de los ochenta con una voz
que clamaba en el desierto. Su cosmología de la antimateria todavía
tenía algunos problemas significativos, aunque no más que el Big
Bang. Pero lo que es más importante, representó un gran salto más
allá de lo que se sabía y un salto aún mayor más allá de lo que se
aceptó. A partir de 1980, el triple salto cósmico de Alfven seguía
siendo un programa de investigación, no una realidad: hasta la escala
del sistema solar, su teoría detallada había sido confirmada por
observaciones de la Voyager y otras sondas espaciales. Pero en la
escala galáctica sólo existía la teoría de Alfven sobre los orígenes de
las radiogalaxias, que no fue elaborada ni confirmada por la
observación. Debido a que el segundo salto no fue más que la mitad
de completo, el tercer salto fue más problemático. Alfven y sus
colegas no habían desarrollado la cosmología de la antimateria hasta
el punto de poder hacer una comparación detallada con la
observación, y eran los únicos que trabajaban en ello. Tampoco se
habían extrapolado teorías sobre la antimateria del laboratorio: nadie
había producido suficiente antimateria.
El puñado de cosmólogos de plasma de Alfven seguía siendo un
grupo aislado en Suecia, pero esta no era una situación nueva para
Alfven: veinte años antes sus ideas sobre el sistema solar habían sido
descartadas, y ahora mantenían el campo, con investigadores de todo
el mundo elaborándolas, y nuevas observaciones que las apoyaban
cada mes. Para la cosmología, el cambio estaba en camino.

■ GALAXIAS EN UNA COMPUTADORA

Los primeros pasos críticos en el segundo salto cósmico, de escala


del sistema solar a escala galáctica, fueron dados por Anthony Peratt.
Peratt había sido uno de los estudiantes graduados de Alfven en 1969
y 1970, cuando asistió a Alfven y Arrhenius con su libro sobre el
origen del sistema solar. Diez años más tarde, en 1979, mientras
trabajaba en Maxwell Labs, un contratista de defensa aeroespacial,
experimentó con un dispositivo llamado Blackjack V, el generador de
energía pulsada más grande del mundo en ese momento, capaz de
producir momentáneamente diez billones de vatios de potencia
eléctrica, cinco veces más que la capacidad de generación total del
mundo. El Blackjack bombeaba este enorme poder a través de cables
que instantáneamente se vaporizaban en plasmas filamentosos,
emitiendo una intensa ráfaga de rayos X. Este era el propósito de la
máquina: los rayos X simulaban los efectos de la explosión de una
bomba de hidrógeno sobre la electrónica y otros equipos.
Peratt estaba estudiando el plasma en el Blackjack con fotografías de
rayos X de muy alta velocidad. Lo que vio le sorprendió:
inicialmente los filamentos de plasma se movieron unos hacia otros,
atraídos por los campos magnéticos del otro. Pero luego se
fusionaron en una hélice apretada, de esta espiral surgieron los rayos
X más intensos.
"Aprendí de la literatura que Bostick había observado la formación
de objetos como galaxias espirales en los años 50", recuerda Peratt,
"y, por supuesto, de mi trabajo con Alfven conocía sus teorías sobre
la importancia de las corrientes filamentosas y el plasma en el
cosmos. Aquí estaban los dos juntos: filamentos formando espirales
y algo que se podía estudiar en el laboratorio" (Fig. 6.6).
Sin embargo, incluso las mejores mediciones de un plasma son
limitadas, como bien sabía Peratt. Por una afortunada coincidencia,
menos de un año antes Oscar Buneman, uno de los principales
físicos de plasma de Stanford, había desarrollado SPLASH, un nuevo
programa para la simulación de plasma. En lugar de aproximar los
plasmas como fluidos -el enfoque de MHD, cuyas limitaciones
Alfven había enfatizado-, el modelo de Buneman es un enfoque
tridimensional preciso de partícula en célula. (Esto significa que la
computadora sigue cada electrón o ión paso a paso a medida que se
mueve de una "célula" o punto de rejilla a la siguiente, de acuerdo
con las fuerzas aplicadas a ella por todas las demás partículas y
campos presentes). Peratt lo describió como "la piedra de Rosetta
para el plasma" y diseñó una simulación de los filamentos de
Blackjack, partiendo del caso más simple de dos filamentos uno al
lado del otro, cada uno con una corriente eléctrica y campos
magnéticos que suben por su eje. (Peratt sabía que el campo
magnético debe ser axial si las enormes corrientes, más de cinco
millones de amperios, iban a fluir en absoluto.

Fig. 6.6. En los experimentos del Blackjack V, la corriente que fluye a través de
los filamentos de alambre crea un plasma, que se retuerce en forma de espiral.
En esta fotografía el plasma es visto por los rayos X que emite.

"Tenía que dar una charla en Boston en una reunión de la Sociedad


Americana de Física sobre los resultados experimentales y de
simulación. Las simulaciones fueron hechas por uno de los
estudiantes de Buneman, Jim Green. Acababa de terminar una
película por ordenador de los resultados de la simulación y me la
entregaron en el hotel de la conferencia la noche anterior a mi charla.
Me senté en la cama de la habitación del hotel y desenrollé las
imágenes de la computadora de 16 mm para echar un primer vistazo.
Mostraron los filamentos en sección transversal: dos manchas
circulares que se movían lentamente una hacia la otra, luego
comenzaron a girar, estirarse y fusionarse en una galaxia espiral en
miniatura perfecta, la forma exacta de una típica espiral de"gran
diseño".
"No sabía qué hacer con él", recuerda Peratt, "mi primera reacción
fue:'Guau, el código es incorrecto', pero seguí adelante y lo mostré
en mi charla de todos modos". Aunque nunca había sido un fanático
de las computadoras ni de las simulaciones, Alfven quedó
impresionado y animó a Peratt a aplicar las simulaciones
directamente a los problemas cósmicos.
Peratt realizó más simulaciones, variando parámetros como la
distancia entre los dos filamentos. Luego comparó los resultados con
los de las galaxias reales: "Una vez que encontré el Atlas de Galaxias
Peculiares de Halton Arp, fue hermoso. Podía enlazar cada imagen
de una galaxia con alguna etapa de una de mis simulaciones y sabía
exactamente qué fuerzas -fuerzas electromagnéticas- estaban dando
forma a las galaxias" (Fig. 6.7). Emocionado, presentó los resultados,
con ilustraciones, a Physics Review Letters, la revista de alta
visibilidad que había publicado sus resultados iniciales sobre las
simulaciones (sin mencionar las galaxias). El documento fue
rechazado. Intentó con la revista británica Nature, y la respuesta fue
decididamente hostil: "Era simplemente miserable. Dijeron,'No, no,
no puede haber campos magnéticos en estas escalas, se necesitan
toneladas de cobre para transportar toda esta corriente, etc.' Pero
ahora estaba realmente interesado".
En ese momento, Peratt se especializaba en simulaciones de plasma
tridimensional, por lo que aceptó un trabajo en el Laboratorio
Nacional de Los Álamos, donde tuvo acceso a la mayor
concentración de supercomputadoras del mundo. Con la ayuda de
James Green de Stanford y Charles Snell, comenzó sus simulaciones
galácticas. Alfven ya había postulado que los filamentos libres de
fuerza, apretados entre sí por las corrientes que fluyen hacia el centro
de una galaxia, pueden iniciar la formación de estrellas, por lo que
Peratt razonó que los filamentos más grandes, que se estiran durante
cientos de millones de años-luz, pueden apretar también vastas nubes
de plasma para iniciar la formación de galaxias. Por lo tanto,
modificó el modelo de Alfven de una galaxia girando en un campo
magnético, produciendo flujos de corriente hacia adentro.

Fig. 6.7 Las simulaciones por computadora de Peratt (derecha) imitan la forma
de diferentes tipos de galaxias reales (izquierda). Desde arriba, las galaxias son
3C66, 3C285, NGC3187, NGC1300 y M95.

Peratt sabía por los experimentos de Blackjack que los fenómenos


que había observado derivaban de la interacción de más de un
filamento, así que creó dos filamentos gigantescos con una densidad
y un campo magnético típicos de una galaxia. También eliminó por
completo la interacción gravitacional: la galaxia estaba totalmente
confinada por las fuerzas electromagnéticas. Esta fue una
simplificación injustificada, sabía, pero relativamente poco
importante, porque la clave era la rotación del plasma en un campo
magnético. Las nubes giratorias pueden ser mantenidas juntas por la
gravedad o por fuerzas electromagnéticas.
■ CÓMO SE FORMA UNA GALAXIA

Lo que sucedió en las simulaciones vale la pena explicarlo en detalle.


Es más sencillo comenzar con la simulación anterior, en la que el
plasma se estira a lo largo de todo el filamento. Esta es la situación
más general, ya que muestra cómo los filamentos del vórtice que
hemos estado discutiendo realmente llegan a ser.
Cada uno de los dos filamentos tiene una corriente axial que corre a
lo largo de las líneas de campo magnético de un campo magnético
externo. Sus propias corrientes también producen campos
magnéticos circulares. La interacción de las corrientes axiales y los
campos circulares produce la acción de pellizco: los dos filamentos
convergen entre sí (Fig. 6.8a).

Fig. 6.8a.

A medida que se mueven a través del campo magnético vertical, los


electrones son empujados hacia la derecha y los iones hacia la
izquierda (Fig. 6.8b), produciendo corrientes adicionales. Los
excesos de electrones a la derecha son forzados hacia arriba a medida
que entran, a través de su interacción con el campo circular o
azimutal del otro filamento; los iones del otro lado son forzados
hacia abajo. Como los electrones se mueven mucho más rápido que
los iones, las corrientes axiales en ambos filamentos se desplazan
hacia un lado (Fig. 6.8c). Ahora la fuerza entre las dos corrientes
todavía las atrae a lo largo de una línea recta. Pero esto ya no es una
línea entre los centros de los filamentos, por lo que comienzan a
moverse oblicuamente, girando uno alrededor del otro mientras se
mueven hacia adentro, produciendo un patrón retorcido (Fig. 6.8d).
Finalmente, cuando los dos filamentos se acercan y se mueven más
rápido uno alrededor del otro, las cargas excesivas en los bordes
internos de los filamentos comienzan a moverse en direcciones
opuestas. Esto produce una fuerza repulsiva, porque las corrientes
opuestas se repelen y las corrientes similares se atraen (Fig. 6.8e).
Eventualmente, las dos fuerzas alcanzan el equilibrio y la
contracción se detiene. Los dos filamentos han sido torcidos en un
solo gran filamento, que ahora está girando, listo para tal vez
fusionarse con otro (Fig. 6.8f).

Fig. 6.8b.

Fig. 6 .8c.

Fig. 6.8d.

Fig. 6.8e.
Fig. 6.8f.

La situación con los plasmas, las nubes de plasma de tamaño


galáctico de la simulación, es algo más compleja. Las dos nubes,
empujadas por la fuerza del pellizco, se acercan. También en este
caso los iones y los electrones son forzados en direcciones opuestas,
produciendo una fuerza descendente en un lado de la burbuja y una
fuerza ascendente en el otro lado (Fig. 6.9a). Estas fuerzas
desequilibradas hacen que las nubes empiecen a rodar. Como los
electrones son empujados mucho más rápido que los iones, una
corriente circular comienza a fluir en la misma dirección que el
movimiento de balanceo. Al igual que en el caso de los filamentos,
las corrientes adicionales empujan las manchas oblicuamente, de
modo que ruedan una alrededor de la otra. Se deforman y se estiran
en el proceso, porque las fuerzas en las partes internas son más
poderosas que en las otras partes (Fig. 6.9b). Las dos corrientes de
rodadura crean campos magnéticos opuestos, por lo que las manchas
se repelen entre sí, rebotando en un cojín de campo magnético (Fig.
6.9c). La fuerza de pellizco les impide separarse de nuevo, y
terminan como un solo objeto giratorio: la galaxia.

Fig. 6.9a.
Fig. 6.9b.

Fig. 6.9c.

Peratt y Green ampliaron los resultados de sus modelos de escala de


laboratorio a escala galáctica. Las corrientes ya no eran de millones
de amperios, sino de 10 millones de trillones de amperios, y los
filamentos estaban separados por 300.000 años-luz en lugar de unos
pocos milímetros (ver Figuras 6.8 y 6.9). Las nuevas simulaciones
mostraron algo muy curioso: los electrones atrapados en un "cojín"
central en el campo magnético irradian grandes cantidades de ondas
de radio por el proceso de sincrotrón (es decir, al girar alrededor de
líneas de campo magnético, se ven obligados a irradiar, como lo hace
cualquier partícula acelerada). La radiación se limita a una región
central muy pequeña de campos altos. Al mismo tiempo, la presión
del campo magnético comienza a romper los pequeños plasmoides
de la región central y los lanza hacia afuera. Rápidamente forman un
poderoso haz de energía que sale del centro de la protogalaxia en
ambas direcciones (Fig. 6.10).

Fig. 6.10 En esta versión de la simulación, que muestra líneas de fuerza


magnéticas, las dos notas se han fusionado, creando dos áreas de campo alto
alrededor de un sumidero central de campo bajo. El área central comienza
entonces a emitir manchas de plasma magnetizado a alta velocidad en un doble
chorro. A modo de comparación, a la izquierda se encuentran los mapas de las
radiogalaxias, que muestran la similitud en forma con las simulaciones.

Peratt estaba muy entusiasmado con los nuevos resultados. La fuente


central de radio y los chorros emergentes tenían exactamente el
mismo aspecto que los cuásares y los núcleos galácticos activos que
emiten dichos chorros, que se habían observado durante mucho
tiempo y que Alfven había teorizado que los procesos plasmáticos
podían generar. Evidentemente no hay necesidad de un agujero negro
en el centro galáctico para generar tal energía, porque la energía
magnética atrapada, apretada por el efecto de pellizco, puede hacer el
truco aún mejor.
A medida que la simulación continuaba, la rotación de la galaxia
resultante comenzó a inducir corrientes que fluían en direcciones
opuestas a lo largo de los brazos en espiral, pellizcándolas en formas
filamentosas y en la característica forma helicoidal retorcida. La
galaxia estaba generando sus propias corrientes eléctricas, que a su
vez podían pellizcarse para formar gas, nubes y, finalmente, el
modelo inicial de las estrellas de Alfven. Las simulaciones
resolvieron uno de los grandes misterios de la astronomía: ¿Cómo
obtienen los objetos un giro o un momento angular? Estaba claro que
proviene de las interacciones de los campos magnéticos: los objetos
ganan rotación a expensas de los campos.
Las simulaciones resolvieron otro misterio de larga data: las curvas
de rotación "planas" de las galaxias. Si la velocidad del gas que rota
alrededor del centro galáctico se traza contra su distancia desde el
centro, la curva primero sube rápidamente pero luego se nivela (Fig.
6.11a). Sin embargo, si la galaxia en forma de disco se mantiene
unida sólo por la gravedad, la velocidad debería disminuir
constantemente a medida que aumenta la distancia. Como en el
sistema solar, los planetas exteriores se mueven más lentamente que
los planetas cercanos al sol. Los astrofísicos lo habían visto durante
mucho tiempo como evidencia de un halo de materia oscura
gravitante alrededor de la galaxia visible: dentro de tal esfera, una
curva de rotación plana sería posible, aunque de ninguna manera
necesaria. Pero en la simulación de Peratt y Green, la curva de
rotación plana emerge de forma bastante natural en una galaxia
totalmente gobernada por campos electromagnéticos (Fig. 6.11). Los
brazos en espiral son en efecto como resortes rodantes que irradian
desde el núcleo de una galaxia y, como tal resorte, tendrán la misma
velocidad de rotación a lo largo de toda su longitud. Mejor aún, se
había observado el movimiento de "balanceo" en los brazos espirales
de las galaxias reales.
Las simulaciones de Peratt emparejaron con precisión las
observaciones de galaxias ordinarias y radiogalaxias. Los
experimentos de laboratorio con haces de electrones en Los Álamos
confirmaron que los mismos fenómenos se aplican a corrientes desde
microamperios hasta mega-amperios, un rango de un trillón de veces.
Otro trillón de veces más de eso llevó a Peratt a la escala galáctica de
sus simulaciones. El paquete completo fue finalmente publicado en
1983 en una pequeña publicación de astronomía, Astrofísica y
Ciencia Espacial.
No hubo respuesta de los astrónomos convencionales. Impertérrito,
Peratt decidió publicar este trabajo por su cuenta, y escribió una serie
de artículos para la ampliamente leída revista de astronomía amateur
Sky and Telescope. El primero se titulaba provocativamente "Are
Black Holes Necessary" y se publicó en julio de 1983, sin éxito.
Peratt seguía siendo el único investigador que trabajaba activamente
en problemas de escala galáctica: "Fue un poco frustrante", admite.
La cosmología del plasma parecía algo corta de personal.
Fig. 6.11 La simulación de Peratt resolvió el largo misterio de las curvas de
rotación planas de las galaxias. Las mediciones (izquierda) muestran que la
velocidad del gas en una galaxia permanece constante a medida que uno se aleja
del centro, en lugar de disminuir, como cabría esperar de la teoría gravitacional.
Las simulaciones de Peratt (derecha) sin gravedad muestran que el pellizco de
plasma produce la curva plana. Las ligeras ondulaciones en cada curva son
producidas por un movimiento de balanceo de los brazos en espiral a medida
que se mueven alrededor de la galaxia.

En agosto de 1984, sin embargo, Peratt recibió un manuscrito de un


científico desconocido para él. El artículo presentaba un modelo
detallado de los cuásares y de la teoría nuclear galáctica activa que se
basaba en la teoría de Alfven sobre el generador galáctico. Sin
embargo, se trataba de un tratamiento analítico, que utilizaba
cálculos en lugar de simulaciones, y se concentraba en la estructura
fina del cuásar, demasiado fina para las simulaciones de Peratt. (Los
cuasares parecen tener sólo un año luz de diámetro, comparado con
los cien mil años luz de una galaxia y los diez mil años luz de
tamaño celular de su simulación).
Peratt estaba entusiasmado; al final, alguien fuera del círculo
inmediato de Alfven estaba trabajando en una línea similar. Peratt
envió una cálida nota al científico: "Parece que la'era del hielo' en la
ciencia está empezando a descongelarse", escribió.
Recuerdo muy bien la redacción de la carta, ya que estaba dirigida a
mí.

■ UNA CARRERA PECULIAR

Si Peratt había pensado que mi trabajo era una grieta en el


establecimiento astronómico, pronto se dio cuenta de que estaba
equivocado, pues yo estaba tan lejos de estar establecido como uno
podía estarlo. No era de ninguna manera un científico típico, aunque
había empezado de manera bastante convencional.
Como muchos otros, yo había comenzado mi interés por la
astronomía cuando era niño, y mi primer libro sobre astronomía
ayudó a dar forma a mis intereses perdurables. Era un libro sobre el
sol, que compré cuando tenía ocho años. Lo que más me llamó la
atención fue una ilustración que mostraba un tren aparentemente
interminable que transportaba los miles de millones de toneladas de
carbón que se necesitarían para producir la energía generada por el
sol en un solo segundo. El libro explicaba que la energía se producía
de hecho por fusión nuclear, que los científicos estaban tratando de
domesticar para su uso en la tierra. Las dos áreas -astronomía y
fusión nuclear- me fascinaron a medida que crecía, y en la
universidad había decidido ser físico investigador o astrofísico.
Mi conflicto con la física convencional comenzó cuando era
estudiante en Columbia a mediados de los años sesenta. La física en
sí misma me interesaba, aprender por qué suceden las cosas tal y
como suceden; las matemáticas eran simplemente una herramienta
para entender y probar los conceptos físicos subyacentes. Esa no era
la forma en que se enseñaba la física, sino que se enfatizaban las
técnicas matemáticas. Esto es casi exclusivamente sobre lo que los
estudiantes todavía se examinan, y obviamente lo que más estudian.
Me gradué en física en la Universidad de Maryland, con la intención
de obtener un doctorado. Pero después de un año, me fui. No podía
reconciliarme con el enfoque matemático, que me parecía estéril y
abstracto, especialmente en la física de partículas, en la que había
considerado especializarme.
Después de dejar la escuela en 1970 empecé a trabajar como escritor
científico, primero en la Enciclopedia Collier y luego como free-
lance, escribiendo informes técnicos y artículos en revistas. Esto me
mantuvo en contacto con los últimos desarrollos en astrofísica,
fusión controlada y física de partículas, entre otras cosas; mi trabajo
fue una oportunidad para completar mi educación en física. Aprendí
especialmente sobre la física del plasma, que no había sido tocada en
Columbia o Maryland.
Los años setenta fueron el apogeo de la cosmología del Big Bang,
pero yo era escéptico de ella y de los desarrollos asociados en la
física de alta energía. Yo sabía desde mis días en Columbia que había
contradicciones fundamentales en la teoría de las partículas que
habían sido barridas bajo la alfombra (ver Capítulo Ocho). El
universo del Big Bang, terminado al principio y en constante
decadencia, parecía muy poco científico, y yo sabía que sus teóricos
nunca habían resuelto el problema fundamental de la fuente de
energía inicial. Me pareció mucho más probable que el universo
siempre hubiera existido, su evolución acelerándose sobre los eones.
Pensé mucho en los problemas que me interesaban en la física y la
cosmología, pero estaba ocupado ganándome la vida. Así que no fue
hasta 1981 que empecé una investigación científica seria. El origen
de ese primer proyecto se remonta a 1974, cuando conocí a Winston
Bostick mientras trabajábamos con un grupo que abogaba por
mayores fondos para la investigación de fusión controlada.
La investigación de Bostick se centró en un dispositivo de fusión
llamado el foco de plasma. Fue la inspiración para mis primeras
teorías astrofísicas. El enfoque -inventado independientemente a
principios de los años sesenta por un soviético, N. V. Filippov, y un
estadounidense, Joseph Mather- es extremadamente simple, en
contraste con el enorme y complejo tokamak, un gran dispositivo
magnético que durante mucho tiempo ha dominado la investigación
de la fusión. El foco consistía en dos cilindros conductores de cobre,
de varios centímetros de diámetro, anidados uno dentro del otro (Fig.
6.12). Cuando se descarga una gran corriente a través del cilindro, se
produce una notable secuencia de eventos.
Fig. 6.12. Un dispositivo de enfoque de plasma.

Fig. 6.13a. Como la vaina que transporta la corriente que se mueve hacia adentro
se forma, se generan pares de filamentos vorticiales.

Fig. 6.13b. En el foco, los filamentos se aniquilan entre sí, dejando sólo uno, que
se corta en un plasmoide, mostrado esquemáticamente. A medida que se
descompone, el plasmoide emite dos haces, cada uno de los cuales está formado
por diminutos filamentos organizados en un patrón helicoidal.

La Fig. 6.13c muestra el impacto del haz de electrones sobre una lámina de
plástico. El haz es de aproximadamente cuarenta micras de radio, mientras que
los filamentos individuales son de uno a dos micras de radio.

La corriente ioniza rápidamente el plasma y se forma en ocho o diez


pares de filamentos libres de fuerza, cada uno de un milímetro de
diámetro, que ruedan por el cilindro, impulsados por la interacción
de sus corrientes con el campo magnético de fondo. Cuando llegan al
final del cilindro, se mojan hacia adentro (Fig. 6.13a). Cada par,
formado por dos vórtices que giran en direcciones opuestas, se
aniquilan entre sí, dejando que un solo superviviente lleve toda la
corriente. Este sobreviviente se pellizca a sí mismo en un nudo
filamentoso en forma de dona, un plasmoide (Fig. 6.13b).
El plasmoide, de sólo medio milímetro de diámetro, contiene ahora
toda la energía almacenada en el campo magnético de todo el
dispositivo, un volumen un millón o más veces mayor. Por una
fracción de un microsegundo, a medida que el plasmoide continúa
pellizcándose a sí mismo, permanece estable. Pero a medida que su
campo magnético aumenta, los electrones orbitan en círculos más
pequeños, emitiendo radiación de una frecuencia más alta. Debido a
que el plasma tiende a ser opaco a la radiación de baja frecuencia y
transparente a alta frecuencia, la radiación de repente comienza a
escapar.
Esto pone en marcha una segunda serie de acontecimientos. A
medida que los electrones irradian su energía, la corriente disminuye
y el campo magnético se debilita. Dado que los electrones viajan a lo
largo de líneas de campo magnético, el campo debilitante enreda el
camino de los electrones a medida que su forma cambia, causando
que la corriente descienda aún más.
El resultado es como apagar un interruptor, como en las dobles capas
que Alfven había observado. La caída del campo magnético genera
un enorme campo eléctrico, que dispara dos haces de alta energía
fuera del plasmoide: los electrones en una dirección y los iones en la
otra. Las vigas están formadas por filamentos helicoidales
extremadamente densos, cada uno de ellos de un micrón (una
diezmilésima parte de un centímetro) de diámetro (Fig. 6.13c). En el
curso de este proceso, algunos iones se calientan a temperaturas tan
altas que se fusionan.
Me fascinó el enfoque de plasma por varias razones. Por un lado, era
un enfoque prometedor para una fusión muy económica - no necesita
los enormes imanes del tokamak. Pero también demostró
dramáticamente la capacidad de los filamentos de plasma para
comprimir materia y energía. Aunque en ese momento yo no estaba
al tanto del extenso trabajo de Alfven, Bostick me presentó sus
propias ideas de cómo tales filamentos deben haber sido relevantes
para la formación galáctica.
Unos años después, empecé a pensar que el foco de plasma
proporciona un modelo para otro fenómeno cósmico: los cuásares.
Durante cientos de miles de años, los cuásares irradian diez mil
veces más energía que una galaxia promedio de cien mil millones de
estrellas, pero no parecen tener más de un año luz de diámetro,
comparado con los cien mil años luz de una galaxia. Su densidad de
potencia (potencia por año luz cúbico) es un millón de trillones de
veces mayor que la de una galaxia.
¿Cómo puede un objeto tan pequeño generar tanta energía? La
sabiduría convencional afirma que un agujero negro está en
funcionamiento, pero, entre otras objeciones, hay razones
convincentes para pensar que cualquier objeto lo suficientemente
masivo como para accionar un cuásar se romperá antes de que se
derrumbe en un agujero negro. En cualquier caso, las nuevas
observaciones han planteado otro misterio.
A partir de 1978, los mapas de radio de alta resolución revelaron que
el núcleo de una radio-galaxia emite rayos de energía estrechos que
los conectan con los lóbulos de radio periféricos. Luego, en 1980, un
enorme radiotelescopio -el Very Large Array (VLA), compuesto por
27 antenas parabólicas repartidas por kilómetros de desierto de
Nuevo México- reveló a los observadores que los mismos chorros
emanan de los corazones de los cuásares.
Se me ocurrió que un foco de plasma y un cuásar son dos procesos,
muy diferentes en escala, pero idénticos en forma y dinámica.
Ambos consisten en una fuente de energía extremadamente densa
que emite chorros diametralmente opuestos que emiten radiación de
alta frecuencia. Un foco de plasma puede aumentar la densidad de
potencia de sus emisiones en un factor de diez mil trillones por
encima de la energía entrante -comparable con la relación de un
cuásar a una galaxia.
¿Pero cómo puede una galaxia generar una corriente eléctrica? Sabía
de generadores de disco y calculé que una galaxia que gira en un
campo magnético generará una corriente que fluye hacia su centro lo
suficiente como para alimentar vastos plasmoides, un proceso que
Alfven había propuesto cuatro años antes, descubrí más tarde. Dado
que las corrientes deben fluir a lo largo del eje, se forman arcos
alrededor, como en el foco de plasma - una geometría similar
conduce a la formación de plasmoides en ambos casos.
Mientras estas ideas se cristalizaban yo también estaba estudiando la
evidencia, acumulada desde 1978, de la existencia de superclusters
filamentosos de galaxias. Había visto el póster "Tapiz Cósmico" de
Peebles, que mostraba las galaxias ensartadas a lo largo de hilos de
encaje. ¿Por qué estos filamentos de galaxias no podrían ser
versiones más grandes de los filamentos en el foco de plasma y de
los filamentos que planteé como hipótesis para formar en galaxias?
Producirían campos magnéticos en los que las galaxias, al rotar,
producirían los plasmoides que forman los cuásares o núcleos
galácticos activos.
A principios de 1981, estas eran todavía teorías sin el trabajo
cuantitativo detallado necesario para probarlas. Pero no tenía tiempo
-mi esposa, Carol, y acababa de tener a nuestro primer hijo, Kristin,
y mi escritura era nuestro único ingreso. Sin embargo, pronto surgió
una oportunidad para el trabajo científico remunerado, al menos
indirectamente.
En ese momento escribí principalmente para Spectrum, la revista del
Instituto de Ingenieros Eléctricos y Electrónicos (IEEE), la
organización internacional de ingenieros eléctricos. El espectro
cubría todo lo que tenía que ver con el campo, incluyendo temas
como la fusión termonuclear controlada. No se trataba de ciencia
pura, sólo de tecnología, sino que el editor con el que trabajé, Ed
Torrero, quería artículos sobre los avances científicos relacionados
con la tecnología. Anteriormente había estudiado física del plasma y
sabía de mi interés en ella y en la astrofísica, así que me sugirió que
escribiera un artículo (o que buscara a un experto para que escribiera
uno) sobre la conexión entre la ciencia del plasma en astrofísica y en
fusión controlada.
Inmediatamente estuve de acuerdo. Bostick y su compañero de
trabajo, Vittorio Nardi, estaban involucrados en la investigación de la
fusión y habían aplicado su trabajo a problemas astrofísicos, como
las erupciones solares, por lo que eran los coautores lógicos del
artículo. Además, si trabajara con ellos, como hice con muchos
autores expertos, la investigación necesaria se solaparía con lo que
yo necesitaba para mis propias ideas científicas. Igualmente
importante, esperaba que Bostick o Nardi trabajaran conmigo en mi
hipótesis científica: necesitaba ayuda experimentada, y dudaba de
que cualquier artículo se publicara sólo con mi nombre.
Resultó que ellos también habían estado pensando en la conexión
entre el cuásar y el foco de plasma. Bostick, sin embargo, estaba
demasiado ocupado, pero Nardi estuvo de acuerdo en que yo debía
hacer el trabajo principal, siendo su aportación principalmente
consejos y críticas. Comencé a trabajar en el otoño de 1981.
Nardi era un socio ideal. Aunque tenía poco tiempo para el proyecto,
su contribución fue inestimable: es un científico extremadamente
riguroso, con un alto nivel de trabajo teórico, por lo que su cuidadosa
crítica de mi trabajo me obligó a profundizar y construir una base
más firme para mis teorías.
Inicialmente traté de demostrar la validez de la teoría encontrando
leyes de escala que pueden relacionar cuantitativamente lo que se ha
observado en el laboratorio con lo que se ha observado en la escala
galáctica. Necesitaba lo que se llaman invariantes de escala:
cantidades que no cambian a medida que aumenta la escala del
fenómeno. Al principio procedí empíricamente, pero Nardi me
mostró la Electrodinámica Cósmica de Alfven, donde había
establecido leyes de escalamiento teóricamente derivadas (ver
Capítulo Cinco).
Estaba claro que la invariante clave es la velocidad de la materia bajo
la influencia de un campo magnético. Para la etapa inicial del
dispositivo de foco de plasma o del colapso de una galaxia, la
velocidad típica es de unos 160 km/seg; pero para la etapa final,
plasmoide o cuásar, la velocidad es mucho mayor, de unos 10.000
km/seg. Como señala Alfven, la resistencia efectiva del plasma -la
relación entre el voltaje y el amperaje- también es invariable en
escala. También parecía cierto que, para una escala dada, ciertas
cantidades deben permanecer inalteradas: la cantidad de energía
magnética y la relación entre la densidad y la intensidad del campo
magnético.
Con estas pocas relaciones, pude hacer predicciones cuantitativas
sobre los cuásares y sus chorros basadas en datos de laboratorio, y
aproximadamente explicar su fuerza de campo magnético, su vasta
energía y su tamaño relativamente pequeño. Armé un escenario que
describe los principales eventos en la formación de las galaxias.

■ UN MODELO DE UN CUÁSAR

Tanto los estudios teóricos como las simulaciones por ordenador han
demostrado que cualquier plasma con suficiente energía creará
filamentos vorticiales, y que estos filamentos crecerán sin límite, a
medida que el tiempo y el espacio lo permitan. Los filamentos libres
de fuerza, aquellos con la mayor torsión, crecerán más rápido y así
llegarán a dominar. Pellizcarán el plasma juntos, formando cuerdas
gruesas y densas. Estos filamentos crecerán hasta convertirse en
autogravitantes: la gravedad los romperá y producirá manchas de
plasma que girarán a través de las líneas de campo de los grandes
filamentos. Esto, a su vez, generará corrientes hacia adentro que
producirán nuevos conjuntos de filamentos, repitiendo así el ciclo,
haciendo girar una red de materia cada vez más fina.
Los primeros filamentos serán las cadenas del supercluster. Estos
darán lugar a protoclusters, que a su vez generarán galaxias.
Finalmente, las galaxias producirán nubes estelares, que se
condensarán en estrellas. En cada etapa, las corrientes de entrada y el
campo magnético de fondo frenan el plasma giratorio, permitiendo
una mayor contracción del protoclúster, la protogalaxia o la
protoestrella.
La energía tomada de la rotación y la contracción gravitacional del
objeto irá a la creación del plasmoide denso y será liberada en los
haces que los plasmoides crean a medida que se descomponen. Un
cuásar es, por lo tanto, el grito de nacimiento de una galaxia, el
medio por el cual el exceso de energía de rotación, que debe ser
removido si la galaxia va a colapsar, es transportado en la forma de
los chorros energéticos.
Una vez que la galaxia se forma, el mismo proceso a una velocidad
menor alimenta la formación repetitiva de pequeños plasmoides en
su núcleo. El proceso está generando hoy en día estrellas en los
densos filamentos de los brazos en espiral.
La teoría puede explicar la fuente del inmenso poder de un quásar.
La fuente última es la energía rotacional de toda una galaxia,
aumentada por la energía gravitacional liberada a medida que la
galaxia se contrae. Esta energía es convertida en energía eléctrica por
la acción del disco-generador y concentrada en los filamentos más
pequeños que se mueven hacia el núcleo de la galaxia. El filamento
se pellizca en un plasmoide que, para los cuásares más grandes,
podría tener cien años luz de diámetro. El cuásar visible, sin
embargo, es mucho más pequeño (Fig. 6.14). Esta es la región, de un
año luz o más, donde cada subfilamento individual que compone el
plasmoide se está rompiendo al irradiar su energía y alimentar los
chorros emitidos. Así como una presa hidroeléctrica extrae energía
del agua que cae en el valle de un río, el cuásar extrae energía
inmediatamente del campo magnético del plasmoide, un millón de
veces mayor en volumen, y finalmente de toda la galaxia. De esta
manera, la energía obtenida por el colapso de la galaxia es expulsada
como energía eléctrica en los chorros de los cuásares. Sin la
eliminación de esta energía, la galaxia nunca se formaría.
(El modelo también puede explicar la forma en que los cuásares y
sus hermanos más pequeños, núcleos galácticos activos, emiten
chorros en una sola dirección a la vez, cambiando después de varios
miles de años. Un haz son los electrones, que irradian energía tan
rápidamente que no se extenderá más allá de los límites del propio
cuásar. El otro son los protones, que irradian mucho más lentamente.
Los protones de alta energía, a su vez, acelerarán los electrones a lo
largo del camino, y estos irradiarán ondas de radio, haciendo que los
jets sean visibles para los radiotelescopios. Pero sólo una fracción de
la energía se perderá, por lo que los protones producirán chorros
extensos.
Para entonces mi investigación me había hecho consciente de que la
mayoría de los astrofísicos no creen que el espacio pueda llevar las
corrientes que propuse, que la resistencia del espacio es tan baja que
las corrientes se disiparán instantáneamente -objeciones que Alfven
había encontrado durante décadas. No estaba al tanto de las
refutaciones de Alfven, pero sentía que tenía una buena solución: las
corrientes eléctricas deben gastar energía en la formación de
filamentos vorticiales, y esto produce una resistencia efectiva - así
como en la resistencia ordinaria, la energía eléctrica se convierte en
el movimiento aleatorio del calor (esto es lo que hace que una luz
eléctrica funcione). Los vórtices funcionan como motores,
convirtiendo la electricidad en movimiento, así como una galaxia en
su conjunto funciona como un generador, convirtiendo su
movimiento en electricidad. Sin los vórtices, el campo magnético en
el que gira la galaxia será "congelado" en el movimiento de la
galaxia, sus patrones interrumpidos; como resultado, la galaxia no
perderá suficiente momento angular para contraerse y formar
estrellas. Los vórtices permiten que la galaxia ruede a través del
campo de fondo, generando en el proceso la energía necesaria para
desacelerarla, y el pellizco necesario para formar sus estrellas. Son
los ingredientes vitales en la construcción de la estructura del
universo.

Fig. 6.14 Una protogalaxia colapsante y giratoria (a) genera una corriente
eléctrica que gira en espiral hacia el centro y sale a lo largo del eje. En el centro,
el filamento que transporta la corriente se pellizca en un plasmoide (b) de unos
200 años-luz de diámetro. El plasmoide, a su vez, genera un poderoso campo
eléctrico a lo largo de su eje, acelerando los haces de protones y electrones. La
pequeña región de la que emergen estos haces, la región de mayor campo
magnético, tiene sólo medio año luz de diámetro. Este es el cuásar visible.

Finalmente, mi modelo también explica el hecho de que las estrellas


en proceso de formación producen chorros, al igual que las galaxias,
pero a menor escala. Estos "objetos Herbig-Harrow" eran un misterio
recientemente descubierto, y los astrónomos no podían usar la
explicación del agujero negro, porque el objeto central es claramente
una protoestrella. Mi teoría, sin embargo, anticipa que el proceso
plasmoideo será una característica general de cualquier cuerpo
contratante, sin importar su tamaño.
En febrero de 1982 escribí todo esto en un bosquejo detallado y lo
envié a Nardi. Me sugirió que me enfocara solo en los cuásares, no
en los superclusters. Además, necesitaba hacer la teoría más exacta,
calcular las velocidades clave del plasma y mostrar que la teoría
predice con precisión los resultados tanto de laboratorio como
astrofísicos (ver Cuadro).

ENCONTRAR LA VELOCIDAD DE UN VÓRTICE

Había tres velocidades clave en mi teoría que determinaban todo lo


demás: la velocidad del plasma cuando comenzó la contracción de la
galaxia, la velocidad en los filamentos y la velocidad en el plasmoide
o cuásar. El experimento había demostrado que estos eran de 160
km/segundo, 1.000 km/segundo y 10.000 km/segundo,
respectivamente. ¿Por qué estas velocidades en lugar de otras? Las
respuestas resultaron ser críticas no sólo en la comprensión de los
cuásares sino también en la comprensión de la estructura a gran
escala del cosmos.
En el caso del plasmoide, para que el plasma sea transparente a la
radiación sincrotrón, la velocidad característica de los electrones
debe estar cerca de la velocidad de la luz. La velocidad del ión está
relacionada con la de los electrones por la raíz cuadrada de la
relación de sus masas. Ahora, el protón es 1.836 veces más masivo
que los electrones, por lo que la velocidad debería ser unas cuarenta
y dos veces menor. La relatividad lo corrige a una velocidad prevista
de 9.900 km/seg.
Este fue un valor importante, ya que la velocidad del gas en los
cuásares se había medido usando el desplazamiento Doppler y
promedia sólo 9.500 km/seg, justo lo que mi teoría predijo.
¿Pero qué pasa con las condiciones iniciales y los filamentos?
¿Cómo se formó exactamente el filamento? La formación de
filamentos parecía ser un fenómeno de resonancia. La resonancia
ocurre cuando dos procesos operan con la misma frecuencia, como
los empujones de un niño en un columpio. A cierta velocidad, la
frecuencia de un electrón girando en un campo magnético sería igual
a la de los iones que rebotan hacia adelante y hacia atrás en el
plasma. Esta velocidad sería 1.836 veces menor que la velocidad de
la luz -la relación entre el electrón y las masas de protones- o muy
cercana a las condiciones observadas para la formación de
filamentos. ¿Pero qué mecanismo permitió a los electrones empujar a
los iones? ¿Y qué determinó la velocidad de los filamentos mismos?
Durante varios meses en 1982, luché con este problema sin progreso.
Después de un proceso redondo, finalmente me di cuenta de que la
clave de todas las velocidades críticas eran las inestabilidades del
plasma, es decir, las oscilaciones en un plasma que crecería
espontáneamente, pasando energía primero a los filamentos para
hacerlos formar y luego fuera de los filamentos para estabilizarlos.
La oscilación del plasma era un área en la que se había hecho mucho
trabajo, especialmente por parte de los investigadores soviéticos de
la fusión.
El trabajo soviético mostró que, de hecho, las inestabilidades harían
exactamente lo que yo había adivinado. En esencia, cuando la
velocidad del plasma alcanzaba el primer valor crítico, 160
km/segundo, la corriente de electrones creaba ondas de choque que
empujaban a los iones de plasma en movimientos helicoidales,
creando los vórtices. Los vórtices crecían entonces por los
mecanismos de pellizco (y por el mecanismo que más tarde aprendí
que Peratt describió en detalle) hasta que alcanzaron la segunda
velocidad crítica, 1.000 km/seg. Entonces un mecanismo de choque
similar ralentizaría los electrones en el filamento, transfiriendo
energía a los electrones de fondo. Las condiciones iniciales tenían
una velocidad igual a la relación entre las masas de electrones y
protones (me/mp) por la velocidad de la luz (c). El plasmoide tenía
una velocidad (me/mp) de 1/2 c y los filamentos que calculé
entonces estarían claramente a medio camino entre (me/mp) 3/4 c.
Ahora que había calculado rigurosamente cuáles eran las velocidades
clave, podía mostrar que todas las cantidades clave, como la
intensidad del campo magnético y la emisión de radio, observadas en
los cuásares, eran predicha con precisión por la teoría.
Cuando terminé este trabajo a principios de 1984 estaba ansioso por
publicarlo, ya que había aprendido que no estaba solo en esta
investigación. Nardi me había prestado una copia del libro recién
publicado de Alfven Cosmic Plasma -en el que vi que Alfven había
desarrollado, en 1978, la misma noción de galaxia que un generador
de discos y que también la había aplicado al problema de las
radiogalaxias, atribuyendo los recién descubiertos chorros a las
corrientes producidas a lo largo del eje.
Aunque Alfven se había anticipado a mi tesis, yo estaba más
satisfecha que preocupada por esto: ser ganadora de un premio
Nobel, y sólo por unos pocos años, no es una vergüenza para un
novato. Además, mi trabajo todavía era necesario. La hipótesis de
Alfven había sido característicamente general. En particular, no
había utilizado el generador de disco para producir el intenso cuásar
o núcleo galáctico en el centro de los chorros. En cambio, él teorizó
que esto es causado por un proceso completamente diferente - la
colisión de una estrella ordinaria y una estrella de antimateria. Esto
no lo consideré en absoluto plausible, ya que la observación dejó
claro que los chorros y el "motor central", ya sea el cuásar o el
núcleo galáctico, están conectados. Ambos deben tener la misma
causa.
En general, me animó mucho que una autoridad como Alfven
estuviera pensando en la misma línea, y también que hubiera barrido
las objeciones a las poderosas corrientes en el espacio intergaláctico.
Pero yo estaba mucho más ambivalente en julio de 1983 cuando leí
el artículo de Peratt Sky and Telescope. Aquí estaba el trabajo
detallado, usando un modelo extremadamente cercano al mío. Leí
ansiosamente su artículo técnico, preguntándome si ahora realmente
me habían sacado una primicia.
Una vez más me tranquilizó. El trabajo de Peratt era
abrumadoramente una simulación, mientras que mi trabajo consistía
en cálculos analíticos detallados usando ecuaciones exactas. Estos
enfoques tienden a ser complementarios y sus conclusiones se
apoyan mutuamente. Además, dado que su simulación tenía una
resolución limitada, la obra de Los Álamos no podía explicar por qué
los cuásares son tan pequeños -éste era el corazón de mi modelo. En
otros sentidos, su trabajo apoyó tremendamente el mío (y el mío lo
apoyó el suyo) porque, al usar independientemente métodos muy
diferentes, llegamos a conclusiones idénticas.
Sin embargo, ver que había trabajo en este sentido me hizo ansioso
de publicar. 4 En julio presenté un nuevo borrador a Nardi.
Pensé que había mejorado enormemente y no tenía ninguna objeción
importante, pero aún así no estaba dispuesto a publicar bajo nuestros
nombres comunes. Cuando quise seguir adelante, aceptó que el
artículo se publicara sólo bajo mi nombre, con un simple

4 Más tarde me enteré de que otro investigador, P. F. Browne de la Universidad


de Manchester en Inglaterra, también estaba trabajando en líneas similares,
usando filamentos magnéticos para explicar fenómenos que van desde cuásares
hasta superclusters. Sin embargo, las teorías de Browne diferían
significativamente de las mías en varios aspectos, como la forma en que se
generaban los filamentos.
reconocimiento (lo que, de hecho, era un reflejo fiel de su papel de
asesor de tesis).
No tenía idea de quién aceptaría un artículo tan poco ortodoxo de un
autor no acreditado y no afiliado. Decidí enviar el periódico a Peratt,
ver su reacción y luego pedirle consejo.

EL THAW

Estaba extasiado de recibir su carta. Por teléfono me dijo que


pensaba que la teoría estaba bien fundada. Y aunque mi obra apenas
indicaba un deshielo de la ortodoxia, su predicción era sin embargo
exacta: el día que la recibí, tanto su obra como la mía recibieron una
dramática confirmación observacional, mostrada en la portada de la
Naturaleza.
Mi trabajo había predicho la existencia en cada galaxia -incluyendo
la nuestra- de densos y poderosos filamentos magnéticos, de
aproximadamente un año luz de diámetro, en bucle hacia el centro y
arqueándose a lo largo del eje de la galaxia. Peratt había predicho las
mismas corrientes, aunque con menos detalle, y los mismos altos
campos magnéticos. En la portada de la August Nature estaban
nuestros filamentos, un grupo de ellos saliendo del centro de nuestra
galaxia, los exteriores retorcidos helicoidalmente alrededor de los
interiores rectos, una ilustración de libro de texto de un vórtice libre
de fuerza. Los filamentos son de un año luz de diámetro y casi cien
años luz de largo exactamente lo que nuestros dos modelos
predijeron.
Los filamentos habían sido observados con el radiotelescopio VLA
por un estudiante graduado de la Universidad de Columbia, Farhad
YusefZadeh. Como Yusef-Zadeh señala en el artículo que lo
acompaña, tales formas filamentosas no pueden ser confinadas por la
gravedad u otras fuerzas - deben ser filamentos magnéticos libres de
fuerza.
Parecía que se había logrado el segundo salto cósmico a la escala
galáctica. Aquí había pruebas sólidas de que los filamentos de
vórtices existen en la escala de años-luz, y encajaban con las
simulaciones de Peratt y mis propios cálculos.
A partir de ese momento, los astrónomos comenzaron a prestar
atención a la importancia de los fenómenos magnéticos y
plasmáticos a escala galáctica, pero la iluminación se propagó muy
lentamente, como pronto descubrí. Peratt me había sugerido que me
presentara a la revista que él había publicado en Astrofísica y Ciencia
del Espacio. Desafortunadamente, rechazaron mi trabajo de manera
sumaria, y el revisor descartó la analogía entre la galaxia y el foco de
plasma por absurda. Luego me volví a presentar, siguiendo los
consejos de Peratt, a una pequeña revista de física del plasma, Laser
and Particle Beams, donde mi primer trabajo fue finalmente
publicado en 1986.
A pesar de la revelación de los filamentos retorcidos de Yusef-Zadeh,
la explicación del agujero negro de los núcleos y cuásares galácticos
ha permanecido dominante. Los filamentos son simplemente
descartados como un misterio fascinante, o, en algunos casos,
explicados como un rayo de plasma generado por un agujero negro.
En 1989, sin embargo, se desarrollaron nuevas pruebas que
probablemente condenarán la hipótesis del agujero negro. Siempre se
ha observado que el gas y el plasma cerca del centro de las galaxias
se mueven a alta velocidad, hasta 1.500 km/seg para nuestra propia
galaxia, y valores similares o superiores para otras. Estas velocidades
son generalmente tratadas como evidencia de un agujero negro cuyo
poderoso campo gravitacional ha atrapado los gases arremolinados.
Pero dos científicos de la Universidad de Arizona, G.H. y M.J.
Rieke, midieron cuidadosamente las velocidades de las estrellas a
unos pocos años luz del centro de nuestra galaxia, y descubrieron
que las velocidades no son mayores de 70 km/seg, veinte veces más
lentas que las velocidades del plasma medidas en la misma área.
Dado que las estrellas deben responder a cualquier fuerza
gravitacional, sus bajas velocidades muestran que no existe ningún
agujero negro. Por lo tanto, los gases de alta velocidad deben quedar
atrapados únicamente por un campo magnético, que no afecta a las
estrellas. Además, las corrientes que Peratt y yo hipotetizamos
formaron las galaxias también han sido detectadas (ver p. 49,
Capítulo Uno).
Ciertamente, al momento de escribir este artículo, la evidencia de los
procesos plasmáticos que dan forma a las galaxias y a los eventos
violentos en su núcleo se está volviendo abrumadora, aunque todavía
es ignorada alegremente por la mayoría de la comunidad
astronómica. Sin embargo, esta actitud está cambiando: en agosto de
1989, Peratt fue invitado a presentar su trabajo en una conferencia
internacional de radioastrónomos que se ocupa de los campos
magnéticos en las galaxias.

■ FILAMENTOS DEL SUPERCLUSTER

Con el trabajo a escala galáctica en camino a su publicación, el


siguiente paso hacia arriba fueron los filamentos del supercluster, y
en 1985 volví a mis ideas anteriores. Sabía que Peratt había
imaginado que las galaxias estarían encadenadas a lo largo de
filamentos gigantescos de corriente, como yo, y quería desarrollar
una teoría cuantitativa sobre la estructura a gran escala del universo.
¿Por qué las galaxias, cúmulos y súper cúmulos tienen el tamaño que
tienen?
Afortunadamente, el trabajo que había hecho en la determinación de
las velocidades clave en la formación de filamentos sería
fundamental para dicha teoría de la estructura. Curiosamente, el
origen de las ideas cruciales residía en el trabajo que había realizado
sobre un tema totalmente diferente. En 1977 me interesé por el papel
de los vórtices en el sistema climático de la Tierra. El tiempo estaba
en las noticias en ese momento debido a las extraordinarias sequías e
inviernos extremos en gran parte del mundo. Por supuesto, los
principales sistemas meteorológicos del mundo -ciclones y
anticiclones- son vórtices aplastados, y en mi tiempo libre traté de
aprender su física básica.
Encontré que los vórtices tienden a compartir una característica
común - el producto de su densidad y radio es una constante; en otras
palabras, la proporción de su masa a la superficie es constante. Ya me
interesaban las ideas de Bostick sobre las galaxias como vórtices.
Cuando descubrí que él había sugerido que los electrones también
son vórtices (discutido en el Capítulo Ocho), me pregunté si la
relación masa-área sería similar para estos dos ejemplos extremos.
Para mi sorpresa, los valores son realmente similares: unos
quinientos gramos por metro cuadrado para una galaxia y unos
treinta gramos por metro cuadrado para los electrones. (A modo de
comparación, un trozo de papel tiene una relación masa-área de unos
cien gramos por metro cuadrado, de modo que una capa de
electrones pesa un tercio de lo que pesa una hoja de papel, mientras
que una galaxia pesa sólo cinco veces más que un trozo de papel del
tamaño de una galaxia). Considerando que la galaxia pesa 4x1071
tanto como un electrón, estos números parecen bastante cercanos.
Me preguntaba si había alguna relación importante aquí que hiciera
de la relación masa-área una constante universal.
Las coincidencias numéricas son algo peligroso en la ciencia. A
veces son pistas de leyes fundamentales subyacentes, otras veces son
meras coincidencias. No veía cómo podía ser una ley fundamental -
aunque sospechaba que podría serlo-, así que dejé el trabajo de lado.
Pero mientras trabajaba en mi modelo de cuásar, me encontré con un
estudio de 1981 sobre las masas y radios de galaxias y cúmulos de
galaxias. En él, dos astrónomos holandeses, J. Kaastra y H. G. Van
Bueren, muestran que para cada tipo de objeto, la relación
masa/superficie es aproximadamente constante, aunque los objetos
más pequeños puedan ser mil o diez mil veces menos masivos que
los más grandes. Los autores señalan que la relación masa-área de
los cúmulos de galaxias es casi idéntica a la de un electrón, unos
veinte a treinta gramos por metro cuadrado.
Obviamente, hay algo en esta razón - una relación basada en cientos
de galaxias y cúmulos ya no es una coincidencia, sino un hecho. Tal
vez, pensé, hay una buena explicación para el plasma. Había estado
estudiando el libro de Alfven de 1963, Electrodinámica, y sabía que
él clasifica las propiedades del plasma en parte por la "longitud de
colisión" -la distancia promedio que una partícula viaja antes de
chocar con otra.
Los plasmas"no colisionales" son aquellos cuyas dimensiones son
menores que sus longitudes de colisión - las colisiones son raras en
tales plasmas. Me di cuenta de que tal plasma no se contraerá
gravitacionalmente - si las partículas no chocan, permanecerán en
órbita tal como los planetas del sistema solar permanecen en sus
órbitas. Para que una masa de cualquier tipo colapse
gravitacionalmente, las partículas que la componen deben colisionar
entre sí e irradiar su energía. Por lo tanto, el radio de la masa tiene
que ser mayor que la distancia de colisión de sus partículas. Cuanto
más denso es el plasma, menor es la distancia entre colisiones: así,
para una determinada velocidad de partícula, la longitud de colisión
multiplicada por la densidad es una constante -y por tanto también lo
es la relación masa-área del plasma colisionado. Parecía posible que
la constancia de esta relación se relacionara con el hecho de que sólo
un plasma colisional puede contraerse.
Ahora, cuanto más rápido viaja una partícula típica, más lejos va
antes de chocar con algo y mayor es la relación masa-área del plasma
si se producen colisiones. Como la relación masa-área del electrón
parecía ser de alguna manera crítica, y es la misma que la de los
cúmulos de galaxias, me pregunté qué velocidad necesitaría una
partícula si la relación masa-área del plasma fuera a ser la misma que
la de un electrón. Aproximadamente, la respuesta resultó ser de 1.000
km/segundo, sólo la característica de velocidad de los filamentos del
vórtice, medida en el laboratorio.
Esta fue la pista que me llevó a descubrir cómo se forman los
filamentos por inestabilidades (una vez que tuve una expresión
matemática de la velocidad clave, pude adivinar un mecanismo
físico). Unos años despues, sin embargo, esto parecia una posible
pista de como se forma la estructura de las estrellas, galaxias,
cúmulos y súper cúmulos.
Sabía que todos los filamentos debían tener la misma velocidad
característica: 1.070 km/seg, para ser exactos. Si van a colapsar
gravitacionalmente, entonces deben ser colisionales; pero para que se
aplique la velocidad fija, debe haber entonces una relación fija entre
su densidad y radio - un filamento se romperá en bloques de
aproximadamente una distancia de colisión a través. Las manchas
más pequeñas no colapsarán en absoluto, pero las más grandes se
romperán al colapsar.
Todo esto significaba que la distancia entre los objetos que se
contraían fuera de los filamentos, tales como estrellas, galaxias o
cúmulos, debía ser inversamente proporcional a la densidad del
filamento desde el cual se contraían. Densidad veces la distancia
debe ser una constante.
En promedio, las estrellas están separadas en nuestra galaxia por
unos pocos años luz. Antes de que se condense, la materia de una
estrella típica llena un volumen unos pocos años luz a cada lado y
tiene una densidad de unos pocos átomos por centímetro cúbico. La
densidad por distancia es de unos diez átomos por centímetro cúbico
multiplicado por años luz. Este producto debe ser el mismo para
todos los objetos-estrellas, galaxias y cúmulos.
Una manera más conveniente de poner esto es como una relación
entre la masa de un objeto y el cuadrado de la distancia a su vecino
más cercano. Mi predicción era que esta proporción debería ser de
aproximadamente un sexto de un gramo por metro cuadrado, o una
masa solar por cada cincuenta años luz cuadrados. Y los voluminosos
datos publicados sobre estrellas, galaxias y cúmulos confirman mi
predicción: de estrellas a cúmulos, mil billones de veces más
masivos, la proporción de masa a distancia al cuadrado nunca difirió
por más de un factor de cuatro o cinco. Conociendo la masa de un
objeto, podía predecir cuán lejos estaba de su vecino más cercano
(Fig. 6.15).
Esto implicaba que todos estos objetos se habían formado a partir de
filamentos vorticiales cuyas velocidades características estaban muy
cerca de los 1.000 km/seg. calculados. Cualquier otro valor
produciría una distancia de colisión muy diferente y, por lo tanto, una
distancia entre objetos, ya que la distancia aumenta como la cuarta
potencia de la velocidad.

Fig. 6.15 La jerarquía cósmica. Los objetos en el universo se trazan en términos


de dos características. Uno de ellos es su velocidad orbital, la velocidad a la que
un objeto en su superficie debe permanecer en órbita. La otra es la relación entre
su masa y el radio cuadrado o el cuadrado de la distancia a un vecino más
cercano. Las cajas de la derecha usan la distancia más cercana al vecino. Las
cajas de la izquierda utilizan el radio de los objetos: C para cúmulos de galaxias,
G para galaxias, S para estrellas más pesadas (más de 1,8 veces la masa del sol),
y s' para estrellas más ligeras. La relación de DeValcouler se indica por el hecho
de que ninguno de los objetos se encuentra por encima de los 1.000 km/segundo
aproximadamente. La teoría del plasma muestra que las dos líneas horizontales
sólidas son los límites superior e inferior de las velocidades orbitales. La línea
vertical corresponde a plasma que son apenas colisionables a una velocidad de
1.000 km/seg, la velocidad característica de los vórtices de plasma. El diagrama
encapsula claramente la estructura del universo observable. Esto implica que hay
un límite en el tamaño de los filamentos plasmáticos, indicado por la esquina
superior derecha.

Y ahora que esto parecía ser una velocidad universal fundamental,


tenía la solución a otro problema: el del límite de DeVaucouleur.
Conocía el trabajo de DeVaucouleur y otros sobre la relación entre la
masa y la densidad de los objetos astronómicos. Las relaciones
pueden expresarse como un producto de densidad por área de
superficie, una relación de momento angular (spin) a masa cuadrada,
o simplemente una relación de masa a radio, pero sabía que todas las
relaciones equivalen a decir que estos objetos tienen un rango fijo de
velocidades orbitales. Si pones un objeto en órbita en la superficie de
una estrella o en el límite de una galaxia o un cúmulo de galaxias,
tendrá que moverse entre 100 y 1.000 km/seg, nunca mucho más
lento o más rápido.
Ahora, considerando que los cúmulos galácticos son mil trillones de
veces más masivos que las estrellas, parecía extraño que todos estos
objetos tuvieran límites de velocidad similares. Esto es lo que Alfven
había intentado explicar con su cosmología de antimateria. Pero
pensé que tenía una explicación mucho más simple con los
filamentos del vórtice.
Si estos filamentos son esenciales para que un objeto se contraiga,
para eliminar el exceso de momento angular, entonces las
condiciones al principio de la contracción deben ser obviamente
adecuadas para la formación de filamentos. Esto, indica mi teoría,
implica velocidades plasmáticas de alrededor de 160 km/segundo, un
límite más bajo en las velocidades orbitales del objeto final, ya que a
medida que se contrae, su velocidad orbital aumentará. Pero si la
velocidad excediera la velocidad del plasma en los filamentos
mismos, entonces los filamentos serían volados (como se ha
observado en el laboratorio); por lo tanto, cuando se alcanza esa
velocidad, un objeto deja de contraerse. Cualquier velocidad entre
160 y 1.070 km/seg permitirá el desarrollo de filamentos vorticiales.
Así, si el universo fue esculpido por el contrapunto de la contracción
gravitacional y el pellizco de los filamentos del vórtice, su estructura
observada era inevitable. El tamaño y la masa de los objetos
contratados y los espacios entre ellos se determinaron de forma
sencilla. Juntas, la ley del radio de masas para los objetos contraídos
y la ley de la distancia de masas al cuadrado para su espaciamiento
también explican una característica importante del universo: cuanto
más pequeños son los objetos, más aislados están. Así, las estrellas
están separadas entre sí por la distancia, típicamente diez millones de
veces sus propios diámetros, las galaxias por sólo treinta veces sus
diámetros, y los cúmulos por cerca de diez veces sus diámetros. En
resumen, mi teoría explicaba por qué el espacio está tan vacío.
Me entusiasmaron estos resultados: de las simples leyes del plasma y
la gravedad se podía entender toda la jerarquía del cosmos. El
modelo indica que hay otros patrones - por ejemplo, los objetos de
un tipo dado compartirán la misma proporción de masa cuando se
hayan contraído. También se explicó la distribución de las estrellas
en una galaxia. Cuanto más denso es el plasma, más pequeños se
forman los objetos: en los brazos externos de una espiral, donde el
plasma es menos denso, muchas estrellas serán grandes y brillantes,
mientras que en las regiones internas, más densas, tenderán a ser más
pequeñas y más tenues.
Tal vez lo más significativo es que la teoría implica que, de hecho,
existe un límite superior a esta jerarquía de filamentos vorticiales. A
medida que los filamentos crecen a partir de un plasma inicial
homogéneo, eventualmente formarán un solo vórtice, con un radio de
longitud de colisión, que también es autogravitatorio, con una
velocidad orbital igual a 1.000 km/segundo. No debe desarrollarse
ningún filamento más grande. Si un filamento se formara en un
plasma menos denso, su gravedad distorsionaría las trayectorias de
las partículas y evitaría un mayor crecimiento mientras que el vórtice
es aún más pequeño que la distancia de colisión y, por lo tanto,
incapaz de contraerse. En tal plasma, que tendría una densidad
menor a una partícula por cada mil metros cúbicos, no se formarán
galaxias y estrellas. Los plasmas más densos, por otro lado, tienen
filamentos que se autogravan a un tamaño más pequeño.
El diámetro del máximo filamento primordial sería impresionante:
unos diez mil millones de años-luz de diámetro. Calculé
aproximadamente que se comprimiría gravitacionalmente a una
quinta parte de este tamaño, manteniendo su forma filamentosa.
Luego se dividiría en un par de docenas de filamentos más pequeños
espaciados a unos doscientos millones de años luz de distancia - los
filamentos del supercluster, que luego se contraen
gravitacionalmente en cúmulos, y luego en galaxias, y así
sucesivamente.
La teoría indica que los filamentos del supercluster deben ser
agrupados en una estructura más grande de unos mil millones de
años-luz de radio y unos pocos mil millones de años-luz de longitud,
una forma filamentosa alargada. Presenté el artículo completo el 31
de marzo de 1986 en un número especial de la revista IEEE Journal
of Plasma Science, que Peratt editó.
Esperaba que el telescopio espacial Hubble confirmara esta
predicción cuando finalmente fuera puesto en órbita, pero
afortunadamente no tuve que esperar; al día siguiente, el artículo de
Tully anunciando el descubrimiento de los "complejos de
superclusters" apareció en el Astrophysical Journal. (Al igual que en
1984, el hecho de que yo enviara un artículo a Peratt parecía
provocar mágicamente una confirmación de observación
instantánea). Los objetos de Tully eran virtualmente idénticos a lo
que predije, aunque se habían contraído un poco más. Tienen un
radio de unos seiscientos millones de años-luz y una longitud de casi
dos mil millones de años-luz, con una densidad estimada y una
velocidad orbital que encajan perfectamente en mis relaciones.
La misma semana, además, la Naturaleza llevó un documento de C.
A. Collins, quien había medido el movimiento a gran escala de las
galaxias sobre una región casi tan grande como la de los complejos
de los superclusters de Tully. Encontró velocidades de streaming de
970 km/seg, lo más cerca posible de mi predicción de 1.070 km/seg.
Tales velocidades sobre un área tan vasta por sí mismas implican la
existencia de un inmenso objeto gravitatorio -sólo las dimensiones de
la estructura que Tully observó.

■ EL BIG BANG Y EL NEW YORK TIMES

En ese momento, había bases definitivas para desafiar el Big Bang.


Como hemos visto, los descubrimientos de Tully eran demasiado
masivos y antiguos para el Big Bang, pero se mezclaban
perfectamente con modelos alternativos. Tomaría un trillón de años o
más formar los filamentos primordiales, pero en un universo sin
principio, no hay prisa.
Los resultados de Tully se convirtieron rápidamente en un tema
candente en los círculos cosmológicos. Sin embargo, cualquier
alternativa al Big Bang permaneció casi desconocida, ya que la
cosmología del plasma fue rechazada rutinariamente por las revistas
astrofísicas, y nuestros artículos fueron publicados sólo en revistas
de física del plasma, las cuales los astrónomos nunca leyeron.
Sin embargo, se me ofreció una oportunidad de oro para dar la
noticia. Un amigo mío, Randy Rothenberg, había sido contratado
recientemente como editor especializado en artículos científicos en el
New York Times Magazine. En enero de 1986 me llamó para
preguntarme si tenía algún buen artículo que escribir para la revista.
Inmediatamente sugerí un artículo sobre Alfven y el universo de
plasma. Randy estaba entusiasmado y se ganó a los editores de la
revista, que me dieron un contrato.
Por fin iba a encontrarme con Alfven y Peratt, a quienes hasta
entonces sólo conocía por teléfono. En marzo entrevisté a Alfven en
Washington, D.C., mientras viajaba de San Diego a Suecia. A su
manera cortés, Alfven repasó cuidadosamente sus ideas sobre los
problemas del Big Bang y el desarrollo del concepto del universo de
plasma. Pero me advirtió que pensaba que era prematuro para un
artículo sobre el Big Bang, que en su lugar el artículo debería
centrarse en sus teorías más establecidas sobre el sistema solar:
"Espera un año", aconsejó.
El consejo resultó ser profético, pero no pude seguirlo. Tenía un
contrato con una de las publicaciones más leídas del mundo, y los
editores del Times estaban ansiosos por ver por qué el Big Bang
podría estar equivocado. Al mes siguiente me fui a Los Álamos a
reunirme con Peratt.
Peratt me mostró sus simulaciones por computadora de la formación
galáctica, y discutimos nuestras respectivas teorías mientras nos
mostraba a mí y a mi familia las ruinas indias que rodean Los
Álamos.
En la última noche de nuestra visita fui a su casa para tratar de ver el
cometa Halley, que entonces se acercaba a la tierra. Era sólo un
borroso borroso, pero el cielo nocturno era espectacular a través del
aire claro y seco de Los Álamos. La Vía Láctea atravesaba los cielos
en un arco brillante, salpicado aquí y allá con cúmulos globulares,
que se podían ver fácilmente a simple vista. Este era el cielo que
nuestros antepasados vieron antes de la llegada de la electricidad; no
hace falta dar un salto de imaginación para reconocer por qué creían
que lo que sucede en la tierra refleja ese impresionante espectáculo
en los cielos.
Pero pronto me di cuenta de que todavía era difícil para la gente
cambiar sus puntos de vista sobre los cielos. Después de mucho
escribir y reescribir, mi artículo para el Times estaba listo en el
otoño. Randy transmitió la noticia de que el artículo no sólo había
sido aceptado, sino que iba a ser la portada de la edición del 26 de
octubre. Estaba eufórico, pero no por mucho tiempo. Dos semanas
antes de la publicación, el artículo fue cancelado. Había sido enviado
rutinariamente a la sección de ciencia del periódico para su revisión.
Walter Sullivan, quien veinticinco años antes había proclamado la
confirmación del Big Bang en un artículo de primera plana, lo había
vetado. Había descartado a Alfven como un científico bien conocido
por sus ideas inconformista, ideas que, afirmó Sullivan, no tenían
apoyo ni siquiera dentro de la comunidad de la física del plasma.
Durante una semana más o menos Randy y yo nos apresuramos a
refutar la breve nota de Sullivan. Cavó en la morgue del Times para
mostrar el enorme prestigio de Alfven en el campo, y yo recogí
cartas de varios notables de la física del plasma. Pero la decisión
estaba tomada.

■ BIG BANG EN CRISIS

Los consejos de Alfven sobre la moderación, basados en sus décadas


de batallas científicas, resultaron ser buenos. A lo largo de 1987, por
primera vez, las observaciones de la estructura a gran escala
comenzaron a poner en tela de juicio el Big Bang. Al mismo tiempo,
Peratt y yo estábamos formulando una alternativa detallada a la
cosmología convencional.
Estaba claro que cualquier desafío real al Big Bang tendría que
proporcionar una explicación alternativa de los dos fenómenos en los
que se basan los partidarios del Big Bang: la abundancia de
elementos ligeros, especialmente helio, y el fondo de microondas.
Las estrellas existentes no pueden haber producido el 24 por ciento
del universo que es helio. A la velocidad a la que actualmente
producen energía a partir de la fusión, sólo uno o dos por ciento de
su hidrógeno debería haber sido quemado hasta convertirse en helio
en los veinte mil millones de años que nuestra galaxia ha existido.
Por lo tanto, dicen los Big Bangers, el resto deriva de una explosión
primordial.
Pero hay una respuesta más sencilla, como ya he comentado en el
Capítulo Uno. Cuanto más grande es una estrella, más caliente es su
interior y más rápido quema su combustible nuclear. Si, en la primera
etapa de la formación galáctica, se hubiera formado una generación
de estrellas considerablemente más pesadas que el sol, todas ellas se
habrían quemado en unos pocos cientos de millones de años,
explotando como supernovas y esparciendo grandes cantidades de
helio.
Ahora había buenas razones para creer que la primera generación de
estrellas era más masiva. En mis modelos, como en los de Peratt, las
estrellas se formaban dentro y delante de los brazos en espiral
filamentosos mientras rodaban por el medio circundante. La relación
masa-área muestra que a medida que la densidad de un plasma
aumenta, el tamaño de los objetos formados por él disminuye. Así
que a medida que la galaxia se contrajo, las estrellas más grandes se
habrían formado primero y las más pequeñas con vidas más largas se
habrían formado sólo cuando la densidad se había elevado.
Los teóricos convencionales objetan que las estrellas más masivas,
gigantes que culminan en una supernova, también generan grandes
cantidades de oxígeno y carbono. Sin embargo, el universo es sólo de
un 0,5 por ciento de carbono y un 1 por ciento de oxígeno, menos de
lo que cabría esperar si tales estrellas produjeran todo el 24 por
ciento de helio.
Mi modelo proporcionó una respuesta natural a esta objeción. A
medida que los filamentos de los brazos en espiral cortan el plasma,
producen una onda de choque, como la de un avión supersónico.
Dentro del material comprimido de esta onda de choque se formarán
estrellas, a medida que fluyan corrientes pellizcadas a través de ella.
Para estrellas más masivas que diez o doce veces más masivas que el
sol, este proceso continuará hacia afuera desde el plano de la galaxia
-el plano del movimiento del filamento- hasta que exploten como
supernovas, dispersando oxígeno y carbono. Esto interrumpirá la
onda de choque que contribuye a la formación de la estrella,
confinándola así a un disco más bien estrecho. No se formarán
muchas de esas estrellas muy masivas, por lo que la producción de
oxígeno y carbono será limitada.
Pero las estrellas con menos de esta masa no explotarán. Estas
estrellas más sedadas soplarán sólo sus capas externas - helio puro -
no sus núcleos internos, donde los elementos más pesados están
atrapados. A medida que estas estrellas de tamaño mediano, de
cuatro a diez veces más grandes que el sol, se forman en las densas
regiones internas de la galaxia, la onda de choque se extenderá a
través de todo el espesor de la galaxia. Por consiguiente, la
producción de helio superará con creces a la de oxígeno y carbono.
Este modelo predice las cantidades de helio, carbono y oxígeno que
una variedad de galaxias producirán. Los resultados están en
estrecho acuerdo con la observación - casi cualquier galaxia
produciría alrededor del 22 por ciento de helio, 1 por ciento de
oxígeno y 0,5 por ciento de carbono. Es sólo después de que todas
estas estrellas se hayan quemado que la densidad se elevará lo
suficiente para que se formen estrellas aún más claras, de vida más
larga y oscuras como nuestro sol (Fig. 6.16).
Ciertos isótopos de luz raros -deuterio, litio y boro- no pueden haber
sido producidos de esta manera, ya que se queman con demasiada
facilidad en las estrellas. Pero los rayos cósmicos generados por las
primeras estrellas, chocando con el plasma de fondo, también
generarán estas raras sustancias en las cantidades correctas. (Esta era
una idea que científicos como Jean Adouze en Francia habían estado
defendiendo independientemente.) Simplemente no hay necesidad de
un Big Bang para producir ninguno de estos elementos.

Fig. 6.16 Sección transversal de una galaxia en formación. Las estrellas pesadas
que explotan en supernovas y producen elementos pesados, como carbono y
oxígeno, están confinadas al disco marcado I. Las estrellas más ligeras, que
liberan helio puro del cilindro, están marcadas III y IV. Las zonas exteriores,
marcadas con II, siguen siendo hidrógeno puro, pero serán incorporadas a las
estrellas a medida que el cilindro de estrellas que las forma se mueve hacia
afuera.

El fondo de microondas -el segundo fenómeno que una teoría


alternativa necesitaba explicar- era un problema más complejo. Su
enorme energía no era difícil de explicar: Martin Rees de Cambridge
había señalado en 1978 que la energía liberada al producir el helio
observado es suficiente para producir también el fondo de
microondas. Como él calculó, la intensa luz azul y ultravioleta de las
brillantes estrellas primitivas sería absorbida por el polvo interestelar
y reemitida como radiación infrarroja. Mi propio trabajo indica que
las primeras galaxias brillarían unas quinientas veces más que
nuestra propia galaxia en el infrarrojo. (Rowan Robinson acababa de
observar tales galaxias superbrillantes con el Satélite Astronómico
Infrarrojo[IRAS]. Evidentemente están formando galaxias, Johnny-
come-latelies comparadas con la mayoría de las galaxias que
observamos.)
El verdadero problema del fondo de microondas no es su energía,
sino su suavidad. Si viniera directamente de su fuente, varias
galaxias antiguas, su intensidad fluctuaría de una región a otra,
dependiendo de la densidad de las antiguas protogalaxias en
cualquier dirección. Pero no se observan tales variaciones. Esto,
dijeron los cosmólogos convencionales, es una prueba clara de que el
fondo de microondas debe haber venido de algún evento homogéneo
universal: el Big Bang.
La pregunta en mi mente a finales de 1986 fue: ¿Cómo se puede
dispersar la radiación de microondas para que se vuelva suave e
isotrópica, como se ha observado? La respuesta me llegó mientras
conducía por Princeton, después de una visita a la biblioteca de física
(¡quizás la casa cercana de Einstein me inspiró!). Los electrones de
alta energía que giran en espiral alrededor de las líneas del campo
magnético dentro de los filamentos, como cualquier partícula
acelerada, generan radiación sincrotrón -en este caso, de
radiofrecuencias. Y la ley de Kirchhoff, una ley fundamental de la
radiación, establece que cualquier objeto que emita radiación de una
frecuencia dada es capaz de absorber la misma frecuencia. Por lo
tanto, si los electrones en los filamentos absorben fotones del fondo
y luego los vuelven a radiar en otra dirección aleatoria, en efecto
dispersarán la radiación en un baño isotrópico suave, así como las
gotas de niebla dispersan la luz en un gris sin características.
Pronto me enteré de que Peratt había vuelto a ganarme. Calculó la
radiación de su escenario simulado y encontró que el filamento
galáctico produce aproximadamente la misma cantidad de radiación
de microondas que el fondo de microondas. Él también había
razonado que la emisión y reemisión repetidas podrían conducir a la
isotropía y estaba a punto de comenzar un trabajo detallado con un
colega, Bill Peter. Acordamos mantenernos mutuamente informados
para evitar duplicaciones innecesarias.
El único requisito para alisar la radiación de fondo eran muchos
filamentos pequeños, cada uno con un fuerte campo magnético, una
buena descripción de los chorros que emergen de los núcleos
galácticos. Parecía que cada galaxia tiene estos filamentos, como mi
propia teoría indica, y como fue confirmado por la observación (Fig.
6.17). En promedio, un fotón de radiación de fondo encontraría uno
de estos filamentos cada pocos millones de años y se dispersaría.
Después de varios miles de millones de años, la isotropía estaría
completa. Así que el fondo de microondas no es el eco del Big Bang-
es el resplandor difuso de una niebla de filamentos de plasma, el
zumbido de la red de energía cósmica.
Además, esta teoría tenía implicaciones comprobables.
Específicamente, las ondas de radio serán absorbidas por los
filamentos que viajan a través del espacio intergaláctico. En
longitudes de onda largas, entonces las longitudes de onda de radio -
los filamentos parecerían ser negros, excepto por una ligera cantidad
de energía que emiten. Por lo tanto, las fuentes de radio tales como
las galaxias sólo podrían observarse a través de las brechas en el
matorral de filamentos. Por lo tanto, las emisiones de radio de estas
fuentes se harían más escasas con la distancia de la fuente.
Fig. 6.17 En esta imagen de radiotelescopio de la poderosa radio galaxia Cygnus
A, las finas líneas que se extienden desde el punto central ilustran la galaxia
emitiendo chorros o haces que son filamentos libres de fuerza. Tales haces se
rompen en nubes amorfas de filamentos y eventualmente se dispersan a través
del espacio intergaláctico, enfriándose y formando los densos microfilamentos
cuyos electrones dispersan el fondo de microondas.

■ CÓMO ABSORBEN ENERGÍA LOS FILAMENTOS

Mientras trabajaba en la absorción de la radiación por los filamentos,


calculé que el proceso sería muy eficiente. Sin embargo, las
conclusiones de Peratt y Peter fueron muy diferentes - la dispersión
sería mucho menos efectiva. Sus cálculos involucraban los grandes
filamentos del supercluster, que eran menos efectivos que los
filamentos que irradiaban desde los núcleos galácticos que yo usaba,
pero no lo suficiente como para explicar las enormes diferencias en
los resultados. Después de varios meses de preocupación me di
cuenta de que habían asumido que los electrones se movían de forma
más o menos aleatoria en un filamento relativo a las líneas
magnéticas de fuerza. En tal plasma, la temperatura efectiva de los
electrones es casi igual a su energía, extremadamente alta. Cuando
un fotón golpea tales electrones, es tan probable que sean
estimulados para emitir otro fotón como lo son para absorber el fotón
entrante. Los dos efectos se anularían casi por completo el uno al
otro. Yo, sin embargo, había asumido un filamento libre de fuerza, en
el cual los electrones se mueven exactamente a lo largo de las líneas
magnéticas de fuerza: éstas generalmente irradian muy poco, ya que
las líneas de fuerza se curvan sólo suavemente - cuanto más lenta es
la curva, menos radiación. Sin embargo, cuando un electrón absorbe
un fotón, saltará de la línea de fuerza, dando vueltas alrededor de él
en una espiral cerrada hasta que vuelva a emitir un fotón y salte de
nuevo a la línea de campo magnético.
En esta situación, la temperatura efectiva de los electrones será su
movimiento de baja energía alrededor de las líneas de campo, no su
movimiento de alta energía a lo largo de ellas. La mayoría de los
electrones no pueden ser estimulados para emitir fotones porque
están demasiado cerca de las líneas de campo - se necesitaría más
que toda su energía para moverse alrededor del campo magnético
para emitir. Serán capaces de absorber un fotón sólo para volver a
emitirlo más tarde. La absorción no se equilibrará con la emisión
estimulada y será mucho más eficaz que con el movimiento aleatorio
de electrones.
En investigaciones más recientes, me di cuenta de que los chorros de
los núcleos galácticos se romperán espontáneamente en filamentos
cada vez más finos, cada uno de los cuales se pellizca en campos
cada vez más fuertes. (Este fenómeno de filamentación cada vez más
fina se observa en el laboratorio y en el sol, donde las intensidades
de los campos magnéticos están cerca de las de los núcleos
galácticos mucho más grandes.) Estos filamentos más finos pero más
densos aumentan aún más la eficiencia del proceso de dispersión, de
la misma manera que una determinada cantidad de agua, condensada
en gotas de niebla, dispersa la luz de manera mucho más efectiva que
la misma cantidad uniformemente dispersada que el aire húmedo.
Parece que la mayor parte de la dispersión real ocurre en pequeños
subfilamentos de no más de unos pocos cientos de metros de
diámetro, con campos magnéticos de veinticinco mil gauss,
comparables a los campos de las manchas solares o a los fuertes
imanes artificiales de la tierra. (El propio campo de la tierra es como
un gauss.)
Esto contradice directamente la suposición convencional de que el
espacio intergaláctico es completamente transparente a las ondas de
radio. Sin embargo, los astrónomos habían observado que a medida
que uno mira más lejos en el espacio, el número de fuentes de radio
aumenta mucho más lentamente que el número de fuentes ópticas, y
por lo tanto la proporción de fuentes radiobrillantes a ópticamente
brillantes disminuye drásticamente. Por ejemplo, un cuásar distante
tiene sólo una décima parte de probabilidades de ser radio-brillante
que uno cercano. Los cosmólogos han atribuido esto a un proceso
desconocido y misterioso que de alguna manera causó que los
primeros y distantes cuásares fueran menos eficientes en la
producción de radiación de radio, aunque su radiación óptica y de
rayos X no es diferente a la de los actuales cuásares cercanos. Mi
modelo, sin embargo, proporciona la explicación más simple de que
las fuentes de radio están allí, pero no podemos observarlas porque
su radiación es absorbida por los matorrales de filamentos que
intervienen. 5

■ ORGANIZANDO A LA OPOSICIÓN

Presenté mi teoría por primera vez en la Conferencia Internacional


de Física del Plasma del IEEE de mayo de 1987 en Washington, D.C.
Peratt había organizado una sesión sobre plasmas espaciales,
incluyendo media docena de artículos sobre galaxias y cosmología.
Mi trabajo fue bien recibido. Falthammar y Peratt pensaron que el
modelo era válido, al igual que Alfven cuando más tarde lo vio. Pero
lo que más me llamó la atención fue la pregunta formulada por John
Keirein de Ball Aerospace al comienzo de su presentación. Haciendo
una encuesta de paja entre un centenar de físicos del plasma,
5 Puede haber otros mecanismos que ayuden a suavizar el fondo del
microondas. En 1975, N. Wickramasinghe, un antiguo compañero de trabajo de
Steady-Stater Fred Hoyle, y otros propusieron que los diminutos bigotes de
hierro de un milímetro de largo, pero de sólo una millonésima parte de un
centímetro de ancho, podían absorber y dispersar fuertemente las ondas de radio
y las microondas. Tales bigotes pueden producirse en explosiones de supernovas
y dispersarse ampliamente en el espacio intergaláctico.
preguntó: "¿Cuántos creen que el Big Bang probablemente está mal?
Evidentemente, los demás estaban indecisos. Obviamente, entre los
físicos del plasma, el Big Bang no tenía una influencia indivisa.
Mientras escuchaba las presentaciones de Keirein, Peratt y
Falthammar, entre otros, me preguntaba por qué no había periodistas
científicos aquí, atraídos por lo que podría ser una historia candente
en cosmología. Me di cuenta de que los periodistas se sienten
atraídos principalmente por los nuevos descubrimientos -las
observaciones se anuncian en las conferencias de astronomía- y
pidieron a los teóricos, a los cosmólogos convencionales, sus
interpretaciones. Y debido a que los astrónomos que observan nunca
aprenden sobre el trabajo del plasma, el cual no es ampliamente
reportado, deben estar contentos con las respuestas convencionales.
¿Por qué los teóricos del plasma no deberían reunirse con los
observadores, me preguntaba, especialmente con aquellos cuyas
observaciones contradicen las suposiciones del Big Bang? Los
teóricos podrían presentar a los observadores un punto de vista
mucho más coherente con sus observaciones, mientras que un
pequeño taller que reuniera a los dos grupos también atraería a los
periodistas y, por lo tanto, a un público más amplio. Finalmente, los
científicos del plasma aprenderían en profundidad sobre las
observaciones críticas. Al final de la sesión planteé la idea de un
Taller Internacional sobre Cosmología Plasmática con Peratt y
Falthammar, quienes acordaron que sería bueno continuar. Alfven,
entonces en Suecia, más tarde estuvo de acuerdo, aunque pensó que
sería difícil de organizar.
Él tenía razón. Un comité organizador formado por Peratt, Peter,
Yusef-Zadeh y yo hicimos pocos progresos porque no pudimos
encontrar una institución dispuesta a acoger un taller tan
controvertido.
Sin embargo, nuestro trabajo tuvo una mayor difusión cuando una
revisión de mi artículo, originalmente escrito para el Times, fue
publicado en la revista de divulgación científica Discover en junio de
1988. Un breve artículo, escrito por John Horgan, también apareció
en Scientific American. Pero lo que es más importante, hubo una
serie de nuevos resultados. El trabajo de Byrd y Valtonen sobre la
materia oscura fue publicado. S. J. Lilly y otros reportaron el
descubrimiento de galaxias con altísimos corrimientos al rojo que
parecían ser más antiguas que el Big Bang! Los descubrimientos
provocaron una consternación generalizada entre los teóricos:
parecía que se estaba gestando una crisis total.
El interés en las teorías alternativas comenzó a crecer y los
principales observadores como Tully, Shaver y Valtonen expresaron
su interés en el taller. Para entonces, habíamos encontrado un
patrocinador -la Sociedad de Ciencias del Plasma IEEE- y un lugar
para celebrarlo cerca de la Universidad de California en San Diego.
Envié comunicados de prensa para captar la atención pública
necesaria, ya que sin ellos dudaba de que los científicos prestaran
mucha atención. Tanto el New York Times como el Boston Globe
enviaron reporteros; y como Walter Sullivan ya no era el principal
corresponsal del Times para cosmología, la tarea fue para John Noble
Wilford, quien era nuevo en este campo, aunque era un reportero
científico muy experimentado. Wilford vino con una mente abierta y
estaba claramente interesado en la posibilidad de que la sabiduría
convencional pudiera estar equivocada.
La conferencia en sí misma en febrero de 1989 fue un éxito. El
colega de YusefZadeh, Mark Morris, informó sobre la última
evidencia desde el centro de la galaxia de que las fuerzas magnéticas,
no la gravedad de los agujeros negros, deben controlar la formación
de filamentos allí. Rainer Beck, un destacado radioastrónomo de
Alemania Occidental, describió su trabajo sobre los campos
magnéticos en otras galaxias, mostrando cómo contradicen las
explicaciones convencionales. Tully y Shaver presentaron una visión
general de la estructura a gran escala del universo, desde filamentos
locales de unos pocos millones de años-luz hasta aglomeraciones
gigantescas de un billón de años-luz de diámetro. Y toda esta
evidencia fue complementada por Jean-Paul Vigier, un destacado
físico francés, quien describió su trabajo y el de Halton Arp
mostrando concentraciones de cuásares en determinados
corrimientos al rojo.
Las presentaciones teóricas de los físicos del plasma fueron
igualmente exhaustivas. Alfven dio una visión general del universo
del plasma, con Falthammar y Timothy Eastman de la NASA
explicando los fenómenos básicos de los plasmas y cómo ocurren en
el laboratorio y en el sistema solar. Peratt siguió con su descripción
de la formación de la galaxia. Entre sesiones, los dos grupos, los
observadores y los físicos del plasma, participaron en animadas
discusiones (Fig. 6.18). En general, los observadores no se dejaron
convencer rápidamente (imposible en pocos días) ni se mostraron
escépticos.
En el último día de la conferencia de tres días presenté mi propia
teoría de microondas, que también fue bien recibida. La sesión final
se centró en las alternativas a la explicación convencional de la
expansión del Hubble, con presentaciones de Paul Marmet del
Consejo Canadiense de Investigación, Vigier, y Keirein.
Al final, repetí la encuesta de Keirein. Le pregunté: "¿Cuántos están
seguros, más allá de toda duda razonable, de que el Big Bang está
mal..." Todas las manos de los físicos de plasma se levantaron, no de
forma inesperada. Finalmente, "Cuántos creen que queda una duda
razonable sobre el Big Bang", se levantaron todas las manos del resto
de los observadores. Evidentemente, el taller había suscitado algunas
dudas.
Fig. 6.18 Después del Taller Internacional de Cosmología Plasmática de febrero
de 1989, Hannes Alfven (segundo desde la izquierda) se relaja con Tony Peratt
(centro) y el autor (derecha) en su casa en San Diego.

Pero había hecho más que eso. Por primera vez los datos que
entraban en conflicto con el Big Bang y las explicaciones
alternativas del plasma se reunieron en una sola conferencia. Y la
cobertura de la prensa fue excelente: el Times publicó un artículo
prominente que describía "El primer desafío serio al Big Bang en
veinticinco años", y el Globe publicó un artículo detallado y preciso.
A partir de ahora, no habría duda de que los científicos y gran parte
del público en general serían conscientes de que el Big Bang no es la
única posibilidad cosmológica.
Sin embargo, una pregunta planteada en la conferencia me preocupó.
Después de mi presentación, Tully había preguntado si mi teoría de
que las ondas de radio son absorbidas cuando viajan entre galaxias
contradice las observaciones de las espirales cercanas. Debido a que
existe una correlación entre el brillo infrarrojo de una galaxia y el de
la radio, pero se supone que la radiación infrarroja no es absorbida,
la correlación debería cambiar con la distancia, si las ondas de radio
son absorbidas. En otras palabras, las emisiones de infrarrojos no
deben disminuir con la distancia, sino que las emisiones de
radiofrecuencia, de la misma manera que un faro delantero es
atenuado por la niebla. Sin embargo, continuó Tully, éste no es el
caso, así que mi teoría está en contradicción. Le respondí que, según
mi mejor recuerdo, la correlación no es tan estrecha como para evitar
la caída de la intensidad de radio que predije.
Volando a casa desde California me preguntaba si esto podría ser una
prueba crucial de mi teoría. En mayo encontré una nueva colección
de datos sobre 237 galaxias, compilada por Nicholas Devereux de la
Universidad de Massachusetts: mostraba alguna correlación entre el
brillo de la radio y el del infrarrojo, pero con una dispersión
considerable. Las distancias galácticas, sin embargo, no fueron dadas
en el documento, así que llamé a Devereux y él amablemente me
envió los datos.
En efecto, había una clara correlación. Cuando tomé en cuenta el
hecho de que la densidad de los filamentos, y por lo tanto el
desvanecimiento, es mayor cerca de la tierra (porque nuestra galaxia
está en una parte densa del complejo del supercluster), mi modelo
predijo que las galaxias a una distancia de treinta a cien millones de
años-luz deberían estar cerca de 3.4 veces más oscuras en
frecuencias de radio que las cercanas (permitiendo, por supuesto, la
pérdida cuantificable de brillo debido a la distancia). Los datos
mostraron un desvanecimiento de 3.9, un gran acuerdo, considerando
la posibilidad de dos en un billón de que la correlación sea accidental
y que realmente no haya desvanecimiento (Fig. 6.19).
Aquí había pruebas claras no sólo de que mi teoría es correcta, sino
de que la explicación convencional basada en el Big Bang debe estar
equivocada. Tal absorción distorsionaría en gran medida la radiación
originada a diez mil millones de años-luz de distancia, como la teoría
del Big Bang afirma que tenía el fondo de microondas. El fondo
cósmico debe, de hecho, ser generado localmente, cerca de nuestra
galaxia, por un medio intergaláctico que absorbe y emite radiación.
Decidí que finalmente había evidencia que los cosmólogos
convencionales no podían ignorar, y en julio de 1989 presenté un
trabajo en el Astrophysical Journal, la principal publicación
astronómica. Anteriormente, esta revista no había aceptado trabajos
de plasmacosmología ya que fueron revisados y vetados por
cosmólogos convencionales. Pero pensé que esta evidencia
observacional sería demasiado fuerte para rechazarla.
No es sorprendente que los revisores hayan planteado varias
objeciones a mi afirmación de que las emisiones de radio fueron
absorbidas en el espacio intergaláctico y que, por lo tanto, la
explicación convencional del fondo de microondas es errónea. ¿Se
mantuvo la disminución del brillo de la radio a una distancia mayor?
preguntó un revisor. Tal vez las galaxias más brillantes que se pueden
ver más lejos tengan intrínsecamente menos radiación de radio,
según otra sugerencia: "Es impensable que estas conclusiones sean
correctas", mencionó, advirtiendo solícitamente que el documento
perjudicaría mi reputación si se publicara.

Fig. 6.19 El brillo aparente de radio de las galaxias se traza contra su distancia.
El brillo de la radio parece desvanecerse rápidamente con la distancia, lo que
implica que las ondas de radio están siendo absorbidas o dispersadas por el
medio intergaláctico.

Durante varios meses, respondí a cada objeción por separado, usando


nuevos datos para mostrar que de hecho la disminución en el brillo
de la radio continuaba a mil millones de años-luz de la Tierra y que
incluso las galaxias con idénticos brillos infrarrojos eran más débiles
en la radio cuanto más lejanas estaban. Finalmente, en marzo de
1990, llamé al editor gerente, Helmut Abt, e insté a que se publicara
el documento para que los temas pudieran ser debatidos más
ampliamente que sólo entre los revisores y yo mismo. Aceptó a
regañadientes, comentando con severidad: "Podemos esperar mucho
rechazo en este caso".
Hasta ahora, no ha habido respuesta de los cosmólogos
convencionales a las nuevas teorías del fondo de microondas.
Simplemente han ignorado mi trabajo, el de Peratt y el de Alfven.
Mientras que yo y otros hemos enviado documentos a cosmólogos
líderes como George Field y Jeremiah Ostriker, ellos se han negado a
discutir las teorías substancialmente, con comentarios sin
compromiso como "No estoy convencido" o "Puede que tengas
razón".
Al igual que con Chapman décadas atrás, los cosmólogos de hoy en
día no están dispuestos a debatir puntos de vista alternativos. Esto
también se aplica a las observaciones que van en contra de la teoría
existente, como los datos que indican la absorción de las ondas de
radio. Los cosmólogos de hoy, como los oponentes de Galileo hace
cuatro siglos, no mirarán a través del telescopio.

■ EL MISTERIO DEL HUBBLE

La evidencia presente muestra que el Big Bang, inicialmente


introducido para explicar la expansión del Hubble, no hace
predicciones que correspondan a la observación. Está claramente
contradicho por las observaciones de Tully de los complejos de
superclusters y por las confirmaciones más recientes de estructuras a
gran escala. Sin embargo, la cosmología del plasma puede explicar
esta estructura, así como la abundancia de los elementos de luz y el
fondo de microondas. También puede explicar fenómenos que el
modelo del Big Bang excluye, como la absorción de ondas de radio
por el medio intergaláctico y la formación de galaxias espirales y
cuásares. Esto nos devuelve al problema: ¿Qué causó la expansión
del Hubble? El debate cosmológico no se resolverá hasta que se
responda a esta pregunta básica.
Resulta que en realidad hay media docena de explicaciones que
compiten entre sí.
La primera, por supuesto, es la teoría de la antimateria de Alfven.
Una segunda, que implica las menores concesiones de la cosmología
convencional, se basa directamente en la relatividad general. Las
ecuaciones de Einstein permiten un número infinito de soluciones,
sólo algunas de las cuales producen una singularidad: un punto de
origen. Otras soluciones presentan un universo que se contrae a un
cierto tamaño, y luego gira suavemente para expandirse de nuevo.
No tiene origen en el tiempo. Lo que empuja al cosmos a separarse
es la fuerza cosmológica discutida en el Capítulo Cuatro - una fuerza
repulsiva universal que se asemeja a la fuerza centrífuga pero que
opera en todas las direcciones por igual.
Esta solución relativista funcionará para un universo con tan poca
materia como la nuestra parece tener, pero el cosmos estaría
"cerrado" en el espacio finito debido a la curvatura generada por la
energía en el campo repulsivo. Dado que la constante cosmológica -
la fuerza de la fuerza cosmológica- puede ajustarse en este modelo,
el estado mínimo de contracción puede ser bastante grande, por
ejemplo, mil millones de años-luz a lo largo de mil millones de años
luz, de modo que las estructuras a gran escala que habrían tardado
cientos de miles de millones de años en formarse podrían sobrevivir
al punto mínimo de contracción.
Esto es lo que Alfven ha denominado una "solución de Tycho
Brahe": así como Brahe combinó las teorías heliocéntricas y
geocéntricas, ésta se aferra a un universo relativista general,
reconciliándolo con un universo plasmático de duración infinita. No
se contradice fácilmente con la observación, pero tampoco se puede
confirmar. El universo se está expandiendo, desde este punto de
vista, debido a una fuerza expansionista universal, no mucho mejor
que la explicación de Aristóteles de las fases de la luna: ¡Porque la
luna tiende a tener fases!
Otro enfoque de la relación con el Hubble niega que representa una
verdadera expansión del universo, un proceso en el cual el universo
se ha vuelto cada vez más difuso. Los corrimientos al rojo son reales,
pero no significan lo que los astrónomos han pensado. Por ejemplo,
la luz puede perder energía a medida que viaja por el espacio,
desplazándola hacia el rojo. O tal vez todos los objetos, todo el
espacio se expande continuamente, un pequeño porcentaje al año.
Los objetos distantes son corridos al rojo, pero no se produce una
verdadera expansión, ya que la densidad de todo sigue siendo la
misma.
Muchas de estas teorías han sido elaboradas en los últimos años, y
todas tienen problemas. La cuestión de la relación del Hubble
permanece sin respuesta, y otras preguntas fundamentales sobre el
cosmos también deben permanecer sin respuesta hasta que se
encuentre una teoría adecuada. Se necesita mucho más trabajo
teórico y de observación.
Pero no estamos atascados con el Big Bang por defecto. Es una
explicación de la relación del Hubble que está claramente
contradicha por la observación y puede ser claramente descartada.
No hay evidencia de que el universo tuviera un comienzo en el
tiempo.
Si el universo es verdaderamente infinito en tiempo y espacio,
entonces las implicaciones van mucho más allá de la cosmología
para toda nuestra visión de la naturaleza, para la religión, la filosofía
y la sociedad como un todo. Es a estas implicaciones a las que nos
referimos ahora.

NOTA
1. Hannes Alfven, "How Should We Approach Cosmology?" in
Problems of Physics and Evolution of the Universe, Academy of
Sciences of Armenian SSR, Yerevan, 1978.