Animado por Leopold Infeld y con la intención expresa de apoyar a este financieramente,
Einstein aceptó el reto de escribir un libro divulgativo con el título La evolución de la física (The
Evolution of Physics: The Growth of Ideas From Early Concepts to Relativity and Quanta,
Cambridge University Press, 1938). Sobra advertir al lector que el libro fue todo un éxito
editorial. Muerto Einstein, Infeld escribió un prólogo con las ligeras actualizaciones que
consideró necesarias (1960). El espíritu con el que fue escrito ese texto en gran medida sirvió
de inspiración a la primera parte de este ensayo. Sus autores establecen una interesante
comparación en el primer párrafo del primer capítulo, primera sección, THE GREAT MYSTERY
STORY (EL GRAN MISTERIO, en la edición de Salvat, 1986) entre una novela de misterio y la
construcción de la ciencia:
«En la imaginación existe la historia de misterio perfecta. … Si seguimos la trama cuidadosamente,
llegamos a la solución (del misterio) por nosotros mismos. …»
Pero, señalan los autores, cosa muy diferente ocurre con los misterios en el libro de la
naturaleza. Y recalcan en el tercer párrafo:
«El gran misterio (no subrayado en la versión original) permanece aún sin explicación. Ni siquiera
podemos estar seguros de que tenga una solución final. La lectura (del gran libro de la naturaleza) nos
ha hecho progresar mucho; nos ha enseñado los rudimentos del lenguaje de la naturaleza; nos ha
capacitado para interpretar muchas claves y ha sido una fuente de gozo y satisfacción en el avance a
menudo doloroso de la ciencia. A pesar del gran número de volúmenes leídos e interpretados, tenemos
conciencia de estar lejos de haber alcanzado una solución completa, si en realidad existe.»
Ese párrafo resulta ser hoy más riguroso que nunca. Al gran misterio le han sucedido los
misterios de la física cuántica. Einstein denominó a sus consecuencias Spooky actions at a
distance (Acciones fantasmagóricas a distancia), las que rechazó por absurdas. De haber hecho
su revisión unos pocos años más tarde, Infeld hubiera podido modificar profundamente la
cuarta parte del texto, la que se refiere a los cuantos, agregando a ella en particular, no ya la
predicción, sino la comprobación, de esas extrañas acciones instantáneas a distancia conocidas
como entrelazamiento. Formado en la disciplina científica más exitosa del siglo XX, debo
reconocer mi profunda ignorancia e incapacidad para poder entender esos misterios a
cabalidad. Parecería que el gran misterio cuántico escapa a nuestra comprensión.
El presente texto, una divulgación de la evolución de la física durante el último siglo en lo que
se refiere a el universo cuántico, es hasta cierto punto una historia de misterio, mucho más
que una simple novela de ficción, o si se quiere, un relato de suspenso que pareciera no estar
sacado de la historia real de la ciencia; en ella se dice lo que va a ocurrir desde el comienzo;
ello no impide que el misterio se mantenga y, sobre todo, aunque continúe sin resolverse,
podamos usarlo a nuestro favor… o en nuestra contra; ello depende de nosotros mismos. La
primera parte se limita a lo que empezó como una transformación en la forma de hacer
ciencia, dentro de la más básica de todas, la física. La segunda, con la participación de otros 2
autores y en preparación, se aventura a hacer algunas conjeturas, con base en lo que ha
ocurrido en menos de dos décadas del presente siglo
La frase que sirvió de entrada a esta breve presentación fue tomada literalmente de "Physics
and Reality" (1936), en Ideas and Opinions, de la traducción al inglés realizada por Sonja
Bargmann (New York, Crown Publishers, 1982), p292. Usualmente se traduce y es citada en
forma ligeramente diferente: “Lo más incomprensible del universo es que sea comprensible”,
o en esta otra forma, más sutil y más fiel: “El eterno misterio del mundo radica en su
inteligibilidad”.
Quizá en su momento (1936), poco después de haber sido publicado el famoso texto de
Einstein, Podolsky y Rosen (1935) que diera lugar a la célebre “paradoja EPR”, la frase tendría
sentido. En nuestra opinión, si Einstein hubiera vivido para verlo, podría reconocer que su
citada frase ya no es del todo cierta: el universo ya no es comprehensible, al menos en el
sentido exigido por la localidad einsteniana. En primer lugar, hoy ya no podría llamarse
paradoja: el texto o artículo citado por las iniciales de los apellidos de sus autores, EPR, es un
experimento pensado; de acuerdo con lo inverosímil de sus predicciones, lo que se pretendía
demostrar era la incompletez de la mecánica cuántica. Esto ocurrió casi medio siglo antes de
que se diera la contundente verificación experimental del fenómeno del entrelazamiento
cuántico (1982), el más misterioso de toda la física conocida hasta el presente. En segundo
lugar, lo que ellos supusieron equivocado resultó ser lo correcto: la localidad no se presenta,
como lo demostró John S. Bell (1964). La Segunda Revolución Cuántica nos ha llevado a
comprobar las más extravagantes predicciones e implicaciones de la teoría que lleva ese
nombre y por ende sus posibles aplicaciones. «El gran misterio permanece aún sin
explicación», y a lo mejor tenga la misma suerte que el gato de Schrödinger: vivo y muerto a la
vez, mientras la caja permanezca cerrada, como establece el principio de superposición, el más
extraño de todos los principios de la física, mucho más que el principio de incertidumbre. O
para decirlo en las palabras de Pascual Jordan: “La observación no solo perturba lo que se
mide, ella lo produce… nosotros mismos producimos los resultados de la medida.” (Jammer,
1974.) (The philosophy of quantum mechanics.)
En el segundo tomo, escrito a 6 manos, nos ocuparemos más a fondo de algunas de las
implicaciones de esa física que, aunque se completó en su formulación básica matemática
hace casi un siglo y dio lugar a una revolución tecnológica que transformó el mundo, está
produciendo en la primera parte del siglo XXI una revolución científico-técnica sin parangón, la
segunda revolución cuántica.
CONTENIDO
PRÓLOGO
DEDICATORIA
INTRODUCCIÓN
A modo de prolegómenos
Un largo trecho
Un mundo sui-generis
Prolegómenos
Cuerpo negro, cuantización y evolución como conceptos
Más allá de la dialéctica
La universalidad de los cuantos y la evolución cultural
Motivaciones intrínsecas y extrínsecas
Justificando un doble calificativo
Síntesis de la evolución biológico-cultural
Evolución de la física y fin de la historia
La información es más fundamental que la materia y la energía
PRIMERA PARTE
Qué es y qué no es la Mecánica Cuántica
1. Evolución de las ideas
2. Los primeros conceptos cuánticos
3. Los primeros experimentos con electrones
4. De vuelta al gran misterio
5. Los primeros principios: un formalismo matemático
6. Acciones fantasmagóricas a distancia
7. De regreso a la filosofía natural
8. Interpretaciones múltiples
SEGUNDA PARTE
Física Cuántica y algunas de sus aplicaciones
9. Del átomo al estado sólido
10. Del núcleo del átomo al núcleo de las estrellas y de las galaxias
11. De la electrónica a los nanodispositivos
12. Nanociencia, nanomedicina y nanoneurociencias
13. La física subatómica
14. Futuras aplicaciones
EPÍLOGO
APÉNDICE
Las dos grandes teorías deterministas
1. Mecánica
2. Electrodinámica
3. Ondas y campos
REFERENCIAS
PRÓLOGO
Carlos Eduardo Vasco Uribe
DEDICATORIA
Esta introducción puede parecer excesiva para un texto de divulgación científica… y lo es,
tanto como del dicho al hecho… Es muy largo el camino recorrido por la Humanidad en su
búsqueda del ser humano. Este primer tomo de Quantum Sapiens es apenas una modesta e
insignificante contribución a ese proceso.
La divulgación puede hacerse de muchas maneras. Divulgar el quantum, “un esqueleto en el
armario de la física”, o el secreto de familia mejor guardado, es ciertamente peligroso. A lo
mejor ningún esquema de divulgación por sí solo cumpla los propósitos que a nuestro modo
de ver han de exigirse en el caso que nos ocupa: el QUANTUM con todas sus implicaciones.
Antes que cualquier otra cosa, en la divulgación científica ha de evitarse la vulgarización. Si con
la divulgación del enigma cuántico no caemos en ella, habremos logrado una buena parte del
propósito principal que tenemos en mente. (Véase además Rosemblum y Kuttner, 2011.) Pero
hay muchos otros.
En efecto, son muchas las razones que nos llevaron a escribir este «ensayo pedagógico», si es
que se puede clasificar de alguna manera. Más abundantes son las motivaciones que se
tuvieron a la hora de abordar el asunto, los quanta, en la forma en que finalmente se hizo. En
esta y la siguiente subsección se resume la motivación principal: son, pues, la verdadera
introducción. Las otras subsecciones de la presente INTRODUCCIÓN bien hubieran podido
incorporarse como PRIMERA PARTE, pero un lector apresurado podría dejarlas de lado en una
lectura inicial, para volver a ellas solo si lo considera pertinente. Son un anticipo, además, al
segundo tomo anunciado arriba.
En 2005 se celebró en el mundo, por resolución de la Asamblea General de la Organización de
las Naciones Unidas, el Año Internacional de la Física. Una resolución similar denominó a 2015
Año Internacional de la Luz. No sobra advertir que en las 2 celebraciones la figura principal a
recordar fue la del físico Albert Einstein, quien en 1905 sentó los pilares básicos de dos nuevas
teorías físicas y en 1915 completó su obra cumbre, la teoría general de gravitación universal.
Su máxima aspiración, una teoría unificada, continúa siendo hoy una quimera, a pesar de que
muchos creen que estamos cerca de la teoría del todo.
La idea central con estas celebraciones es doble: acercar al grueso público a las ciencias, para
el caso la física, y recordar a los políticos y otros líderes sociales la importancia de las mismas
para el desarrollo de los países. Como contribución a la primera celebración, uno de los
autores escribió una monografía que tuvo gran acogida: Genio entre genios, breve reseña de la
vida y obra del físico más afamado de todos los tiempos. No es por mera coincidencia que su
nombre se cita más de 200 veces en estas notas. (Giraldo, 2005. Una versión electrónica puede
verse en: www.ethosbuinaima.org)
A diferencia de otros ensayos, en donde se subrayan los aportes de Einstein a la relatividad del
tiempo y el espacio y a su teoría general de relatividad, o Teoría de la Gravitación (GT, por sus
siglas en inglés, coincidente con Teoría General), aquella reseña destaca el carácter pacifista y
humanista del genio y su contribución singular a los fundamentos de la Teoría Cuántica (QT)
(comportamiento dual de la luz), misma que finalmente declaró incompleta; se subraya
también allí su no menos importante contribución a la mecánica estadística, aunque poco
suela destacarse; en efecto, retomando los aportes de Maxwell y Boltzmann, Einstein elaboró
un modelo matemático fundamentado en la hipótesis atómica para explicar por primera vez el
hasta entonces extraño movimiento browniano, abriendo de paso la posibilidad de medir
indirectamente el tamaño de átomos y moléculas. Esto lo hizo en una época y en un entorno
poco favorable para las ideas atomistas, tan poco que los resultados de su tesis doctoral, vale
decir el autor de la tesis y el artículo que reseñaba su trabajo, pasaron inadvertidos. Pero el
autor había ido mucho más lejos, y antes de la monografía sobre su tesis doctoral había
publicado 4 artículos, 3 de los cuales resultaban a todas luces controvertibles para la física del
momento. Él mismo calificaba algunos de ellos de revolucionarios. El primero, conectado con
su tesis, fue precisamente Sobre el movimiento requerido por la teoría cinética molecular del
calor de pequeñas partículas suspendidas en un líquido estacionario.*
Otra gran contribución de Einstein a la física estadística la realizó con un gran físico hindú,
Satyendra Nath Bose, y se denomina por ello estadística de Bose–Einstein. A esta y a la de
Fermi–Dirac, la otra pieza de la Física Estadística Cuántica, tendremos que referirnos
posteriormente. La última surge a partir de otro principio cuántico de fundamental
importancia, el Principio de Exclusión, debido a Wolfgan Pauli. Las partículas que obedecen
una u otra, se denominan genéricamente bosones o fermiones, respectivamente. Así, pues,
Einstein tuvo que ver con el desarrollo posterior (léase actual) de los campos esenciales de la
física.
Coincidió la primera celebración con una campaña del Ministerio de Educación Nacional
promocionando las Competencias científicas. El autor de esta primera parte de QS contribuyó
con unos talleres sobre Nanotecnociencia, dirigidos a docentes de enseñanza básica, que
dieron lugar después a un escrito a varias manos. (Giraldo et al., 2007.) El punto de encuentro
entre las dos actividades, monografía y nanotalleres, vuelve a ser la física cuántica, la que
establece las leyes y los principios que regulan el comportamiento de los átomos, su interior y
sus agregados moleculares. Surgió entonces la propuesta a la Dirección Académica de la Sede
Bogotá de la Universidad Nacional de Colombia, por parte de Giraldo, de establecer un curso
de libre elección, dirigido a estudiantes de todos los programas académicos. El curso se
denominó Cuántica para todos y para todo y ha tenido gran acogida desde que se instauró con
ese nombre. Solemos referirnos a él por sus iniciales, CPTPT. Para ayudar al desarrollo del
curso se escribieron unas notas recopiladas en el texto Unos cuantos para todo. (Giraldo,
2009.) La idea central del curso y de las notas es darle una orientación más humanística a lo
que puede derivarse de la cuántica, de sus aplicaciones y sus implicaciones. Lo que se
*
Reflexionando sobre la incidencia del primero y el último de los trabajos de Einstein de aquel año (la
tesis fue publicada a comienzos de 1906), y el cercano suicidio de Ludwig Boltzmann (ocurrido en
septiembre de 1906), junto con las especulaciones sobre la posible incidencia que tuvo en el
infortunado acontecimiento el rechazo de su teoría por parte de los más eminentes físicos alemanes del
momento, uno se pregunta qué habría pasado si Boltzmann hubiera conocido los trabajos de Einstein.
¿No habría podido ser otro el trágico final de su historia? ¡Nunca lo sabremos! ¿O quizá sí?
pretende con Quantum sapiens es acercar esos conceptos y sus aplicaciones presentes y
futuras a una audiencia más amplia. Esto es tanto más importante por cuanto las nuevas
tecnologías, no solamente las de la información y de la comunicación, en general las llamadas
tecnologías convergentes, dependen enormemente de la manipulación de la materia a escala
microscópica, vale decir, atómica, molecular y nanométrica. Pero quisiéramos ir todavía más
lejos, y es lo que intentaremos con la segunda parte de QS, a la que contribuirán otros dos
colegas y amigos, Eugenio Andrade y Carlos Eduardo Maldonado.
Un mundo sui-generis
Nos hemos referido a lo nano en más de una ocasión en el párrafo anterior y lo haremos
repetidamente a lo largo de este y el próximo tomo. ¡Tan importante lo consideramos! Está
próximo a publicarse un texto divulgativo en el que se hable sin rodeos de lo que en nuestra
opinión puede llamarse Nano-revolución, de sus promesas, riesgos y amenazas. (Giraldo,
2016.) ¿Por qué consideramos ese tema como prioritario? En el capítulo dedicado a las
aplicaciones de la mecánica cuántica haremos una breve sinopsis del tema. Por ahora, baste
con destacar lo esencial del asunto, empezando por señalar que la nanotecnología es la más
importante de las llamadas tecnologías convergentes.*
Un nanómetro es ciertamente una unidad de longitud muy importante en una de las escalas
que nos interesan, la escala atómica y la molecular. A esa escala y un poco más arriba los
efectos cuánticos son de fundamental importancia. En la inferior, la subatómica, también de
fundamental interés en el tema que nos ocupa, tendremos que introducir otras unidades; una
de ellas, el fermi o femtómetro, es la más destacada en el terreno de los fenómenos nucleares.
A todos ellos, lo nano y lo nuclear, volveremos en la segunda parte.
Desde el comienzo del CPTPT, Andrade y Maldonado han contribuido con sendas conferencias
al desarrollo del mismo. Por esta y otras razones, surgió la idea de escribir un ensayo a seis
manos que incluyera lo cuántico, lo complejo y lo biológico (doblemente complejo), ambiciosa
tarea todavía inconclusa.
Con el título se quiere sugerir que, si bien este primer texto y el curso que le acompaña es una
introducción light a la cuántica, en modo alguno vulgarizadora (eso es lo mínimo que
esperamos), no se ha adoptado en él un enfoque convencional del tema central, la QT; lo de
sapiens, aunque secundario en cuanto a la profundidad que a él se dedica dentro del primer
tomo, por falta de espacio-tiempo, sigue siendo lo fundamental, pero desde otra perspectiva:
tiene que ver de nuevo con el humanismo y la humanización, o si se prefiere, con ese proceso
evolutivo de 13,750 millones de años que nos ha llevado a estar donde nos encontramos. Con
el subtítulo (1ª y 2ª revolución cuántica, respectivamente, para el primero y segundo tomo
*
El término podría referirse a convergencia del conocimiento, pero lo es a la convergencia de varias
tecnologías, impactadas todas ellas por la nanotecnología o tecnología a escala nanométrica. En el
sistema M.K.S.A. (metro-kilogramo-segundo-amperio) que usualmente se emplea en nuestro medio, a la
unidad de medida, el metro, se le acompaña como bien se sabe de múltiplos y submúltiplos. Se suele
emplear la denominada notación científica. El kilómetro, 1000 metros, se expresa así: 1 km = 10 3 m. La
milésima parte del metro, el milímetro, se escribe: 1 mm = 10-3 m. Así, pues, el nanómetro, nm,
equivalente a una milésima de milésima de milésima de metro, se denota así: 1 nm = 10-9 m. Para
ilustrarlo mejor con un ejemplo, el radio del átomo de hidrógeno, H, es aproximadamente igual a medio
angstrom, más rigurosamente, ångström o Å. 1 Å = 10-10 m, así que el radio de un átomo de H será de
0.5 Å o 0.05 nm.
respectivamente) se están anticipando las conclusiones. Una de ellas, quizá la más importante,
es ésta: La segunda ola, la mayor revolución o verdadera Era de la Información está por venir e
involucra a los quanta. En otras palabras, aunque la información siempre ha estado presente,
desde antes de la gran explosión, hasta ahora se tiene la oportunidad de utilizarla en forma
más refinada, gracias a la comúnmente denominada mecánica cuántica y a sus aplicaciones,
sobre todo futuras. Eso introducirá profundos cambios en la especie humana, en su
comportamiento y en su futuro desarrollo o evolución. ¿Puede nuestra especie, sobre todo su
dirigencia política y social, seguir ignorando olímpicamente esa parte fundamental de la
ciencia mientras que por otro lado la tecnología toda depende cada vez más de aquella? A
responder esa pregunta, o mejor, a ratificar que lo cuántico invade todas las esferas del
universo y por ende del ser humano, quieren contribuir estos textos. Hasta aquí va la
verdadera introducción; lo que sigue es una ampliación o motivación más profunda para la
reflexión sobre las nuevas perspectivas de la humanidad desde un punto de vista cuántico.
Puede dejarse de lado en una primera lectura, a juicio del lector.
Prolegómenos
Es posible que en una próxima edición, seguramente indispensable si la idea original sobre el
quantum sapiens en 2 partes sobrevive, la actual distribución se modifique. Entonces estos
prolegómenos extendidos podrían ser, por conveniencia, una primera parte. Por ahora, se
intenta con ellos exponer ampliamente algunas de las motivaciones adicionales que nos
llevaron a escribir las diversas secciones en que estaría dividido el ensayo en su totalidad:
incursionar en el tema sugerido por el sapiens, la evolución, para relacionarlo con el tema
principal, los cuantos, sus aplicaciones e implicaciones, y orientar al lector para que saque sus
propias conclusiones, con un mejor aprovechamiento del contenido. Podría decirse que el
apéndice, una breve introducción a la física clásica, forma parte de la sección introductoria. Si
se ha puesto al final en esta primera versión, es porque se abriga la esperanza de que, más allá
del lector inquieto, el material interese también, aunque sea medianamente, a algunos de los
iniciados en el tema de la física, al menos a los estudiantes de la disciplina, ciencia básica por
excelencia, y a los de ciencias e ingenierías, en cuyo caso no amerita que se incorpore dentro
de la parte central del texto. En otras palabras, aunque la orientación que se le quiere dar a
estas notas tiene un componente humanístico considerable, los asuntos tratados en este
primer tomo no se han podido desligar demasiado del enfoque convencional.
Anticipemos, pues, que el tema de la evolución biológica y otros relacionados, el origen de la
mente y de la conciencia, una nueva revolución cognitiva alimentada por la inteligencia
artificial, por ejemplo, y algunos más que nos interesan, no se cubrirán a satisfacción por
ahora. Observemos, de paso, que a pesar de los avances, los logros hacia el entendimiento de
lo que somos son todavía incipientes. Más que sapiens sapiens, somos en realidad incipiens
sapiens. O como proponen Margulis y Sagan (1997), insapiens insipiens.
Cuerpo negro, cuantización y evolución como conceptos
Confiamos que dejaremos claro antes del epílogo de este primer tomo el significado de
algunos términos que se utilizarán en esta prolongada introducción a las distintas partes que
conforman el texto. Precisar la terminología, en especial sobre lo referente al Quantum, lo que
se hará en particular en la primera parte, no significa que hayamos entendido. Antes bien, si el
lector desprevenido (el no-físico) no siente vértigo al terminar esa primera parte, es porque no
ha entendido las implicaciones de los principios cuánticos, esbozados en ella sin el formalismo
matemático que se requiere. No cabe duda que los físicos, los buenos estudiantes de la
disciplina y con ellos muchos otros profesionales que necesitan del formalismo, el cual suele
enunciarse al estilo de los postulados matemáticos, lo entenderán. Quizá ni unos ni otros
hayan entendido el mensaje; los autores confiesan que todavía no lo comprenden del todo. La
segunda parte de este primer tomo servirá solamente para referirse, sin mayor profundidad, a
algunas aplicaciones que podrían denominarse clásicas; es una especie de motivación, para
que el lector convencional siga adelante; las verdaderas aplicaciones, con el comportamiento
cuántico como característica esencial, están por venir. La tercera parte nos acercará a la
revolución (¿evolución?) que estamos viviendo. Allí el vértigo puede convertirse en náuseas… o
pesadillas. Comencemos.
Pregunta hipotética de un lector, sugerida por el título: ¿Qué tiene que ver el quantum con la
evolución de la especie humana?
Respuesta parcial de los autores: Mucho, al menos tanto como lo ha sido para la evolución del
universo.
Desde aquel ya lejano 14 de diciembre de 1900, cuando Max Planck acuñó oficialmente el
término, o lo rescató del latín clásico, QUANTA se ha convertido en sinónimo de paquetes. En
esencia, Planck se refería a paquetes de energía. En otras palabras, la energía parece discreta;
tuvo que suponerlo de esa manera o imaginarla así para poder deducir o reproducir una
fórmula o receta descubierta por él (para el lector curioso, se transcribe en la figura 2.2),
tratando de darle fundamento a la forma en que la materia, es decir, los objetos o los cuerpos
todos, radian o emiten y absorben energía electromagnética cuando están en equilibrio
termodinámico. Es sano advertir que los cuerpos vivos jamás están en equilibrio térmico. En su
momento, finales de 1900, lo que tuvo que suponer Planck sonaba a exabrupto; era
aparentemente una descabellada idea. Conviene tener en cuenta que en el círculo cerrado de
los físicos alemanes, al que pertenecía Planck, no se aceptaba todavía la hipótesis atómica más
que como una idea auxiliar sin fundamento científico; ortodoxo, como sus maestros
(Helmholtz y Kirchhoff, entre otras celebridades), su tesis doctoral versó Sobre el segundo
principio de la termodinámica; fue inicialmente profesor en la Universidad de Kiel y sucedió
luego a Kirchhoff en la Universidad Federico Wilhelm, hoy Humboldt, en Berlín,
probablemente por incidencia de Helmholtz. Trabajaba a la sazón en el problema de la
Radiación del cuerpo negro.
El cuerpo negro, como se denomina en física al emisor-absorbente ideal, es el prototipo de
objeto material (macroscópico) ideal, como lo fue Masa Puntual para la Mecánica. Un cuerpo
u objeto cualquiera debe absorber la misma cantidad de energía que emite, si está en
equilibrio termodinámico, es decir, si no se calienta o enfría, si se quiere que se mantenga a la
misma temperatura de su entorno.
Sin proponérselo, Planck terminó asestando un duro golpe a la ortodoxia del momento, mucho
más fuerte que el propiciado al llamado oscurantismo de la Iglesia Medieval por el clérigo
Nicolás Copérnico. También por la época en que Charles Darwin, medio siglo antes que Planck,
acuñó el término selección natural para las variaciones en las especies, aquel tuvo que romper
el paradigma de su tiempo. Hoy la palabra preferida es evolución (teoría de la evolución) y será
la que utilicemos. Es notable que en el primer tomo de El origen de las especies, el responsable
mayor de esa teoría no emplee el término evolución una sola vez, y es bien sabido también
que Planck en su primera conferencia ante la Sociedad Prusiana de Física, en octubre, no
utilizó la constante h que lo hizo famoso; abrigaba la ilusión de que su desesperada hipótesis
de la cuantización de la energía fuera provisional; al fin y al cabo, el valor de la constante, por
ende el valor de los paquetitos, era algo inconmensurablemente diminuto. Para Darwin, las
variaciones serían extremadamente lentas. Ni Planck ni Darwin imaginaron lo que vendría
después.
La Mecánica Cuántica, como se denominó a la teoría de la física que surgió un cuarto de siglo
después de que fuera lanzada la desesperada hipótesis, no tiene que ver solamente con
diminutos paquetes de energía sino también con otros aspectos. Son fundamentalmente 3
características de la materia toda en su integridad e integralidad, observables en la
microescala: discreticidad, ondulatoriedad y coherencia, las que marcan la pauta del
comportamiento cuántico. Las dos primeras son antagónicas en la lógica clásica, mientras que
la tercera se refiere a una situación que raramente se presenta, pero que da lugar a resultados
sorprendentes.
Para empezar, la discreticidad es sinónimo de discontinuidad, mientras que la ondulatoriedad
lo es de continuidad. A las partículas que creíamos elementales, como el protón y el neutrón, y
a las que lo siguen siendo, como el electrón y el fotón, les denominamos genéricamente
corpúsculos (nombre sugerido por J.J. Thomson), lo mismo que a átomos, moléculas y otros
objetos diminutos. El término es, pues, ambiguo, pero invariablemente hace referencia a
elementos discretos en el sentido matemático. No se puede hablar de medio electrón ni de
medio fotón. Aunque no es posible disponer de medio átomo, es claro que ese objeto dejó de
ser indivisible, pero sus partes o componentes son discretas. Cada una de esas componentes
discretas es idéntica para todos los casos: un electrón es indistinguible de todos sus
congéneres y así sucesivamente, hasta constituir por ejemplo los átomos de una sustancia,
todos idénticos entre ellos. Por el contrario, una onda sonora en el aire o en un medio material
cualquiera se supone continua, y el sonido lo es para todos los efectos prácticos. Una onda se
modifica o evoluciona en el tiempo y en el espacio. Si se examina más en detalle, la
propagación de la onda sonora en el aire no es más que resultado de la interacción entre los
corpúsculos atómicos o moleculares que componen el medio, el cual obviamente no es un
compuesto sino una mezcla de diferentes gases. Algo muy diferente ocurre con las llamadas
ondas de luz, la radiación electromagnética, como se subrayará a lo largo del texto. O con las
ondas de materia, en donde el concepto mismo de onda pierde su materialidad. Los
corpúsculos de materia pierden su realidad mientras no observemos o colapsemos la onda que
los describe, como veremos.
Preferimos asimilar el término coherencia al de cooperación, aunque no necesariamente
redundan en lo mismo. De cooperación se tratará en algunas ocasiones, particularmente
cuando de especies vivas hablemos, mas veremos que es un fenómeno universal. En otras
ocasiones, estableceremos simplemente una correlación, como suele hacerse
estadísticamente. Este último término, correlación, merece un examen más cuidadoso, lo que
haremos en la tercera parte. Recuérdese que esta la hemos reservado por ahora para un
segundo tomo.
Así como hay 3 características de la fenomenología cuántica, hay también 3 pilares de la que es
versión dominante en su formulación teórica. Esa versión se suele denominar interpretación de
Copenhague, y sus pilares básicos son: un ente matemático denominado función de onda, la
que tiene a su vez una interpretación probabilística y tres principios básicos a saber, el
principio de incertidumbre o incerteza, el principio de superposición y el principio de
complementariedad. A estos volveremos en el capítulo quinto.
Retornemos al darwinismo. Tal como ocurriría con el término quantum, a la postre tampoco la
palabra evolución quedó reservada para las grandes especies. Es de aclarar que en la obra de
Darwin el término grande se refiere a población abundante; incidentalmente, Darwin estudió
solo objetos macroscópicos, como lo hizo Planck. ¿Qué son objetos macroscópicos? Son los
que tienen dimensiones apreciables, como para poderlos ver o examinar a simple vista.
Durante el siglo XX, la cuantización y la evolución se manifestaron más claramente a escala
microscópica. Cuando se pudo indagar con instrumentos más poderosos, a un nivel cada más
profundo, se encontró que en las formas más elementales de la vida se da la evolución o
variación de la hoy denominada herencia genética. De la misma manera se descubrió,
utilizando las más modernas técnicas y los recientes observatorios y telescopios espaciales,
que en el interior de las estrellas, al interior de las galaxias y en las profundidades del espacio
tiempo, se producen transformaciones descomunales: el universo no solamente se expande,
sino que lo hace cada vez más vertiginosamente. ¿Será que todo en el universo evoluciona,
incluso lo que creíamos absoluto? Es posible, nadie lo sabe, que las llamadas constantes
fundamentales hayan tenido esa característica evolutiva desde lo que pudiera llamarse, por
simplicidad o por ignorancia, el comienzo de la aventura. ¿Podemos hablar con propiedad de
un darwinismo universal? Dejaremos al lector que saque sus propias conclusiones. Pero
queremos anticipar que los denominados efectos cuánticos se manifiestan a todas las escalas y
en el universo entero. La evolución se da al cruzar la barrera de lo cuántico a lo clásico, de lo
microscópico a lo macroscópico, de la reversibilidad a su contrario, la irreversible flecha del
tiempo que opera desde los agregados moleculares hasta las desmesuras cósmicas.
Hemos sido producto de una evolución biológica de miles de millones de años. Nuestros
ancestros más cercanos son los denominados primates. El homo habilis y el homo erectus
(probablemente antes que ellos el homo naledis) precedieron al homo sapiens en dos o más
millones de años. El neanderthal, que convivió con la especie humana por más de doscientos
mil años, se extinguió hace cerca de treinta mil; se arguye que una de las razones pudo ser el
poco desarrollo de su sociabilidad. A juzgar por los daños irreversibles que seguimos
produciendo en el medio ambiente y el relativamente poco desarrollo de sentimientos de
solidaridad y sentido de cooperación en la especie humana, podría anticiparse que nuestra
extinción también se acelera. ¿Será que SAPIENS es la expresión correcta para referirse al
gran depredador que conocemos y con el cual, querámoslo o no, tenemos que identificarnos
cada uno de los siete mil y más millones de ejemplares que compartimos el planeta Tierra?
Regresemos a la cuantificación. Sería absurdo hacer alusión siquiera a una fracción de hombre.
O se es o no se es. En ese sentido, la pregunta ¿cuántos somos?, se responde con un número
entero positivo, generalmente plural: 2, 3, 10 o un número natural cualquiera, incluido el 1.
Pero esos 2, con mucha más razón los 3 o 10, etc., ya no son idénticos, como ocurre con las
partículas elementales. El concepto de objetos idénticos, inicialmente matemático, se vuelve
realidad en ese mundo de partículas, pero se disuelve a medida que los objetos se vuelven más
complejos, tema al que también volveremos en la parte final.
El vacío nos extiende el dominio al cero, jamás a los negativos, mucho menos a los
fraccionarios o a los irracionales… o a los imaginarios, que los hay, no necesariamente los seres
ideales. Ya veremos que del vacío cuántico sí pueden surgir todo tipo de partículas. Con
energías negativas surgieron las antipartículas. Así lo hizo Dirac, abriéndole espacio (y tiempo)
a la antimateria. Pero, ¿qué es el vacío? Antes de intentar una respuesta a esta última
pregunta, vale la pena hacerse otra que en cierto modo es la antítesis de la anterior: ¿Qué es
el Universo? Provisionalmente dejémoslo con mayúscula para darle una mayor connotación y
diferenciarlo del uso genérico que haremos del término. A ese Universo no pretendemos
aportar mucho, más bien poco o casi nada. Sobre él se ha reflexionado desde tiempos
inmemoriales. Alguna interpretación de la teoría cuántica nos habla de multiversos. Esto no
será asunto que nos incumba, por ahora; antes de abordar el universo cuántico, vale la pena
recordar aquí lo que afirmara una de las más interesantes escuelas presocráticas, la epicúrea.
Según Demócrito, “solo los átomos y el vacío son reales”. En esa concepción, los átomos son
indivisibles, por ende están cuantificados. La realidad está compuesta por dos causas (o
elementos): το ον (lo que es), representado por los átomos homogéneos e indivisibles, y το
μηον (lo que no es), representado por el vacío, es decir, aquello que no es átomo, el elemento
que permite la pluralidad de partículas diferenciadas y el espacio en el cual se mueven. Los
átomos se distinguen por su forma, tamaño, orden y posición. Gracias a la forma que tiene
cada átomo, estos pueden ensamblarse —aunque nunca fusionarse: siempre subsiste una
cantidad mínima de vacío entre ellos— y formar cuerpos que volverán a separarse, quedando
los átomos libres de nuevo hasta que se junten con otros.
Leucipo, Demócrito y sus discípulos sostuvieron que la luz y los átomos están estrechamente
conectados. Para ellos la luz sería un flujo de partículas extremadamente diminutas. Veintitrés
siglos después Einstein agregaría que esas partículas, granos de energía, se mueven siempre a
la misma velocidad. ¡No todo es relativo! Pero la idea original de los primeros atomistas
sobrevive: esas diminutas partículas o quanta, son emitidas o absorbidas por los átomos o los
compuestos a que estos dan lugar: otros quanta, en el sentido postmoderno del término. Solo
los quanta y el vacío son reales. (Con una condición: para hacerlos reales, en el sentido clásico
del término, requieren de un observador.)
Y si volvemos al concepto ideal de partículas idénticas, debemos reparar en el hecho de que, si
bien un electrón, para ilustrar el caso más sencillo, es idéntico a otro, dos fotones de diferente
color ya no lo son: sus energías son diferentes. En cambio los fotones de un haz coherente,
como lo es el denominado rayo LASER, o haz de luz producido por emisión estimulada de
radiación, que es lo que significa la sigla en inglés (light amplification by stimulated emmision
of radiation) en principio son todos idénticos, no solo en su frecuencia (energía) sino también
en su cantidad de movimiento. El electrón, como ejemplo de partícula material, y el fotón,
prototipo de energía pura, difieren en otras características, una de ellas, la más importante
desde el punto de vista cuántico, es que el primero es un fermión, mientras que el segundo es
un bosón. Los fermiones obedecen un principio fundamental que los hace diferentes, el
principio de exclusión. El significado de todos estos términos se aclarará a su debido tiempo.
Más allá de la dialéctica
En principio es posible referirse a una internalidad, de un lado, y a una externalidad, del otro.
Eso es solo en principio. La cinta de Möbius es un ejemplo en contra de esta idea clásica.
También en principio nos podemos referir al aquí y al ahora; el problema es que el espacio
(aquí) y el tiempo (ahora) son relativos. Asumimos que ellos, espacio y tiempo, tal como los
concebimos, son continuos. Ingenuamente supusimos que eran absolutos. Desde muy antiguo
se supuso también que eso que podríamos llamar universo, el conjunto de la materia en el
espacio-tiempo, era continuo. Esa suposición fue puesta en tela de juicio más de una vez hasta
que se llegó a la época moderna y se pudo intentar ir más lejos que simplemente suponerlo.
Nació así la ciencia moderna. En esa ciencia moderna, tal y como fue evolucionando a lo largo
de unos pocos siglos, surgieron la nueva astronomía (la antigua estaba fuertemente
emparentada con la astrología), la física (la que empezó con Aristóteles no estaba del todo
desligada de la metafísica), la química (la que poco a poco se fue separando de la alquimia), la
biología (aunque todavía no estamos seguros dónde empieza la vida, la biología sintética es ya
un hecho) y tal vez otras que con el tiempo podrían volverse básicas (hablamos, por ejemplo,
de las neurociencias, y abrigamos la esperanza de que pronto ellas nos resuelvan algunos de
los misterios relacionados con la mente y la conciencia); en matemáticas se logró un desarrollo
como nunca antes había ocurrido. Se tiene ahora una imagen mejor del universo, tal como lo
conciben los cosmólogos modernos, y de sus constituyentes, como lo imaginan (imaginamos
sería mucha pretensión) los científicos. Resumamos.
Antes de que pudiera zanjarse la discusión sobre el problema de si la materia es continua o
discontinua, se desarrolló la mecánica, a finales del siglo XVII. Los 2 siglos siguientes vieron el
desarrollo de la electricidad y el magnetismo, o el electromagnetismo, como se le denominó
más tarde, o la electrodinámica (ED), como preferimos denominarla hoy. A finales del siglo XIX
quedó claro que también la luz, energía radiante, forma parte de la materia. Pero se tenía
entendido que había partículas o corpúsculos, por un lado, y ondas por el otro. Las ondas
materiales, por ejemplo el sonido, las ondas en las cuerdas o en el agua, etcétera, requerían de
un medio para avanzar. La luz, una onda muy singular, podría viajar en el vacío, pero ese vacío
estaría lleno de un éter, un no-vacío, una sustancia con propiedades muy extrañas que
permearía todo y podría servir como sistema de referencia absoluto. Por lo demás, durante el
siglo XIX se desarrolló la termodinámica y la mecánica estadística, dos versiones en contravía
de una misma teoría que a la postre produce los mismos resultados. A fines del siglo XIX la
tarea de los físicos ya habría concluido. ¡Falsa ilusión!, como veremos. El primero en
percatarse de que la idea de un continuum conducía a grandes dificultades, al menos de
momento insalvables, fue Planck. Luego Einstein echó por tierra la idea de un éter luminífero e
introdujo por primera vez el concepto de dualidad onda-corpúsculo para la luz. Introdujo
también una nueva concepción del espacio-tiempo y de la gravitación, modificando de paso las
leyes de la mecánica newtoniana, o mejor, la concepción mecanicista del universo. Buscó
desesperadamente una teoría en términos de campos que fuera unificada, que permitiera
unificar los fenómenos a un nivel fundamental y cosmológico. Esto último no lo logró.
Por el lado de la química, la hipótesis atómica había ganado credibilidad, pero seguía siendo
una hipótesis sin fundamento para físicos tan destacados como Mach y Ostwald, algo
totalmente inverificable, como el supuesto éter. Lo cierto es que esa hipótesis había servido
para entender muchas reacciones químicas, construir la Tabla Periódica de los Elementos y
desarrollar nuevos procesos industriales. De la espectroscopia, tan útil en la exploración de la
materia, no se entendían sus fundamentos: ¿por qué los espectros de los elementos y de los
compuestos, tanto de absorción como de emisión, vienen constituidos por líneas discretas?
Para entenderlo, fue necesario introducir el concepto de dualidad onda-corpúsculo también
para el electrón, una atrevida propuesta de un noble, estudiante de doctorado, el príncipe
Louis Víctor de Broglie.
Así como el telescopio aportó observaciones valiosísimas para la astronomía y el desarrollo de
la mecánica, en la biología el microscopio facilitó el surgimiento de teorías y modelos que poco
a poco se fueron perfeccionando. De la misma manera que el primero sirvió para construir los
modelos iniciales sobre el sistema planetario y el universo mismo, el segundo dio lugar a una
de las teorías más exitosas de la humanidad: la teoría de la evolución, primero de las especies,
después de todo lo demás, con ayuda de otros instrumentos.
La universalidad de los cuantos y la evolución cultural
Aunque su título sugiere todo lo contrario, este primer tomo es más un libro sobre los
QUANTA que sobre el HOMO. El subtítulo es más específico. Más exactamente, nos
referiremos a los cuantos (ahora sustantivados) y a sus implicaciones para el hombre. El
nuestro es entonces solo parcialmente un ensayo sobre la evolución que ampliaremos en el
segundo tomo; la evolución lo es en especial para la transformación de las ideas en el terreno
científico, una evolución cultural. Partimos de la convicción de que la física es la ciencia básica
por excelencia. Esta no es una posición de físico prepotente: es el reconocimiento de que el
universo es el ente físico por antonomasia. Por eso se puede afirmar que el rango de acción de
las ciencias físicas, en plural para evitar malos entendidos, es el universo entero, desde las aun
inexploradas regiones internas de las partículas llamadas elementales (lo escribimos de esta
manera para curarnos en salud) hasta lo que vagamente se denomina los confines del
universo. Si esto es así, no es de extrañar que algunos consideren a la química un capítulo de la
física, al menos en ciertos aspectos básicos ligados a la mecánica cuántica. Hoy se cree que la
biología tampoco escapará a ese proceso de cuantización de la ciencia. Especificaremos más
adelante qué se quiere significar con este término. No está por demás aclarar que la ciencia es
un constructo cultural. A diferencia de otros constructos, su validación es de carácter
universal, vale decir, refrendada por pares que pertenecen a diversas culturas desde el punto
de vista antropológico. Así pues, a menos que se especifique de otra manera, cuando se hable
de evolución cultural en este escrito, se hace referencia a la evolución de las ideas y de los
conceptos científicos.
Al razonar sobre la estructura y constitución del universo y sobre su posible evolución,
estamos utilizando una función del cerebro que algunos difícilmente aceptarán sea apenas un
resultado de la evolución biológica: nos referimos a la conciencia. Llamamos conciencia a un
estado mental que permite a cada uno de nosotros identificarnos como individuos. Y si es un
estado mental, un estado dinámico funcional del cerebro, ¿podemos hablar por separado de la
mente? Se requiere de un cerebro para tener mente y conciencia. No podría ser de otra
manera. En palabras de Eric Kandel, premio Nobel 2000 en fisiología y uno de los más
prestigiosos neuro-científicos del momento, entender la base biológica de la conciencia y los
procesos cerebrales por los cuales sentimos, actuamos, aprendemos y recordamos es el último
reto de las ciencias biológicas. (Kandel, 2013.) En la presente década y las próximas, los
avances en esa dirección son de los más promisorios en el terreno científico.
Cuando se habla del sapiens, se evoca de inmediato a un ser inteligente. Las tecnologías de la
información y la comunicación, a las que abreviaremos por la sigla t.i.c. (en minúscula, ya
argumentaremos por qué), han dependido fundamentalmente de un concepto de inteligencia
que no está asociado al ser humano, ni siquiera a algún ser vivo. Por eso se le denomina, y tal
vez sea el término más adecuado, inteligencia artificial, IA. Es menos claro lo que se entiende
por vida artificial. Lo que sí resulta claro para todos es lo que Lamarck, Darwin y Wallace
descubrieron hace ya cerca de dos siglos: la evolución de las especies. El título que el primero
escogió para su obra clásica hace alusión a algo más fundamental, el origen de las especies.
Por supuesto, se refería a las especies vivas. Pero: ¿Qué es la vida? Schrödinger, casi un siglo
más tarde, daría precisamente ese título a una obra que en su momento causó gran
conmoción, resultado de sus conferencias en el Trinity College (en Dublín, 1943) sobre la
relación entre física y biología, en particular física cuántica y genética. La respuesta de
Schrödinger no es concluyente. La nuestra tampoco pretende serlo, a pesar de que ha habido
grandes avances desde entonces en la búsqueda de una respuesta convincente.
Efectivamente, hemos avanzado mucho en el último medio siglo. Para empezar, en 1949
Claude Shannon introdujo un nuevo ente físico cuantificable: la información. Cuatro décadas
más tarde fuimos advertidos por John Archibald Wheeler de que la información es más
fundamental que la materia y la energía: it from bit. Hoy hablamos con entera convicción del
procesamiento cuántico de la información. Este es en esencia el contenido de la segunda
revolución cuántica. ¿Existe alguna relación entre la información biológica o genética
contenida en el ADN y la información traducida a bits y qubits? Quisiéramos poder contribuir a
dilucidar este asunto, aunque es preciso advertir al lector que quizá no lo logremos.
Empecemos por el comienzo de la ciencia moderna. En la visión clásica newtoniana,
comúnmente confundida con el mecanicismo, el universo tendría forma esférica y nosotros
ocuparíamos un lugar central, solo hasta cierto punto. Aristarco de Samos fue el primer gran
visionario que develó ese telón antropocéntrico. Posteriormente lo hizo Copérnico, y con él
surgieron las primeras ideas que abrieron camino a la física propiamente dicha. Vinieron
después Galileo, Kepler y muchos más gigantes, como los anteriores, que abrieron el camino a
un «genio entre genios», Isaac Newton. Hubo que esperar dos siglos más para que pudiera
resolverse la gran inquietud que no dejó en paz a Newton: la acción a distancia. Newton, a
pesar de sus profundas convicciones religiosas, logró forjar un esquema de pensamiento
dentro del cual todo en el universo está sometido a unas mismas leyes. Dar el paso siguiente le
correspondió a Darwin y otros, en la biología. Y Maxwell, por la misma época, lo dio desde la
física, con tremendas repercusiones en las demás ciencias y tecnologías, apenas emergentes.
Maxwell encontró su demonio. Aunque no lo llamó así, Darwin también tiene el suyo, o los
suyos, como nos lo explica Eugenio Andrade en Los demonios de Darwin (2003.) Quizá
podamos referirnos metafóricamente también a los demonios cuánticos. El IGUS (Information
gathering using system) desempeñaría ahora ese papel.
La línea evolutiva de pensamiento que claramente distinguió a los presocráticos materialistas
de otras escuelas idealistas, incluida la platónica post-socrática, se vio interrumpida por más
de un milenio. Para que surgiera la ciencia moderna fue necesario inventar instrumentos que
dilucidaran en el terreno experimental la discusión sobre la continuidad o no de la materia.
Esto ocurriría más claramente en el siglo XIX. En las ciencias sociales, correspondió a Marx y
Engels descubrir la capacidad de la dialéctica para explicar los saltos en la historia que llevaron
a diferentes esquemas de producción. No abordaremos este tema, a pesar de su interés, para
no desviarnos del propósito fundamental de estas notas, mas es indispensable advertir al
lector de su importancia y trascendencia.
Ingresamos al siglo XX haciendo un examen de lo que quedaría por descubrir. En física, se
decía, nada. Salvo dos nubarrones a los que volveremos antes de la tormenta, la física estaría
concluida. En matemáticas, se pensó, faltaría poner un orden lógico. No es este el espacio para
referirnos a lo que resultó del examen de los fundamentos o Principia Mathematica. Kurt
Gödel se encargaría de bajarle el perfil a las pretensiones de la matemática de ser una ciencia
exacta. En física, la situación resultó ser doblemente pobre. Del examen de sus fundamentos
surgieron las dos nuevas teorías a las que hemos abreviado QT y GT. Reducirlas a una sola es
una tarea pendiente.
En este orden de ideas, después de una recapitulación que no pretende ser el recuento
histórico sobre lo que pensamos hoy, veamos qué nos llevó al asunto del que tratará este
ensayo en 2 tomos. La historia resumida del desarrollo de las ideas previas en física forma
parte de la evolución cultural a que hemos hecho referencia y se posterga como una
introducción a la primera parte.
Motivaciones intrínsecas y extrínsecas
“Dadme las condiciones iniciales y yo os diré hacia dónde va la evolución.” (Autor imaginario.)
Afirmaciones como esta, con distinta factura, fueron la cumbre del mecanicismo. Arquímedes
fue uno de los grandes pioneros de una tierra estacionaria; de ahí la frase que le ha sido
atribuida con respecto a las palancas. Pero el universo evoluciona, siguiendo unas leyes
supuestamente muy precisas. En palabras de Henri Poincaré, a finales del siglo XIX, parecía
claro que:
«Si conociéramos exactamente las leyes de la naturaleza y la situación del universo en el momento
inicial, podríamos predecir exactamente la situación de ese universo en un momento subsiguiente.»
Esas leyes no son más que las leyes del movimiento de Newton, o las que correspondan
después de hacer las correcciones adecuadas en el régimen relativista.
Mas lo anterior no es del todo cierto. Tampoco lo fue el paradigma newtoniano, ni siquiera con
las correcciones introducidas por Einstein. Desafortunadamente las condiciones iniciales bien
pueden ser una entre 101000 o más posibilidades; y el punto de llegada depende fuertemente
del modelo que se utilice. Afortunada o desafortunadamente, el punto de partida del
mecanicismo es incorrecto: la evolución no está determinada de antemano. ¡Es posible
también que exista el libre albedrío!
Se sabe que una muy pequeña desviación en las condiciones iniciales puede dar lugar a
enormes variaciones en la evolución del sistema. Esa observación fue el comienzo de la teoría
del caos, de las ciencias de la complejidad y de los sistemas complejos, en la primera de las
cuales Poincaré es el indiscutible pionero. Prosigue Poincaré:
«Pero aun si fuera el caso de que las leyes naturales no guardaran ningún secreto para nosotros, solo
podríamos conocer la situación inicial aproximadamente. Si eso nos permite predecir la situación
subsiguiente con la misma aproximación, eso es todo lo que requerimos, y diríamos que el fenómeno ha
sido predicho, que es gobernado por las leyes. Pero no siempre es así; puede ocurrir que pequeñas
diferencias en las condiciones iniciales produzcan variaciones muy grandes en los fenómenos finales. Un
pequeño error en las primeras producirá un enorme error en los últimos. La predicción se vuelve
imposible, y obtenemos el fenómeno fortuito.»
También se sabe que un estado evoluciona hacia cualquiera de los estados posibles, aunque
haya unas evoluciones más favorecidas que otras. Esto es consecuencia de la mecánica que
sustituyó al mecanicismo, la Mecánica Cuántica, una teoría fundamentada en el principio de
indeterminación, comúnmente denominado de incertidumbre, y en la cuantización o
discretización de las cantidades físicas medibles u observables. A propósito, fue Poincaré el
primero en demostrar matemáticamente la equivalencia entre la cuantización de la energía y
el valor finito de la energía de la radiación de cuerpo negro.
Se sabe además que ignoramos la composición y organización exacta del sistema, es decir, su
preparación, y la información que de él disponemos es incompleta. A modo de ejemplo, hoy
sabemos que el 95 % del universo está constituido por energía obscura y materia obscura. De
la primera, solo tenemos vagas ideas sobre su posible composición. Puede afirmarse que sobre
el cerebro, la mente y la conciencia sabemos mucho menos. ¿Cuál es, entonces, el poder
predictivo de la ciencia? ¿Hasta dónde podemos confiar en ella? Aunque incompleta, es lo
mejor de que disponemos para una descripción e interpretación del entorno, del conjunto o
del universo y de su evolución. Veremos que deben tenerse en cuenta otras limitaciones al
conocimiento, además de las anteriores.
La epistemología es el estudio del origen del conocimiento y su validación o negación. A partir
del enfoque propuesto por Thomas Kuhn, durante un tiempo se supuso que pasamos de uno a
otro paradigma, en esencia modelos aproximados sobre la realidad. Se suele hablar también
de teorías, o modelos más refinados. Pero evidentemente una teoría sucede a otra que no
pudo dar cuenta de fenómenos observados posteriormente o que se escaparon a la
observación, o más sencillo: se hicieron predicciones equivocadas y hubo que desechar la
teoría. Fueron algunos físicos, no todos, quienes supusieron que algún día habría de
encontrarse la teoría del todo, la ecuación del universo, o en el lenguaje de sus predecesores,
místicos o alquimistas, la piedra filosofal. Esta idea ha sido una quimera, buena y útil en la
medida en que impulse la investigación científica, pero solo ha servido para encontrar al final
una medida o estimativo de nuestra ignorancia. Reconociendo sus limitaciones, la ciencia y sus
métodos ha sido lo mejor que hemos podido concebir para describir e interpretar el universo,
de paso predecir su comportamiento futuro. Las matemáticas han sido la mejor herramienta.
A pesar de lo escrito en el párrafo anterior, es bueno examinar lo que entienden por una teoría
final quienes impulsan este concepto. Nos dice Weinberg (1992):
«The dream of a final theory did not start in the twentieth century… We do not really know much about
what the pre-Socratic were taught, but later accounts and the few fragments that survive suggest that
the milessian were already searching for an explanation of all natural phenomena in terms of
fundamental constituents of matter».* (Weinberg, 1992.)
Así entendida, como un principio regulador u orientador, es alentador pensar en una teoría
final, si es que se puede llamar de esa manera. Quizá algo cercano a esa imagen nos ayude a
entender quiénes somos, de dónde venimos y para dónde vamos.
*
El sueño de una teoría final no empezó en el siglo XX…
Desde su aparición, después de un largo y prolongado proceso evolutivo, cada uno de los
representantes del homo sapiens ha desarrollado una conciencia individual que lo hace único
en su especie. Hoy sabemos que otras especies tienen también conciencia. En la denominada
Interpretación de Copenhague de la Mecánica Cuántica se pone de relieve el papel de un
observador consciente en el proceso de medida. En la literatura reciente es fácil encontrar
varios ensayos con un título más o menos común, Conciencia cuántica, o Física cuántica de la
conciencia. En general, el título es controversial y su contenido suele serlo mucho más. No es al
esclarecimiento o profundización de esa polémica a lo que queremos aportar con el presente
texto. El adjetivo quantum aplicado al sapiens sustantivado en este escrito, se refiere a dos
aspectos separados: al rol de la nueva física, la cuántica, en el surgimiento de tecnologías que
requieren de ella para su desarrollo, y al papel que pudo haber desempeñado y puede seguir
desempeñando la fenomenología cuántica a nivel fundamental, en procesos elementales que
son de trascendental importancia para la vida misma, aunque no necesariamente para su
aparición; debieron serlo, eso sí, para su preservación y evolución, no solo la biológica sino
también la cultural, en la que pondremos el énfasis de nuestro aporte.
La evolución cultural es lo que ahora está en juego para el Sapiens. Asistimos a un gran
momento histórico en el que la revolución científico-técnica está transformando, para bien y
para mal, nuestro planeta y nuestras vidas, nuestras formas de pensar y de actuar, nuestras
relaciones familiares y sociales, nuestras posibilidades, potencialidades y capacidades. La
contribución de lo que denominaremos física cuántica y sus aplicaciones a esa transformación
es descomunal, por decir lo menos. También el universo se transforma, aunque
aparentemente de manera más lenta, a escala cósmica cada vez a mayor celeridad, y con ello
tiene que ver igualmente la fenomenología cuántica; ese último aspecto, el quantum y la
evolución del universo, lo tocaremos solo tangencialmente en este primer tomo. Es más,
queremos subrayar desde ya que la fenomenología clásica, a cuya explicación pretendió dar
respuesta el mecanicismo clásico o paradigma newtoniano, tiene también como fundamento
el quantum, en el sentido original de Planck o en el más refinado de Einstein, como
aclararemos después.
En ese contexto hay que hablar en general de la evolución de la ciencia y en particular de la
evolución de la física, del paso de la física mecanicista no relativista a la clásica relativista, a la
cuántica y a la cuántica relativista. Se sigue buscando con gran expectativa una formulación
cuántica de la gravedad. ¿Será posible una teoría del todo? En nuestra opinión, es solo la
pedantería de algunos físicos la que lleva a imaginar que estamos próximos a conocer todo lo
que hay que conocer. Los límites del conocimiento mismo se agrandan cada vez más.
No hay una clara línea divisoria entre los dos mundos, el cuántico y el clásico, por más que
pretendamos conocer las leyes que rigen el comportamiento en los extremos. Es en ese
sentido que retomaremos un término cada vez más en boga, Darwinismo cuántico, para
referirnos al paso de lo puramente cuántico a lo clásico, particularmente en sistemas
complejos, en especial los más complejos de todos, los sistemas vivos. Creemos que es posible
comunicar estos aspectos en un lenguaje comprensible para una audiencia o un lector que no
tiene formación en física más allá de la que se proporciona en la enseñanza media.
Como una motivación adicional para escribir estas páginas, se ha tenido en cuenta que las
tecnologías todas dependen cada vez más, en diversas formas, de las aplicaciones de la Teoría
Cuántica, sin lugar a dudas la teoría más amplia y profunda, la teoría física más exacta,
cualitativa y cuantitativamente, hasta donde el Principio de Indeterminación lo permite.
Además sus implicaciones, para lo que podríamos denominar el propósito trascendental de la
física, como interpretación del Universo y de sus partes, son dignas de tenerse en cuenta por
cualquier ser racional. Esos dos aspectos, aplicaciones e implicaciones, en otras palabras,
contribuir a examinar el impacto de la cuántica o del quantum sobre el homo sapiens en su
vida diaria y a su reflexión en la búsqueda de caminos alternativos para su devenir histórico, es
lo que intentaremos con este ensayo. Es demasiado ambicioso el propósito que motiva
nuestra incursión en la nueva física, por lo que no es para desmayar si la tarea, como es
altamente probable, queda inconclusa. Autores y lectores podremos quedar tranquilos si el
cometido se logra parcialmente.
En efecto: así como para reconocer el papel y el significado de la conciencia no se requiere de
mayores conocimientos de biología, para imaginar la trascendencia que tendrán en el futuro
de la humanidad las tecnologías convergentes y emergentes no será necesario saber mucho de
mecánica cuántica. De hecho, todavía no es claro el papel de la biología en la conciencia,
mucho menos el del quantum; y si quisiéramos resaltar en primer término la información
dentro de las tecnologías emergentes, para la mayoría de los lectores no solo es extraño
asociar información con física cuántica sino que es desconocida, ignorada por casi todos a nivel
general, salvo por los especialistas, una posible relación entre esta última teoría y las
tecnologías mencionadas.*
Pareciera pues que, en contravía de lo prometido, de un lado sometiéramos al lector al
desconcierto de lo desconocido y del otro estuviéramos utilizando un lenguaje demasiado
abstracto para el lector no especializado. Para tranquilidad de este último, si bien nos
referiremos a menudo a aspectos generales y en ocasiones vagos, nuestras pretensiones de
suministrar un bagaje conceptual cuántico son mucho más modestas, por lo que emplearemos
una buena parte del texto para ilustrar al menos los conceptos cuánticos (y en el apéndice los
clásicos) en boga, dándole un sentido más tutorial y auto-contenido a estas páginas.
En síntesis, intentaremos acercar al lector a la fenomenología cuántica partiendo de los
conceptos clásicos, contrastándolos con los nuevos conceptos cuánticos y sin recurrir al
formalismo matemático. Esto nos permitirá abonarle el terreno para que entienda al menos
los cimientos de las nuevas tecnologías que en ella se fundamentan sin caer en la trampa del
esoterismo. Este está más alejado de los conceptos cuánticos de lo que están los clásicos que
les precedieron, aunque es necesario advertir que hemos de divorciarnos de los segundos, los
clásicos, si queremos acercarnos a los primeros, los cuánticos. En cuanto a la pseudociencia,
puede calificarse de oportunismo, mediocridad o negligencia apelar a los primeros
simplemente porque no son aprehensibles en una concepción clásica del mundo, invocándolos
para explicar lo que por ahora resulta inexplicable.
Justificando un doble calificativo
*
No hay total acuerdo sobre lo que se entiende por tecnologías emergentes o convergentes, la
denominación misma es ambigua. De ellas no puede excluirse la nanotecnología, importante en todas
las demás. Por simplicidad, mencionaremos las 4 básicas, a saber: N-B-I-C, en su orden nano, bio, info y
cogno, incluyendo en esta última las que tienen que ver con la cognición, en primer término para el caso
la inteligencia artificial, sin descartar la(s) otra(s).
El título mismo de este ensayo podría parecer extraño, aunque el calificativo sapiens, por sí
solo, no generará ninguna dificultad, dado que todos pertenecemos a la misma especie desde
que los humanos se separaron de los demás homínidos, hace más de 50 mil años;
probablemente puede hablarse de 100 mil. El adjetivo neutro quantum, a pesar de las
suspicacias y hasta temores o tal vez intimidaciones que pueda generar, se ha entendido en
primera instancia como cuantificación en números discretos de cantidades elementales. Por
supuesto es mucho más que eso: se refiere ni más ni menos que a la teoría física más extraña y
contraintuitiva que haya podido producirse, comparable quizá en complejidad a la teoría
general de relatividad, aunque esta es más compleja desde el punto de vista matemático. En
realidad es de esperar que la primera sea más ininteligible, si nos atenemos al vaticinio de uno
de los quantólogos más reconocidos del siglo pasado, Richard Feynman quien afirmara
categóricamente: “nadie entiende la mecánica cuántica”. Es por esa razón principalmente, y
por muchas otras que esbozaremos más adelante, por las que vale la pena aclarar para el
lector profano lo que debe entenderse como cuántico, en especial para deslindarlo de la
charlatanería cuántica, cada día más abundante.
Vale la pena intentar una somera justificación del título escogido, como preámbulo al
planteamiento central. Ello nos llevará a explicar mejor las motivaciones que nos impulsaron a
emprender esta labor que pretende ser pedagógica. Después de examinar algunas opciones,
nos hemos decido por el de Quantum Sapiens teniendo en cuenta varias consideraciones,
algunas de las cuales se enumeran y comentan a continuación. La primera está relacionada con
el idioma. Aunque sería demasiado aspirar a que este modesto escrito fuera vertido a varios
idiomas, no es descartable que vea la luz también en inglés. La mayoría de ensayos traducidos
a otros idiomas han corrido con mala suerte cuando se busca que el título refleje en el nuevo
idioma lo que se pretendía en el lenguaje original. Al intentar hacerlo en un latín moderno, no
se considera necesario el cambio del título principal en la posible traducción y eso preservaría
la idea original del ensayo. Del subtítulo de cada tomo en español, primera o segunda
revolución cuántica, nos ocuparemos a su debido tiempo.
La segunda tiene que ver con la inclusión en la física desde hace más de un siglo y el significado
que desde entonces se da al término quantum, con su rápida extensión a otras ramas de la
ciencia y a sus aplicaciones, más recientemente al campo de la información, más amplio que el
de la informática. Cuando nos refiramos a la información, empezaremos por examinar su papel
a nivel biológico; y cuando mencionemos las aplicaciones o tecnologías que se derivan de los
nuevos conceptos cuánticos, no dejaremos de lado las que se refieren a las ciencias de la salud
y de la vida, sin dejar de examinar por supuesto las llamadas t.i.c.
Pero hay más. Las tergiversaciones que se han hecho de la teoría, extrapolándola a otros
campos del conocimiento o peor aún, al terreno de la pseudociencia, son abrumadoras. Se
habla con el mayor desparpajo de medicina cuántica, y a fe que de lo único que puede
hablarse con rigor es de la nanotecnología aplicada a la medicina, la nanomedicina, en la cual
los efectos cuánticos son abundantes. No por eso puede hablarse de medicina cuántica como
si fuera una nueva ciencia de la salud.
La física cuántica es un prototipo de la complejización de la ciencia. En la primera mitad del
siglo XX surgieron nuevas teorías derivadas de las matemáticas aplicadas, particularmente a las
otras ciencias. Se habló así de la teoría de sistemas, de la cibernética y de la teoría de la
información, a la que ya hemos hecho referencia. Cuando hoy se hace alusión a sistemas, se
está casi siempre hablando de sistemas complejos, así que hablar de ciencias de la complejidad
es en esencia trasladarse a ese terreno. El problema de 3 cuerpos, nombre con el que se
conoce la interacción y el consecuente movimiento de 3 objetos, por ejemplo el sistema sol-
tierra-luna bajo los efectos de la gravedad clásica, es un problema complejo. En mecánica
cuántica, el problema de 2 objetos, 2 electrones por ejemplo, es complejo; lo inmediato que
resulta de la interacción de 2 objetos cuánticos es el fenómeno del entrelazamiento. A esos
temas habremos de referirnos, particularmente a este último, del que depende precisamente
la segunda revolución cuántica.
La tercera consideración que se tuvo en cuenta tiene que ver con el sentido de sapiens, como
es fácil imaginar. Sin entrar en discusiones mayores sobre el significado del término, no
parecería aplicarse en rigor muy a menudo. Aceptemos que la especie ha tenido un proceso
evolutivo mayor comparado con sus rivales que le permitió asegurar su primacía. Esto le llevó
a poblar densamente el planeta que lo aloja y a afectarlo mucho más que todas las otras
especies juntas. Para afrontar los retos del momento, cuando todas las especies, incluida la
humana o en el mediano plazo precisamente esta, se encuentran en peligro de extinción, el
recurso del conocimiento acumulado es invaluable, pero mucho más, el uso que de él se haga.
Usarlo apropiadamente para los asuntos que más nos incumben es precisamente la sabiduría,
como la concibieron por ejemplo Bertrand Russell y Sidney Hook. Ella es la que justifica hoy el
calificativo de sapiens.
No se exagera al decir que la cuántica o el quantum entendido cabalmente es la máxima
expresión del conocimiento acumulado en las ciencias, si se quisiera sintetizar en una sola
palabra. Aunque aprehenderlo a fondo está quizá reservado a los expertos, debe haber un
bagaje mínimo en el aprendizaje cultural de cada persona que incorpora la fenomenología y
los conceptos cuánticos. Infortunadamente cuando más se requiere de una formación básica
en ciencias básicas acorde con los paradigmas del momento, se mitifica esa ciencia al punto de
hacer creer al grueso de la población estudiantil universitaria y a los sectores cultos que ni
siquiera podrá aprehender los conceptos elementales del comportamiento cuántico. Pero el
impacto que han causado los contraintuitivos conceptos de la física cuántica son tales, que los
más inquietos y receptivos buscan llenar el vacío con el sensacionalismo característico que
ofrece una literatura no científica, siendo fácil presa de charlatanes de todo tipo. Si en algo
podemos contribuir a llenar ese vacío, habremos satisfecho la pretensión principal. Quizá se
logre, de paso, propiciar espacios para un trabajo interdisciplinario y para la construcción de lo
que se ha denominado una tercera cultura.
Síntesis de la evolución biológico-cultural
A riesgo de repetir lo que la mayoría de los lectores ya sabe, la historia que conocemos,
incluida la prehistoria y lo que le antecedió, comenzó hace aproximadamente 13,750 millones
de años, cuando surgió la materia-energía, el espacio-tiempo y por ende la información. Poco
más de 9 mil millones de años después surgió el planeta Tierra que nos albergaría al cabo de
4,5 mil millones más. Rigurosamente hablando, podríamos afirmar que debemos contarnos
entre los más recientes pasajeros, esa es la palabra, de lo que en realidad es una nave espacial
poblada por las especies vivas conocidas en nuestro sistema solar. Si fuéramos conscientes de
lo que esto significa, tendríamos con ella un mayor cuidado.
Vale la pena detenernos un poco más en el proceso evolutivo del género Homo, que partió de
África hace apenas 2,5 millones de años. En Eurasia dejamos nuestras huellas preliminares por
espacio de 2 millones más, hasta cuando el fuego nos permitió iniciar transformaciones más
fuertes en el entorno y en nosotros mismos. Más recientemente, también en África, surgió el
mal llamado sapiens. Carlos Eduardo Vasco sugiere denominarlo insipiens; el alumno (uno de
los autores) interpretó mal al maestro y se le ocurrió que podría utilizarse el término incipiens
(que apenas comienza), y recordó que Margulis y Sagan, en su clásico texto Microcosmos nos
califican de Homo insapiens insipiens (sin sabiduría y sin sabor). Esta equivocación nos ha
llevado a proponer que se trata de un incipiens insipiens et insapiens. ¡Lo lamentamos mucho!
Para no alargar más una historia bien conocida, recordemos que hace apenas 70 mil años
utilizamos el lenguaje figurado, hace 15 mil colonizamos América, hace apenas 5 mil que
recurrimos a la escritura para acumular información y conocimiento, y que la ciencia moderna
no tiene más de 4 siglos de desarrollo. A pesar de todo, en las últimas 2 décadas hemos
avanzado más que en todos los siglos y milenios anteriores. ¿Será cierto que en unas pocas
décadas más tendremos al superhombre? Es dudoso que lo logremos antes de que
terminemos nuestra desaforada carrera, en la práctica emprendida para aniquilar de paso la
mayor parte de especies vivas sobre la tierra. Léase crónica de una muerte anunciada.
Evolución de la física: ¿fin de la historia?
Quizá sepa el lector que Francis Fukuyama escribió un polémico texto titulado El fin de la
historia y el último hombre. (Fukuyama, 1991.) Un breve artículo que lo precedió es: ¿Fin de la
historia? La tesis de Fukuyama de que con la caída del socialismo terminarían las guerras,
gracias a la democracia perfecta encarnada por los Estados Unidos, hoy nadie se atrevería a
sostenerla.
Como un reto para los físicos, Einstein y sus colaboradores de la década de los 30 sostendrían
lo contrario con respecto a la física. Aunque el argumento de Einstein y sus colaboradores,
Podolsky y Rosen, aparentemente proponía una paradoja, en realidad era una crítica a la
mecánica cuántica en forma de pregunta: ¿Puede considerarse completa (la) descripción
mecanocuántica de la realidad física?
La respuesta de Bohr a la crítica se produjo muy pronto, en un artículo con el mismo título. No
obstante, como veremos, el teorema de Bell y la posterior comprobación de que su
desigualdad se cumple, pone a salvo la mecánica cuántica como teoría no local. Al asunto
volveremos antes de terminar la primera parte.
La prepotencia con que algunos científicos y filósofos se expresan, para no mencionar puntos
de vista arrogantes de otros mortales, contrasta con el punto de vista más modesto de
connotados pensadores y divulgadores. Dice John Gribbin, astrofísico y gran difusor del
conocimiento científico acumulado a quien volveremos, en torno al misterio cuántico (2015):
«Si abrimos los brazos todo lo que podemos y consideramos que toda la historia del universo es de la
punta de un dedo a la otra punta, toda la historia de la civilización humana se eliminaría en un momento
si se pasa una lima por una uña. Así de insignificantes somos en el tiempo, y somos igual de
insignificantes en el espacio.» http://www.eduardpunset.es/charlascon_detalle.php?id=6
No en balde nos recuerda Einstein: “El eterno misterio del mundo radica en su inteligibilidad…
El hecho de que sea comprensible es un milagro.” Hoy sabemos que no lo es en el sentido
clásico, que fue el punto de vista sostenido por Einstein. Pero los autores se atreven a hacer
suyo el párrafo citado: la lectura de varios tomos de lo que se conoce hoy sobre el gran
misterio ha sido una fuente de gozo y satisfacción también para ellos… y de reflexión,
precisamente porque el avance en el conocimiento (artístico, científico, filosófico, tecnológico
y en todas las otras formas de conocimiento), aunque a menudo doloroso, como lo reconoce
Einstein, es prometedor y estimulante; algo de aquello, en el campo cuántico, es lo que
quisiéramos compartir con el lector en estas notas.
La historia no termina ahí. Después de 100 años de teoría cuántica, después de un siglo de
logros inimaginables en la optoelectrónica, en la física del estado sólido y de la materia
condensada, en las físicas nuclear y de partículas elementales, en la astrofísica y la cosmología,
ahora resulta que ese universo nuclear hecho de quarks, el bariónico, como se le denomina
hoy, develado inicialmente por Ernest Rutherford, y el leptónico que empezó con la partícula
descubierta por Joseph J. Thomson, en el que el electrón es apenas una de las 6 variedades,
enriquecidos los 2 por quienes les sucedieron, es apenas una mínima parte del todo; la mayor
parte resultó ser invisible para los más potentes microscopios y telescopios en más de un 96 %.
En efecto, ahora parece claro que la materia oscura, la energía oscura y la energía fantasma o
exótica conforman el 96 % de la materia-energía que constituye el Universo. Aquella expresión
romántica, estamos hechos de la misma materia de que están hechas las galaxias, perdió piso.
En menos de 500 años la humanidad dejó de ser el centro de un universo supuestamente
creado por una divinidad externa a él. Ahora se sabe que cuando la especie humana
desaparezca, ese final de la aventura poco importará al planeta que la generó o facilitó su
desarrollo; vale la pena entonces recordar la frase de Gribbin arriba citada para tomar
conciencia de nuestro insignificante cruce por el espacio-tiempo. Cuando desaparezcamos
como especie de la faz de la tierra, el resto del Universo ni siquiera habrá percibido nuestro
efímero paso por el Cosmos. Sirva esta premonición como argumento en contra de quienes,
intentando dar una fundamentación científica a la nueva astrología, desde la nueva era, dicen
que somos parte del gran átomo universal, un tema al que tangencialmente haremos
referencia más adelante.
La información es más fundamental que la materia y la energía
Información no es conocimiento, pero físicamente es un concepto tan fundamental como la
materia y la energía, o aún más: ese será nuestro punto de partida, como se desprende del
título de esta sección. Cuando se dice que vivimos en la Era de la Información (Information
Age), y no se tiene la intención de señalar que vivimos un periodo de la historia equiparable a
la edad de la piedra o de alguno de los metales en la prehistoria, no se entiende muy bien el
concepto físico de información. De hecho, quienes ignoran que al procesamiento cuántico de
la información se están dedicando ingentes esfuerzos en las regiones más desarrolladas del
planeta, no alcanzan a percibir el impacto que tendrá la información como sujeto en el
desarrollo futuro de la humanidad. Al plantear esta inquietud, se está de paso justificando el
título mismo del presente ensayo. No obstante, examinar algunos de los efectos que tendrá a
nivel fisiológico, particularmente en el cerebro y en la estructura mental del ser humano, el
desarrollo y el uso de las nuevas t.i.c. y en general de las denominadas tecnologías emergentes
a que ya hemos hecho referencia, está por fuera de los propósitos del mismo. (Greenfield,
2015; Giraldo, 2016.)
¿Qué es la información? La respuesta podría ser tan simple o más que la pregunta: todo lo que
aparece o desaparece. Un bit (binary digit) es SÍ o NO, encendido o apagado, 0 o 1 en código
binario. Un qubit, el bit cuántico, es mucho más complejo: encendido y apagado al mismo
tiempo. Recuerde el lector lo que decíamos al comienzo: se es o no se es, clásicamente
hablando. La paradoja del gato de Schrödinger (vivo y muerto, a la vez) nos lleva a concluir lo
dicho dos páginas atrás: si bien clásicamente 3 es complejo, en mecánica cuántica, 2 ya lo es.
Para entender mejor la diferencia, antes de caer la moneda que se lanza al aire, hay solamente
2 posibilidades: cara o sello, cabeza o cola, o cualquiera otra entre 2 alternativas, una de las
cuales ya está determinada de antemano en el mundo clásico: de cómo se lanza, de qué está
constituida, dónde y cómo va a caer, de otros factores que en principio son conocibles, pero
que en la práctica no los podemos conocer. La moneda cuántica difiere de la clásica
precisamente en ese aspecto: ni siquiera en principio las condiciones precisas son conocibles,
porque no podemos por principio disponer de toda la información. Es más, el estado cuántico
no existe antes de que sea observado. La observación crea la información.
Pero la información es mucho más que la simple observación, sea esta de o sobre un objeto
cuántico o clásico. Cabe resaltar que existe una gran diferencia entre el comportamiento
clásico newtoniano reversible, vale decir ideal o utópico, y el cuántico hecho irreversible por la
observación, ya destacada en el título de una de las obras imprescindibles de Ilia Prigogine:
From being to becoming (1980). Este concepto, trasladado al cerebro humano, la más
maravillosa máquina de procesamiento de la información de que tengamos noticia hasta el
presente, nos llevará a la conclusión de que la información somos nosotros, de que la
conciencia es la información registrada a lo largo de nuestra existencia. Con el uso del futuro
(nótese que escribimos nos llevará), consideramos innecesario advertir al lector que vamos a
postergar hasta el final una profundización sobre las implicaciones de esa bizarra afirmación.
Sirva ella de pretexto para reconocer que no son su esencia los pixeles en las imágenes
digitalizadas o las huellas que deja una grabación electrónica en CDs o DVDs o las fuentes en
los libros al imprimirlos u otras materializaciones de la información: ellos son solo el medio
para transportarla, una etapa intermedia de su procesamiento.
Y ya que hacemos referencia al procesamiento de la información, es eso lo que la hace valiosa,
su dinámica. Más que la energía, que puede tomar distintas formas estáticas, la información
puede adoptar múltiples expresiones dinámicas. Aquella está sujeta al tipo de interacciones o
fuerzas, las cuales a su vez dan lugar a un número equivalente de formas de energía potencial
que se pueden convertir en energía de movimiento, por ejemplo. Al igual que ocurre con la
energía, lo importante es lo que se haga con la información, pero su procesamiento la hace
mucho más versátil. Si bien cuando se echa mano de la energía, en general se tiene un
propósito, para hacer uso de la información el propósito ha de estar mucho más definido.
Invariablemente, su propósito es provocar un cambio de algún tipo. En la dinámica del
procesamiento está explícita la diferencia entre una transformación o un cambio por azar o
una modificación intencionada. Y hay algo todavía más radical, que no se exige de la materia o
de la energía: aparte de un propósito, definido casi siempre por el emisor, la información debe
tener también un significado, el cual va a ser determinado o descifrado por el receptor.
Cuando nos preparábamos para ordenar estas notas vino casualmente a nuestras manos la
traducción de un texto que por esa afortunada coincidencia le resultó muy valioso: From
Animals into Gods, traducido como De animales a dioses. (Harari, 2013.) Aunque el cambio de
sentido en la traducción es mínimo, nos parece más fuerte la expresión en inglés. El subtítulo
no es menos sugestivo: Breve historia de la humanidad. El libro empieza (primera parte) con La
revolución cognitiva y termina (cuarta parte) con La revolución científica. Lo que podría
denominarse primera revolución cuántica ha dado lugar a la más reciente revolución industrial.
El lector podrá encontrar una cierta relación entre la estructura de los dos textos, el que tiene
en sus manos y el de Harari, con la particularidad de que, si adelantamos el desenlace, el
subtítulo del segundo tomo de Quantum Sapiens anuncia en realidad una segunda revolución
cognitiva. Una revolución científico-técnica que hemos denominado la segunda revolución
cuántica será la responsable de esa gran transformación cognitiva que se anticipa en el epílogo
(final de QS II). Greenfield la denomina Mind change (cambio mental) y anuncia que será
equiparable al cambio climático en varios aspectos. De esas reflexiones nos ocuparemos
precisamente en el epílogo.
REFERENCIAS
Andrade, E. (2003). Los demonios de Darwin.
Einstein, A. (1984). La evolución de la física. (Salvat, Barcelona.)
Einstein, A. and Infeld, L. (1938). The Evolution of Physics: The Growth of Ideas From Early
Concepts to Relativity and Quanta. (Cambridge University Press.)
Giraldo, J. (2009). Unos cuantos para todo. (Ediciones Buinaima, Bogotá.)
Giraldo, J. (2016). ¿Nano-qué? Nano-revolución. (Ediciones Desde Abajo, Bogotá.)
Greenfield, S. (2016). Mind change. (Random House, New York.)
Kandel, E. et al., editors, 2013. Principles of neural sciences. (5th edition, McGraw-Hill, New
York.)
Margulis, L. y Sagan, D. (1997). Microcosmos. Four billions years of microbial evolution. (En
español, Tusquets, Barcelona.)
Prigogine, I. (1980). From being to becoming. (Freeman and Co., San Francisco.)
Rosemblum, B. y Kuttner, F. (2011). El enigma cuántico. (Tusquets, Barcelona.)
Klein, É. (20013). Física cuántica. (Siglo XXI editores, México.)
Weinberg, S. (1992). Dreams of a final theory. (Pantheon Books, New york.)
PRIMERA PARTE
Los objetos físicos se manifiestan de alguna manera frente a nuestros sentidos, o en forma
más general, son detectados por nuestros aparatos de medida. Concordaremos en afirmar
entonces que la observación a que nos referimos en física no es solamente la que podemos
realizar con el sentido de la vista. En otro tiempo percibiríamos u observaríamos los objetos
materiales y quizá dudaríamos en reconocer que la luz es un objeto material. ¿Es la gravedad
un objeto material? Pocos se atreverían a responder positivamente, pero las ondas
gravitacionales, recientemente descubiertas, no dejan lugar a duda. Una pregunta más sutil se
refiere a lo que hoy se denomina información. No estamos hablando de lo que venden los
periódicos o lo que escuchamos en la radio o vemos en la televisión. Exploramos a nuestro
alrededor para informarnos de lo que está pasando, eso es indudable, pero la información
misma es algo más etéreo. Sin embargo, después de Claude Shannon debemos reconocer que
la información es algo con contenido físico.
Hubo una época en la que atribuíamos a los cuerpos propiedades que no tienen. Los efectos
del zodíaco en la vida de las personas es una de esas manifestaciones. No es este el espacio
para hacer la distinción entre mito y religión, pero sí lo es para deslindar terrenos entre esos
dos campos, de alguna manera relacionados, y el que ocupa lo que hoy denominamos ciencia.
Ha habido, y es probable que se sigan presentando, periodos de la historia en los que la ciencia
que se practica no difiere mucho de la pseudociencia. No está lejana la época en que solía
hablarse del fluido calórico o del fluido vital, fluidos que hoy claramente están descartados en
la ciencia.
Cuando trabajemos con los vectores de estado, esta técnica permitirá expresar en términos
matemáticos el principio de superposición. La suma de vectores en la forma clásica indicada es
el punto de partida para la superposición de estados en la mecánica cuántica.
Un poco más tarde (tan cerca como queramos del instante t), en el instante t+t, el objeto o
masa puntual se ha desplazado a su nueva posición x(t+t):
La relación entre el desplazamiento xy el intervalo de tiempo t, cuando ese intervalo es
suficientemente pequeño, es matemáticamente la velocidad instantánea. Como el concepto
es un poco abstracto, refirámonos primero a la velocidad promedio o rapidez media.
Figura I.2. Ilustración del vector velocidad (variación del vector de posición) para 2 posiciones
diferentes. El vector velocidad, o velocidad a secas, es siempre tangente a la trayectoria del móvil.
La posición exacta suele darse por simplicidad, aunque no siempre, por las llamadas
coordenadas cartesianas de un punto matemático (x,y,z) y suele representarse por el vector
(tridimensional) r; en ocasiones es mejor hacerlo mediante las denominadas coordenadas
esféricas (r, , ), siendo r la magnitud del vector de posición, r, el ángulo que forma la
dirección de este vector con el eje z, y el que forma su proyección sobre el plano XY con el
eje x, pero no es necesario ahondar en el tema. La medida de la rapidez media, magnitud de la
velocidad promedio <v> (o <v>), es la relación entre el desplazamiento o espacio recorrido
(s), denotémoslo por Δs, y el tiempo (t) empleado para recorrerlo, designémoslo por Δt: v =
Δs/Δt. El espacio recorrido depende del intervalo de tiempo medido, pero la relación lo es
menos si el intervalo de tiempo es pequeño. Asumimos que en t la posición es r, en t1 r1 y así
sucesivamente: en t’ es r’. Limitémonos de nuevo, por simplicidad, al plano XY para ilustrarlo.
Cuando se tiene el vector velocidad para cada instante de tiempo, v(t), es fácil trasladar la
información al espacio de velocidades. El origen en dicho sistema es el reposo. Las unidades
para la velocidad en el sistema MKSA (metro·kilogramo·segundo·amperio) son m/s (metros
sobre segundo), o mejor, ms-1. Más que el espacio de velocidades, se suele hablar del espacio
de momentos o de cantidad de movimiento. A este concepto volveremos en la siguiente
sección.
El símbolo Δ a menudo se emplea para indicar que se hace referencia a cantidades
minúsculas. Esto es muy conveniente, porque se pueden, en principio, observar los cambios
que se producen de un instante de tiempo al siguiente, sin precisar el lenguaje: aceptemos, sin
más, que el tiempo fluye en forma continua; y que la línea (curvada o no) que representa la
trayectoria es una sucesión continua de puntos. Si no cambia por lo menos una de las
componentes de la posición del objeto, no hay movimiento.
Aceleración, cambio en la cantidad de movimiento e impulso dado por una fuerza
Introduzcamos ahora el concepto de aceleración. Su importancia mayúscula reside en la
relación que tiene con las fuerzas o interacciones: no habrá aceleración en ausencia de estas.
Ésta es el cambio de velocidad, exactamente en la misma forma en que velocidad es el cambio
de posición: a es, pues, un vector: vector aceleración. Precisémoslo un poco más, siguiendo la
figura.
Si en el instante t el objeto móvil se encuentra en P y tiene una velocidad v, cuya dirección es
tangente a la trayectoria en dicho punto, como ya dijimos, y en el instante t' el móvil se
encuentra en el punto P' y tiene una velocidad v', en general ese objeto habrá cambiado su
velocidad tanto en módulo como en dirección en una cantidad dada por el vector diferencia
v=v’-v. Trasladando los vectores velocidad a un espacio imaginario de velocidades, se
traslada el vector (velocidad final) al extremo de –v y tendremos lo que se ilustra a
continuación para el cambio de velocidad (aceleración), aplicando lo que denominan regla del
paralelogramo:
-v
v´
Δv
F = ma.
La masa que aparece aquí es la misma que se ha utilizado para la definición de la cantidad de
movimiento, a saber, masa inercial. Con la tercera ley de Newton de acción y reacción (toda
fuerza ejercida por un objeto sobre otro hace que este último ejerza sobre el primero una
fuerza igual y opuesta), combinada con la segunda ley, se encuentra un principio fundamental
de la mecánica: el de conservación de la cantidad de movimiento.
Colisiones y momentum
Cuando dos objetos interaccionan, intercambian lo que hemos definido como cantidad de
movimiento. Aunque no lo demostraremos, el principio de la conservación de esa cantidad es
uno de los pilares de la mecánica clásica o cuántica. Hay algunas sutilezas que deben tenerse
en cuenta al aplicarlo. Por ejemplo, si se aplica al sistema tierra-luna, cuando esta avanza hacia
un lado con cierta velocidad respecto a un sistema inercial, hará que la tierra se mueva en
dirección contraria con una velocidad en magnitud muy inferior a la de la luna, en la relación
entre las masas tierra/luna. Lo mismo ocurre con el sistema protón-electrón, etc. En este caso,
la relación entre masas es de 2000 y el núcleo puede considerarse fijo.
Para un electrón libre, lo contrario de ligado, normalmente uno conoce con precisión con qué
velocidad se mueve, es decir, su cantidad de movimiento, la cual se conserva. El principio de
indeterminación de Heisenberg nos dirá que es imposible saber dónde se encuentra. Pero esa
discusión la dejaremos para el cuerpo principal del presente texto (primera parte), porque
forma parte de uno de los aspectos más relevantes en la nueva física.
En la formulación de Newton de la mecánica y su generalización posterior hecha por Lagrange,
Hamilton y otros, la masa se conserva. La ley o ecuación de movimiento, generalizada o no, se
convierte en la mecánica cuántica en la ecuación (de onda) de Schrödinger, la cual no dice
cómo se mueve un sistema cuántico sino cómo evoluciona su función de onda. Este aspecto se
tocará cualitativamente en la primera parte.
El concepto de masa también se utiliza en la energía de movimiento, a la que nos referimos a
continuación. No sobra advertir que la expresión general para la energía cinética en la
mecánica cuántica no es la misma de la mecánica clásica.
Conservación de la energía y energías de diverso origen
Hay un principio cuya validez ha sido a puesta a prueba y que, hasta donde sabemos hoy, solo
puede ser violado por la preservación o primacía de otro principio, esta vez de origen
cuántico, a saber el principio de indeterminación. Nos estamos refiriendo al Principio de
Conservación de la Energía. La confirmación experimental de ese principio hace que podamos
hablar más rigurosamente de una ley de conservación. Se podría empezar cualquier curso de
física invocando esa ley. Cuando ya se tiene claro el concepto de fuerza y el significado de la
segunda ley de Newton, es preferible referirse al trabajo hecho por una fuerza, para
demostrar un teorema que relaciona el trabajo de la fuerza neta sobre un objeto simple o
masa puntual y lo que se denomina energía de movimiento o energía cinética. Separando
cuidadosamente el trabajo hecho por fuerzas cuya intensidad depende solo de la separación,
el cual puede agruparse en otro tipo de energía acumulada denominada potencial, se puede
hacer un enunciado débil del principio en la forma que la mecánica newtoniana lo permite.
Veámoslo más detenidamente.
Expresable en términos newtonianos modernos mediante la fórmula p2/2m (o, si lo prefiere,
½mv2; lo cual no es cierto cuando hay que tener en cuenta la relatividad de Einstein, cuando
se reconoce la equivalencia entre masa y energía, a la que volveremos a menudo), la energía
de movimiento o energía cinética es la manifestación más inmediata de la energía de un
objeto simple o masa puntual. Para aprovechar una analogía con el concepto de impulso, de
gran trascendencia, nótese que la extensión de la fuerza en el espacio, FΔx para el caso
unidimensional, conduce al concepto de trabajo y por ende al de aumento (o disminución) de
la energía: FΔx es el aumento en la energía de movimiento, si no hay otra fuerza que se
oponga a éste y aquella actúa en la dirección x. De manera más general, en mecánica clásica
se habla del Teorema del Trabajo y la Energía Cinética, según el cual el trabajo de la fuerza
neta (resultante de la composición vectorial de todas las fuerzas que actúan sobre el objeto)
es igual al incremento en la energía cinética; FΔx incrementa además la energía de posición,
llamada también potencial, si un campo de fuerza conservativo, por ejemplo el campo
gravitacional, o una fuerza elástica (procesos reversibles, caso de un resorte ideal)
contrarresta la acción de la fuerza aplicada por un agente distinto al campo o al medio
elástico. Imagine, para el caso, un montacargas que levanta o descarga pesados bultos a lo
largo del eje vertical, y; para elevar un peso mg (m en este caso es la masa gravitacional, y g es
el valor de la aceleración de la gravedad en la posición en que se encuentra el montacargas;
mg es la magnitud de la fuerza gravitacional, denominada peso) a una altura y, el montacargas
realiza un trabajo mgy, cantidad que es precisamente la energía potencial almacenada por el
cuerpo.
La energía de posición es un término bastante amplio; es energía almacenada, de ahí el
adjetivo de potencial, más general que “de posición”. Un satélite moviéndose alrededor de la
Tierra tendrá una energía potencial gravitacional (¡cuidado!, ya no es mgh, es proporcional a -
1/r, donde r es la distancia del satélite al centro de la Tierra). La energía potencial puede estar
almacenada en muelles comprimidos o en mecanismos menos fáciles de identificar; en
nuestra escala usual, envuelve a menudo energía eléctrica (a veces llamada electroquímica) o
electromagnética o en últimas se reduce a ella (la del muelle rigurosamente es de origen
eléctrico o electromagnético); quien esté familiarizado con circuitos eléctricos, puede pensar
en un resonador u oscilador eléctrico, en el que se acumula o aprovecha energía
electromagnética. Al concepto volveremos en el segundo apéndice. Generalizando, la energía
electromagnética en últimas se convierte en energía de radiación, energía que se propaga con
la onda electromagnética a ella asociada. Es, en últimas, el haz de fotones descritos mediante
la onda misma.
Un oscilador mecánico, cuyo ejemplo más sencillo es el péndulo simple o la masa atada a un
resorte, sirve también para ilustrar el concepto de transformación permanente de energía de
movimiento en energía de posición y viceversa. El movimiento planetario es un típico
movimiento de conservación y transformación de energía, de potencial gravitacional en
cinética o de movimiento y viceversa: en el apogeo, mayor distancia al centro atractivo, el
planeta (o satélite) se mueve con menor rapidez que en el perigeo, por lo que su energía
cinética (siempre positiva) es menor justamente en la cantidad en que se ha aumentado la
potencial, siempre un número negativo para el caso, haciendo de la suma una constante. Para
un resorte, caracterizado por una constante elástica k, la energía potencial puede escribirse en
primera aproximación como ½kx2, siendo x el desplazamiento con respecto a la posición de
equilibrio del muelle. El módulo al cuadrado (observe que el desplazamiento x podría ser
negativo en el caso del resorte, pero x2 siempre será positivo) es característico de muchos
términos que expresan la energía; veremos que esa magnitud también caracteriza otra
cantidad física fundamental en la nueva física, la probabilidad. Hay también osciladores
eléctricos, en la actualidad de mayor importancia diaria que los mecánicos. Al tema
volveremos en el siguiente apéndice.
Se suele representar a la energía de movimiento por T (no confundir con temperatura, una
cantidad física muy importante a la que prácticamente no nos referiremos a lo largo del
ensayo) y a la de posición por U. En los sistemas mecánicos que no disipan energía (no hay
cambios de temperatura), decimos que ésta se conserva: E = T + U = constante. Son sistemas
conservativos. Uno de los casos más sencillos es el de un satélite que se mantiene en una
órbita, determinada precisamente por la energía E y la forma particular en que se le puso en
órbita (condiciones iniciales); ocurre algo parecido con un electrón ligado al protón (átomo de
hidrógeno); pero, como veremos, en éste caso no se puede hablar de órbitas; cuando más, de
orbitales, solamente para hacer referencia a lo que en un lenguaje riguroso habrá que
denominar estado cuántico. Si se sobrepasa el límite relativista, en procesos nucleares y otros
más, es esencial recordar el principio de la equivalente entre masa y energía. Cada objeto
material de masa en reposo mo tiene una energía interna Eo = moc2, siendo c la velocidad de la
luz.
Hay otras formas de energía; el lector habrá oído hablar de energías térmica, nuclear, de
radiación y otras más. La energía solar, energía de radiación, proviene de procesos nucleares
(de fusión) que se dan en nuestra estrella. La radiación electromagnética se interpretaba antes
como energía calórica, y la energía térmica, también asociada al calor, es a menudo energía de
movimiento. Baste por ahora con afirmar que es frecuente no saber a qué se está haciendo
referencia cuando se habla de energía. Usted puede observar cómo cualquier lego en la
materia usa y abusa del término, en ocasiones para engañar incautos.
Compendio de la dinámica de un objeto puntual
Las dos cantidades físicas, propiedades físicas de un cuerpo con inercia m (recuerde que en
física m es la medida de la inercia de un objeto), que varían al prolongar, respectivamente, la
acción de una fuerza en el tiempo y en el espacio, a saber, la cantidad de movimiento y la
energía, sobreviven más allá del campo clásico; se asignan también como cantidades variables
de entes o sistemas cuánticos para los que el término ‘fuerza’ puede haber perdido
significado: las dos son observables cuánticos. Veremos que el hecho de ‘observarlas’,
determinarlas, generalmente altera lo que se denomina el estado del sistema, estado del
cuerpo de masa m para el caso. Nótese que la observación, casi siempre una interacción,
resulta en una perturbación, no siempre reducible a ‘fuerza’; con mayor razón puede
anticiparse esta conclusión en los experimentos ya citados, medidas libres de interacción. Es
entonces de subrayar que el concepto clásico de fuerza es reemplazado en la nueva teoría por
el de interacción. Este cambio de terminología es conveniente, porque permite una mayor
precisión en el lenguaje.
La energía como un todo es una cantidad fundamental en la dinámica. Su transformación, de
cinética en potencial y viceversa, es la esencia de la dinámica y da origen a diversas
formulaciones. Pero hay otra cantidad de fundamental importancia, ya mencionada. El
momenum angular o cantidad de movimiento angular. Precisaremos el concepto a
continuación. Veremos que en mecánica cuántica tiene un significado más profundo,
sintetizado en lo que se denomina momentum angular intrínseco o espín.
Conservación de la cantidad de movimiento angular
L = r×p,
operación vectorial que se denomina precisamente “producto vectorial”, con las siguientes
características: la dirección es perpendicular al plano formado por los vectores r y p, y su
magnitud es el producto de las dos magnitudes de esos vectores multiplicada por el seno del
ángulo entre ellos. A partir de la segunda ley de Newton, F = dp/dt, si F está en dirección r, es
fácil demostrar que L se conserva, es decir, su variación es nula para estos casos. En otras
palabras, el momento cinético de un sistema se conserva cuando el sistema gira alrededor de
un centro de fuerza (fuerzas centrales, de las cuales la gravitacional es solo un caso).
Sistemas físicos y formalismos
En física clásica, el sistema físico es una idealización de la realidad. Cuando se habla del
movimiento de la Luna, se suele decir que es como “un punto matemático que se mueve en
una trayectoria circular, manteniéndose a una distancia de 384,403 kilómetros de la Tierra”.
Puede agregarse que su diámetro es 3,476 kilómetros; que su movimiento es sincrónico: tanto
la rotación de la Luna como su órbita alrededor de la Tierra duran 27 días, 7 horas y 43
minutos; y que esa rotación síncrona se debe a la distribución asimétrica de su masa. La
primera parte de la frase es una verdadera abstracción del sistema físico real; en la segunda,
se suministra información suficiente (a la que se añade otra) para cuestionarse sobre la validez
de esa abstracción. Cuando se aplica un formalismo matemático a la descripción del
comportamiento o evolución en el tiempo de un sistema físico, es indispensable hacer
idealizaciones. Así se procedió para la descripción del movimiento de la luna alrededor de la
tierra y de esta alrededor del sol. Antes de terminar esta sección, queremos dejarle al lector
no científico una inquietud: ¿será que la Luna va a continuar moviéndose de esa manera?
Téngase en cuenta que no siempre se movió así… la tierra tampoco ha permanecido invariable
en su movimiento como planeta alrededor del sol. ¿No se estará extrapolando demasiado?
Movimiento planetario
El movimiento de la Luna (y de los planetas) sólo pudo ser entendido de manera global cuando
Newton incorporó, adicionalmente a sus leyes de movimiento, una ley de fuerza, la llamada
ley del inverso del cuadrado de la distancia. Sobre esa ley hablaremos ahora a modo de
ilustración del éxito de la mecánica clásica, aplicada a puntos materiales que no son tales,
pues nos estamos refiriendo a los planetas, sin preocuparnos por su rotación interna o
intrínseca. Para esa también vale la conservación del momentum angular.
Una vez que se ha observado que el movimiento de la Luna es circular, pueden utilizarse las
otras leyes para concluir, a partir del resultado, que la Luna se mantiene en su órbita con el
periodo de 27.3 días aproximadamente, gracias a que la Tierra la atrae con una fuerza
proporcional al cuadrado de la distancia, una nueva ley. Eso fue lo que hizo Newton, echando
mano de las leyes del movimiento planetario de Johannes Kepler, deducidas a partir de
cuidadosas observaciones del movimiento de los cuerpos celestes. La primera se refiere a la
forma de las órbitas: son elípticas; recuérdese que el círculo es una forma particular de elipse.
La segunda sostiene que las áreas barridas por el ‘radio’ de la órbita (r, un radio variable para
el caso general; o r, un vector de posición cuya variación describe la trayectoria) son tales que
áreas barridas en tiempos iguales son iguales. Más sencillo: la tasa de cambio del área que
barre la distancia del cuerpo celeste al Sol es constante. Esa afirmación parece obvia en el
caso del movimiento circular: la podemos utilizar para deducir cuál es la rapidez o velocidad
promedio en el movimiento circular uniforme de la Luna alrededor de la Tierra, si usamos
como datos el radio de la órbita lunar y su período. La tercera es más complicada, y fue el
triunfo más grande de las observaciones de Kepler, a la vez sustentado en las de sus
predecesores, Nicolás Copérnico y Tycho Brache: afirma que los cuadrados de los períodos son
proporcionales al cubo de los semiejes mayores, en este caso el radio mismo: T2 R3. A partir
de la segunda ley de Newton sobre el movimiento, es fácil demostrar que la relación exacta
es: T2 = 42R3/GM, siendo M la masa de la Tierra en el caso del movimiento de la Luna, o del
Sol para el caso de la Tierra o cualquiera de los planetas o cuerpos del sistema solar que giran
en órbita elíptica alrededor del Sol. Las tres leyes de Kepler sobre las órbitas traen pues
implícitas la segunda de movimiento y la de gravitación universal.
Veamos ahora cómo usar lo anterior para deducir la ley de fuerzas mencionada en un caso
muy particular, cuando la órbita es circular. Tal es el caso del movimiento de la Luna alrededor
de la Tierra. Pero la ley es completamente general para los cuerpos celestes.
Figura I.3 Leyes de Kepler. La primera se refiere a las trayectorias (elípticas) de los planetas y la segunda
a las áreas barridas en tiempos iguales. La ley de los periodos es consecuencia de la variación de la
intensidad de la fuerza atractiva, proporcional al inverso del cuadrado de la distancia.
Si un cuerpo se mueve con velocidad constante, es decir, en línea recta recorriendo tramos
iguales en tiempos iguales, es porque no hay fuerza neta actuando sobre él: es el enunciado
de la primera ley de Newton, también conocida como ley de inercia, deducida empíricamente
por Galileo cincuenta años antes en un proceso de abstracción nuevo para la ciencia. Por el
contrario, un movimiento curvilíneo no puede ser uniforme, es decir, no puede ocurrir sin
aceleración. Sin entrar en detalles, es fácil concluir que cuando un cuerpo se mueve en
trayectoria circular (r = R) con rapidez constante, experimenta una aceleración centrípeta
(hacia el centro de la trayectoria, o de manera más general, perpendicular al segmento de
curva) proporcional al cuadrado de la rapidez (magnitud de velocidad, v) e inversa a la
curvatura, el radio en este caso: en símbolos, a = v2/R. No es difícil ver, a partir de la definición
de rapidez (distancia recorrida/tiempo empleado en recorrer esa distancia), que v está dada
por 2πR/T, denotando por T el periodo del movimiento circular, un movimiento periódico
porque se repite cada T segundos. En consecuencia, a = v2/R = 4π2R2/T2R 1/R2. Más
exactamente, a = GM/R2, enunciado de la ley de gravitación universal de Newton, lo que es
equivalente a afirmar que en magnitud
F = (GM/R2) m,
expresión equivalente a la segunda ley de Newton sobre el movimiento. En el último paso, se
ha hecho uso explícito de la tercera ley de Kepler. Es evidente que en la superficie de la Tierra,
a = g, una “constante” cuyo valor exacto depende de la posición, longitud, latitud y altura.
Suele asignársele el valor de 9.8 m s-2. Para simplificarles la vida, redondearse ese valor a 10 m
s-2.
Figura I.4 Comunicando suficiente impulso, podría aspirarse a poner un objeto material, por ejemplo
una pelota de béisbol, en órbita. En la práctica, muy cerca de la superficie de la Tierra esto no funciona,
porque hay un fuerte rozamiento con la atmósfera terrestre. Para la velocidad que habría que
imprimirle, 8 km/s, o más dramático, 29,000 km/hora, la pelota no tardaría en arder en llamas. En la
ionosfera el efecto es mucho menor. Por eso se elevan a unos 200 km sobre la superficie de la Tierra los
satélites artificiales.
La magia de Newton, más allá de sus famosas tres leyes del movimiento, estuvo en
aventurarse a encontrar «leyes de fuerza». La más famosa es la Ley de Gravitación Universal,
escrita aquí una vez más, ahora en forma matemática precisa:
F = -GMmr/r3.
Esta es una ley de fuerza central, atractiva (en la dirección –r), cuadrática: la intensidad de la
fuerza varía con el inverso del cuadrado de la distancia, y va en la dirección opuesta (atractiva)
a la que une los centros de los cuerpos que interactúan o se atraen gravitacionalmente: M, la
masa mayor de, por ejemplo, la Tierra, y m la pequeña masa, por ejemplo la Luna o cualquier
satélite artificial. r/r corresponde a lo que suele denominarse un vector unitario: no tiene
dimensiones, pero siempre tiene la unidad de magnitud; por eso r/r3 tiene dimensiones de
1/r2, resultado al que ya se había hecho referencia. En coordenadas cartesianas se suele
escribir i, j y k para los tres vectores unitarios en direcciones X, Y y Z, respectivamente, de tal
suerte que si se toma como referencia el origen, donde se encuentra en el caso mencionado la
Tierra, se tendrá:
r = xi + yj + zk.
Si se quisiera representar la posición y el movimiento de la Luna o de un satélite artificial que
gira alrededor del centro de la Tierra en trayectoria circular, el esquema sería el representado
en la figura I.5.
Otra ley de fuerza de mucha utilidad, aunque con mayores limitaciones, es la llamada Ley de
Coulomb. Es el punto de partida de los fenómenos electrostáticos. Basta cambiar la constante
G gravitacional por una nueva constante k, eléctrica; y utilizar a cambio de las expresiones o
símbolos que se refieren a masa por otros que tengan en cuenta la nueva propiedad física
intrínseca de los cuerpos cargados eléctricamente, la cual ahora se presenta en dos clases
diferentes, dando lugar a atracciones o repulsiones. En rigor, a excepción de los 3 neutrinos,
que conforman con el electrón, el muón y el tauón, la familia de los leptones, los objetos que
con mayor precisión podrían denominarse partículas por estar más cercanos al concepto de
masa puntual, tienen todos carga eléctrica; cada uno de los seis quarks tiene carga, en
magnitud 1/3 o 2/3 la carga del electrón o de cualquiera de los leptones cargados. Si el
sistema físico fuera un protón y un electrón (átomo de hidrógeno; recuérdese, de paso, que el
protón, núcleo del hidrógeno, no es, rigurosamente hablando, una partícula elemental), cada
una de las partículas interactuantes tendría carga de magnitud e, la una positiva y la otra
negativa. Como resultado se atraen, en la misma forma que el sistema Tierra-Luna. He aquí la
expresión correspondiente al átomo de hidrógeno:
F = -ke2r/r3.
1.8. Generalización de la mecánica.
La formulación newtoniana de la mecánica clásica, aunque relativamente sencilla, es de
aplicaciones prácticas limitadas en el terreno teórico.
La formulación de Lagrange, utilizando coordenadas y fuerzas generalizadas, es más poderosa.
Todavía más apropiada es la que se denomina formulación Hamiltoniana (Hamilton, 1838). En
esta, las ecuaciones diferenciales de segundo orden de las formulaciones anteriores se
convierten en ecuaciones de primer orden, las cuales relacionan la variación en el tiempo de
las coordenadas o momentos generalizados con variaciones de la denominada función de
Hamilton (hamiltoniano) con respecto al momentum o coordenada generalizada
respectivamente. Fue este enfoque el que permitió a Schrödinger encontrar su ecuación de
onda, aplicable precisamente al Hamiltoniano en su versión cuántica. Implícitamente estamos
hablando así del espacio de fase o de coordenadas y momentos generalizados.
Sin necesidad de entrar en ese terreno esencialmente matemático, terminaremos esta
sección haciendo alusión a otras alternativas que permiten visualizar el problema de la
dinámica en términos más simples. La figura I.6 es una excelente representación de las dos
imágenes más usuales en física clásica: la trayectoria en el espacio directo, o espacio de
coordenadas, y la del espacio recíproco o espacio de velocidades (o momenta). Fue tomada de
una preciosa pieza recuperada de Feynman, denominada La conferencia perdida de Feynman
(Metatemas 56, Tusquets, 1999).
Figura I.6. Movimiento de un planeta en trayectoria elíptica alrededor del Sol. A la derecha se muestra
el espacio recíproco o de momentos. El radio vector p (o para el caso la velocidad Vp), en general
variable en magnitud y dirección, describe una trayectoria circular alrededor del centro C en el espacio
recíproco o de momentos; el origen O de los vectores velocidad coincide con C solamente cuando la
trayectoria en el espacio de posiciones es circular, pero la curva que describe el vector variable p es
circular para la Luna, los planetas o los meteoritos.
Figura I.7a. Nube electrónica alrededor del núcleo en el átomo de hidrógeno que muestra la
distribución de la probabilidad en la interpretación de Born de la función de onda.
HΨn = EnΨn.
Una forma más sencilla para describir el movimiento oscilatorio periódico es descomponer el
movimiento circular uniforme, como ilustra la figura I.10. Para ello es conveniente introducir
el concepto de velocidad angular ω, de tal suerte que el ángulo barrido después de transcurrir
un cierto tiempo t es: Θ = ωt. Eso quiere decir, si el punto de partida del móvil fue B, que x = R
cos(ωt) y y = R sen(ωt).
A partir de movimientos oscilatorios periódicos se pueden generar ondas en diferentes medios
materiales. La clave está en transmitir esos movimientos oscilatorios de un punto a otro en ese
medio. La figura I.9 podría servir para representar una onda monocromática, la propagación de
una perturbación con una determinada frecuencia, una onda con una longitud de onda
específica. El ángulo 2Π correspondería a una posición λ si el eje horizontal en esa figura
representa la dirección de propagación de la onda, el eje Z, perpendicular al plano en la figura
I.10. O puede corresponder a T, un periodo completo (inverso de la frecuencia), si el eje
horizontal es el tiempo.
Longitud de onda
Intensidad
Figura I.11. Ilustración espacial de la intensidad de una onda matemática en una dimensión. (La
intensidad de la onda es proporcional al cuadrado de la amplitud, por ende siempre es una cantidad
positiva.)
Figura I.12. Ondas estacionarias en cuerdas, generadas mediante láminas o diapasones de diferentes
frecuencias. La velocidad de propagación de la onda está determinada por la densidad (masa por
unidad de longitud) de la cuerda y por la tensión a que está sometida. En la figura a) la cuerda está libre
por el extremo derecho.
Mediante un diapasón conectado a un extremo de una cuerda cuyo otro extremo puede estar
fijo a un peso que causa una cierta tensión, por medio de una polea, por ejemplo, pueden
generarse ondas. Acomodando tensiones y longitudes para diapasones de diferentes
frecuencias, es posible generar ondas estacionarias muy diversas, como las que se ilustran en
la figura I.12.
Ya que hablamos de diapasones, nótese que a menudo su vibración se acopla a una caja vacía
en su interior, buscando que se produzca un interesante fenómeno característico de las
oscilaciones y las ondas: la resonancia. Es lo que ocurre, por ejemplo, con las vibraciones de
los instrumentos de cuerda frotada, entre los que destaca el violín, o algunos de percusión
como el tambor. En los instrumentos metálicos, de viento o de percusión, el acople es más
complejo.
Los medios materiales en que se propagan las ondas mecánicas pueden ser sólidos, líquidos,
gaseosos o plasmas, cuatro estados de la materia. (Algunos se refieren al condensado de Bose-
Einstein como un quinto estado.) Decimos que una onda se propaga, y mecánicamente
imaginamos que es la perturbación o agitación lo que se transmite, a una cierta velocidad
característica. Ésta depende, en primera instancia, del medio en que se propaga la
perturbación, de la tensión a que está sometida la cuerda, por ejemplo, y de su densidad
(composición y grosor).
Es fácil observar la propagación de ondas en un trozo de gelatina: distintas texturas dan
diferente velocidad de propagación. A lo largo de un tronco de madera suficientemente
extenso puede percibirse la propagación de una onda sonora con una velocidad mayor que en
el aire. Se esperaría que es más ilustrativo hacer el experimento con una varilla metálica:
dando un golpe en un extremo se transmite rápidamente una señal sonora al otro extremo. La
velocidad de propagación es demasiado rápida para ser observada a simple vista.
Un largo tubo vacío con superficie de vidrio, preferiblemente de sección circular, nos permite
propagar ondas sonoras a través del aire en una dirección muy precisa. Podría ponerse a
vibrar un diapasón colocado en un extremo del tubo y percibir las ondas en el extremo
opuesto, si la longitud del tubo fuera apropiada: son de la misma frecuencia, más intensas que
cuando simplemente viajan en el aire debido a un interesante fenómeno llamado resonancia.
Esas son ondas longitudinales: a diferencia de la cuerda, en la cual las oscilaciones de las
partículas son transversales, las oscilaciones de cada una de las capas de aire se hace en la
misma dirección en que avanza la onda sonora. Véase la figura I.13. Nótese que estamos
hablando ya de vibraciones de un oscilador. Los átomos solían visualizarse clásicamente como
osciladores. Véase el capítulo quinto.
Figura I.13. Ondas longitudinales que se propagan a lo largo de una columna de aire en un tubo con
superficie de vidrio, para localizarlas mejor y evitar su disipación. El diagramador dibujó algunas
partículas de aire demasiado grandes, lo que facilita imaginar lo que ocurre en otras circunstancias. Las
ondas sonoras se generan mediante las vibraciones de un diapasón de la frecuencia que se desee.
Pero también es posible observar ondas de torsión, como las que se muestran en la figura
I.14. Para visualizar mejor lo que ocurre, imagine que se anclan a una varilla metálica
transversalmente trocitos rectos de alambre grueso. La torsión de una sección transversal de
la varilla se transmite a cada una de las secciones sucesivas: es fácil ver a qué velocidad avanza
esa perturbación observando el movimiento torsional de los trozos de alambre, aunque por
supuesto ellos van a afectar la velocidad de propagación, dado que modifican drásticamente
la dinámica de cada sección de la cuerda.
Figura I.14. Ondas de torsión. Son fáciles de visualizar en una barra metálica.
Hay muchos experimentos sencillos que pueden hacerse con ondas. Igualmente se encuentran
muchos cursos con autocontenido en la red.
Las ondas sonoras que se producen en los instrumentos de cuerda o de viento se acoplan
invariablemente a otro medio para propagarse y llegar al receptor: el aire es el medio de
propagación, por excelencia; en él se forman generalmente ondas esféricas, cuya intensidad
decae con el cuadrado de la distancia, un fenómeno típico de conservación de energía,
acompañado en mayor o menor grado de un fenómeno de origen diferente, en el que
igualmente decae la señal: la disipación. La disipación está ligada a otro interesante tema: lo
que ocurre realmente en el interior de cada una de las partes de materia, los átomos y
moléculas; ellos responden más frecuentemente y dan lugar, entre otras, a un tipo de ondas
de trascendental importancia: la denominada radiación electromagnética, a discutir en el
siguiente apéndice. Por simplicidad se puede imaginar que las ondas electromagnéticas en los
átomos, la luz que emiten, son como la que ilustra la figura I.15, en la cual se indica que a gran
distancia esa onda esférica se vuelve plana. Ocasionalmente el modelo funciona.
Figura I.15. Onda esférica (o circular) que se vuelve plana a gran distancia.
Figura I.16. Ondas estacionarias en una cuerda fija por sus dos extremos. En el primer caso, L = ½ λ; en
el segundo, L = ; en el tercero, L = (3/2) λ; para el cuarto, L = 2.
Sujétese una cuerda liviana (de baja densidad) por dos extremos, tensionándola, no muy
fuertemente para que se pueda observar mejor y para que no se rompa. Al presionar
transversalmente por el centro de la cuerda y liberarla repentinamente, la cuerda va a oscilar:
todos los puntos de la cuerda irán de abajo hacia arriba durante medio ciclo y de arriba hacia
abajo en el medio ciclo siguiente. Obsérvese que la cuerda tiene media longitud de onda, L = ½
λ. Ahora presiónese en sentidos opuestos a (1/4)L y (3/4)L, buscando que el centro
permanezca estático: se observa que, mientras la mitad de los puntos de la cuerda se mueven
en una dirección, los de la otra mitad se mueven en dirección contraria. Se ha logrado formar
una onda estacionaria con una longitud de onda λ igual a la longitud de la cuerda. (Véase la
figura I.16.)
Sin necesidad de hacer la demostración matemática, conviene advertir que la onda en el caso
anterior es una superposición de dos ondas: una que viaja hacia la derecha y otra
exactamente igual en amplitud y frecuencia que viaja hacia la izquierda. La amplitud de la
onda resultante es el doble de la de cada una de sus componentes, un efecto lineal fácil de
visualizar; la intensidad va a ser el cuádruplo. El fenómeno se denomina superposición de
ondas, y vale para todo tipo de ondas que se propaguen en medios lineales. Ya se dijo que la
superposición va a ser de gran importancia en la descripción de los fenómenos cuánticos.
De manera similar a la superposición de ondas, en el fondo lo mismo pero de manera más
general, funciona el fenómeno conocido como interferencia de ondas. Para ilustrarlo, es mejor
recurrir a ondas bidimensionales más extensas que las ondas en una cuerda (éstas, al igual
que las ondas sonoras en un tubo, son un tipo muy particular de ondas en una dimensión). Las
ondas en el agua son convenientes para visualizar lo sustancial en el experimento propuesto.
Las figura I.18 y I.19 ilustran el fenómeno de interferencia en el caso de la luz, para el llamado
experimento de interferencia a través de dos ranuras. En la I.20 se ilustra esquemáticamente
cómo se suman.
Figura I.17. Patrón de interferencia de ondas. El primer caso representa una situación idealizada,
ilustrada originalmente por Huygens (principio de Huygens), para las ondas de luz, considerando cada
punto en el frente de ondas como una nueva fuente de luz; el segundo, es una fotografía de ondas en el
agua durante un experimento real (laboratorio del PSSC, Physical Sciences Study Committee, 1964).
Se volverá a las ondas de luz en el Apéndice II y a lo largo del texto. Por ahora, para terminar
nuestra introducción a las ondas mecánicas, agreguemos que la perturbación que se propague
puede ser en principio de cualquier forma, en general, una superposición de muchísimas
perturbaciones periódicas armónicas.
Figura I.20. Superposición de dos ondas en fase (derecha) y en antifase (izquierda). Que la interferencia
sea constructiva o destructiva depende de la diferencia de caminos en la figura I.18 b. Si la diferencia en
el recorrido de las dos ondas es un número entero de longitudes de onda, la interferencia es
constructiva y las dos ondas se refuerzan. En caso contrario, número semi-entero de longitudes de
onda, es de aniquilación y las dos ondas se cancelan. Dependiendo del resultado, aparecen franjas
brillantes u obscuras en las figuras I.18 y I.19.
II. ELECTRODINÁMICA
Maxwell dijo: ¡hágase la luz!
F = q (E + vB).
En palabras, una carga (supuestamente puntual) que se mueve con velocidad v experimenta
una fuerza total que es la suma de dos términos: uno que depende solo del campo eléctrico,
otro que depende del campo magnético y del vector velocidad, en la forma que establece el
denominado producto vectorial. Resulta así fácil visualizar una descripción, en términos de
campos, de la fuerza que una carga puntual puede hacer sobre otra colocada a cierta distancia
y de la fuerza que un pequeño imán o un circuito de corriente puede hacer sobre otro imán u
otro circuito diminuto cercano, o simplemente sobre una carga en movimiento; en el primer
caso, se hablará de un campo eléctrico; en el segundo, de un campo magnético.
El lector ya estará acostumbrado a la descripción de interacciones en términos de campo:
basta con que regrese a la figura I.5. Allí se ilustra el campo gravitacional en el exterior
producido por la Tierra, una tierra esférica con densidad uniforme. Podríamos escribir: F = mg
(muy similar en su forma a qE). Pero debe tenerse cuidado: la magnitud de g, escribámosla
|g| o simplemente g, ya no es constante. Rigurosamente estaría dada por la relación: g =
GM/r2, siendo M para el caso la masa de la Tierra y r la distancia del objeto de masa m al
centro de la Tierra, o mejor, la distancia entre los centros de masa de los dos objetos que
interactúan gravitacionalmente, a condición de que los dos sean de forma esférica.
Los campos fueron tomando una realidad física a medida que el concepto se aprovechó para
avances conceptuales. El paso decisivo lo dio Einstein y está bosquejado en el manual que
escribiera con Infeld. Para los lectores menos experimentados en este tema, se hace aquí una
breve descripción gráfica de los campos en circunstancias muy sencillas, pero se les
recomienda bajar de nuestra página (o de algún otro lugar) el manual de Einstein e Infeld y
degustarlo en su capítulo tercero: Campo y relatividad. (La versión en español parece estar
agotada.)
Figura II.3. Campo magnético producido por un imán. La aguja o brújula se orienta en la dirección de las
líneas de campo.
Figura II.4. Un solenoide por el que se hace circular una corriente estacionaria (constante, denominada
también corriente directa, c.d.) por medio de una pila o batería o cualquier otro tipo de fuente de c.d. A
la derecha se ilustran las líneas de campo, resultado de la superposición de varias espiras como la de la
figura II.2b.
Figura II.5 Experimento de Rowland. Una carga eléctrica girando en círculo produce un campo
magnético. El campo magnético es similar al de la espira, pero rigurosamente hablando es un campo
dependiente del tiempo. O mejor, para adelantarnos a la discusión de la sección 4.9, la carga se ve
como un campo eléctrico variando en el tiempo que a su vez genera un campo magnético. Ese campo
magnético se manifiesta desviando la aguja o brújula colocada en el centro.
Figura II.6. a) Campo eléctrico de dos cargas del mismo signo; b) campos magnéticos cuando dos imanes
se acercan, con diferente o la misma polaridad, término ambiguo que dio lugar a equívocos.
Otro caso sencillo lo constituyen líneas rectas muy extensas de carga y de corriente, alambres
infinitos si se quiere idealizar aún más, vale decir, cuando la longitud de los segmentos rectos
considerados es muy grande comparada con la distancia a la cual se quiere examinar el
campo. Para visualizarlos más fácilmente, considérense solo las secciones transversales de
esos segmentos o líneas; es como si se estuvieran observando puntos, siempre y cuando el
grosor de los segmentos sea suficientemente delgado. De nuevo las líneas del campo eléctrico
del alambre cargado positivamente (representado a la izquierda) divergen en dirección
perpendicular a la línea (recuerde que ya no se trata de un punto); en cambio las del campo
magnético del alambre de corriente en dirección hacia el lector son circulares, se cierran
sobre sí mismas. Esto se ilustra en la figura II.7. Si se observan con atención, se verá que las
del imán también se cierran sobre sí mismas (la que va sobre el eje se cerrará en el infinito).
Quizá el lector haya oído hablar de condensadores cilíndricos y de cables coaxiales. En uno y
otro se encierra el campo (eléctrico o magnético, respectivamente) entre dos cilindros
concéntricos. Las líneas de campo siguen la misma orientación que tienen en la figura II.7.
Por analogía con los fluidos, las líneas de campo dan lugar a un flujo a través de una sección
superficial. En ocasiones, es conveniente pensar en el flujo a través de una superficie cerrada.
A diferencia de los flujos de campo, en los fluidos mecánicos (líquidos o gases) esta situación
no es tan interesante, porque el flujo hacia dentro es invariablemente el mismo que el flujo
hacia fuera: las líneas de flujo son en principio cerradas. En el caso del campo eléctrico, en
cambio, éste puede dar lugar a un flujo neto (es el caso usual cuando hay una carga dentro), lo
que no ocurrirá con el campo magnético, precisamente porque sus líneas de campo son
cerradas.
Figura II.7. Sección transversal de los campos de líneas de carga y de corriente. a) Campo eléctrico de
una línea recta cargada; b) campo magnético de una línea de corriente, segmento recto muy extenso,
en dirección entrante a la hoja.
Por último, considérense dos placas paralelas muy extensas (representadas por planos
paralelos), y visualícese un corte transversal. Discutiremos brevemente dos situaciones
interesantes en que pueden producirse campos eléctrico o magnético muy aproximadamente
uniformes. En el primer caso, se trata de placas cargadas, la de la derecha con carga positiva,
la de la izquierda con carga negativa: es lo que suele denominarse un condensador de placas
planas, un dispositivo muy usual en diversos acumuladores y en múltiples circuitos eléctricos o
electrónicos.
Figura II.8. Campos producidos por placas paralelas ilimitadas. Se muestra solo una región de las placas.
a) Campo de placas cargadas con cargas iguales y opuestas. b) Campo magnético producido por un par
de placas que transportan corriente en direcciones opuestas.
El segundo caso es menos realista (poco frecuente) y representa igualmente dos láminas muy
extensas que llevan corriente, la inferior en la dirección que se aleja del lector y la superior
acercándose hacia él. A diferencia de las líneas de campo eléctrico, que empiezan y terminan
en las placas, las de campo magnético se cierran sobre sí mismas en el infinito, para el caso
ideal considerado, por fuera de las placas en el caso real de placas finitas. Las líneas de campo
se ilustran en la figura II.8. En ambos casos, debería tenerse en cuenta la deformación que
tiene lugar en los extremos de las placas, para satisfacer algunas propiedades de los campos
que no discutiremos en esta breve síntesis.
Hasta aquí se han hecho suposiciones muy fuertes, no solamente en cuanto a la geometría de
los objetos: se ha supuesto, por ejemplo, que las cargas o las corrientes han estado ahí desde
siempre. En un caso práctico, de la vida diaria, la fuente de carga sobre las placas del
condensador podría ser una fuente de voltaje alterno; lo mismo puede pensarse con la de
campo magnético en el lado derecho: corriente alterna que durante medio ciclo va hacia la
derecha por la placa inferior, hacia la izquierda en la superior, para luego hacerlo a la inversa.
El resultado para el primer caso se esquematiza en la figura II.9; no hemos dibujado las líneas
de campo magnético inducido: ellas son líneas circulares, siempre perpendiculares al campo
eléctrico, con centro en el centro de simetría de la figura, similares a las de la corriente de un
alambre muy largo, como el de la figura II.7b. De hecho, es como si la corriente hubiera
continuado dentro del condensador en la dirección de las líneas de campo eléctrico, en
sentido positivo si el campo eléctrico está aumentando, en sentido opuesto si está
disminuyendo con el transcurso del tiempo. Para el segundo caso (placas que llevan corriente,
alternando su sentido), surge un campo eléctrico inducido cuyas líneas de campo son
nuevamente perpendiculares, esta vez a las líneas del campo magnético que está oscilando en
el tiempo. Debe quedar claro que esos campos inducidos no tienen origen en cargas o
corrientes eléctricas: su origen es la variación en el tiempo de su contraparte, eléctrica o
magnética. A esos campos inducidos, no producidos por cargas o por corrientes eléctricas,
volveremos en breve.
4.9 Campos y ondas electromagnéticas
Esta última sección está destinada a examinar lo que ocurre cuando cargas y corrientes
cambian con el tiempo. Es lo que se conoce con el nombre de electrodinámica.
La historia de la electricidad y el magnetismo es muy rica e ilustrativa. No nos detendremos en
ella, por estar fuera del propósito de estas notas. Pero vale la pena rescatar los fenómenos
fundamentales que encierra y que pasaron desapercibidos durante muchos siglos. Uno de
ellos es el resultado del experimento de Rowland ya mencionado. Nos limitaremos a destacar
el hecho subrayado por Einstein e Infeld, a saber: del movimiento en trayectoria circular de la
carga surge un campo eléctrico variable en el tiempo que produce un campo magnético. Pero
lo contrario también ocurre: si se dispone de un campo magnético variable en el tiempo,
seguramente debe surgir un campo eléctrico. Históricamente las cosas ocurrieron a la inversa:
Faraday descubrió la ley que lleva su nombre, según la cual un imán o cualquier otra fuente de
campo magnético en movimiento puede generar, bajo condiciones adecuadas, una corriente
eléctrica, por ende, un campo eléctrico, responsable este último de la corriente generada. El
experimento más elemental seguramente es conocido por el lector: al acercar un imán a un
circuito como el que ilustra la figura II.9, no alimentado por ninguna fuente o batería, surge
una corriente en cierta dirección la cual se puede detectar mediante un galvanómetro; por el
contrario, al alejar el imán, aparece una corriente en dirección contraria. La dirección de la
corriente inducida sigue una regla denominada Ley de Lenz: el campo magnético producido
por esa corriente tiende a compensar la variación del campo magnético (en realidad del flujo,
pero ese concepto no lo hemos introducido).
Figura II.9 Inducción electromagnética. Al acercar un imán a un circuito (bobina) como el de la figura, se
genera una corriente en cierta dirección; al alejarlo, la corriente va en dirección contraria: es una
corriente inducida. Mientras no haya movimiento relativo entre el imán y la bobina, no habrá corriente
inducida. (Imagen tomada de http://www.rena.edu.ve/TerceraEtapa/Fisica/CorrientesInducidas.html)
La imagen inferior muestra con mayor detalle lo que se suele hacer en la práctica, utilizando un
solenoide.
Después de muchos experimentos similares, en los que Faraday acercaba el circuito al imán,
utilizaba un solenoide como el de la figura II.4, hacía variar la corriente que producía un campo
magnético, etcétera, llegó a la conclusión que resume su más importante contribución al
campo: cuando un campo magnético varía en el tiempo de alguna manera, da lugar a un
campo eléctrico inducido.
Figura II.10. Una fuente de corriente alterna produce entre las placas paralelas un campo oscilante. Ese
campo eléctrico variando en el tiempo, al igual que ocurre en el experimento de Rowland, produce un
campo magnético. No se ilustran las líneas de campo magnético, pero se puede entender fácilmente
que ellas son líneas circulares, siempre perpendiculares al campo eléctrico, con centro en el centro de
simetría de la figura, similares a las de la corriente de un alambre muy largo, como el de la figura 2.27b,
oscilantes para el caso. Obsérvese que alrededor de los segmentos rectos que llevan la carga (corriente)
de la fuente a las placas hay también líneas de campo cerradas, aproximadamente circulares cerca de
cada segmento.
A partir de las observaciones que siguieron al efecto descubierto por Faraday y en sus
esfuerzos por sintetizar las leyes del electromagnetismo, Maxwell se preguntó si un efecto
similar se observaría por variación de campos eléctricos. Su procedimiento experimental para
verificar su hipótesis se bosqueja en la figura II.10.
La predicción exacta de la forma en que varían espacial y temporalmente los campos eléctrico
y magnético en diversas geometrías bajo ciertas circunstancias y condiciones, su relación con
las cargas y las corrientes que los producen, la generación de nuevas corrientes y por ende la
nueva distribución de esas cargas dando lugar a nuevas formas de los campos, constituyen el
gran triunfo de la electrodinámica, como se conoce la teoría que sintetiza la descripción de
todos estos fenómenos electromagnéticos. Su enunciado son cuatro ecuaciones que llevan el
nombre de Maxwell, quien con su gran ingenio logró tan brillante síntesis. Combinándolas,
surge la maravillosa predicción a que hemos hecho referencia: los campos electromagnéticos
se propagan en el vacío a una velocidad que es precisamente la velocidad de la luz.
En palabras, se puede dar una somera idea de las consecuencias de aquella síntesis,
ejemplificada en lo que hemos dicho e ilustrado desde la sección anterior: 1) una forma de
generar campos eléctricos es mediante cargas; ellos obedecen a la ley del inverso del
cuadrado de la distancia en la forma que indica la ley de Coulomb; las líneas de campo se
originan en cargas positivas o parecen provenir del infinito; y se sumen en cargas negativas o
parecen proseguir al infinito; 2) otra forma de generar campos eléctricos es mediante campos
magnéticos que varían en el tiempo, bien sea moviendo imanes o mediante corrientes
alternas; las líneas de campo eléctrico así generadas son cerradas (a diferencia de las del
primer punto), lo que puede dar lugar a corrientes inducidas, si se colocan conductores allí
donde surgen esos campos; 3) a su vez, los campos magnéticos son producidos, en primera
instancia, por corrientes, es decir, cargas en movimiento; las líneas de campo magnético son
siempre cerradas; 4) pero al igual que los campos eléctricos inducidos mediante campos
magnéticos que varían en el tiempo, los campos eléctricos que varían en el tiempo dan lugar a
campos magnéticos inducidos.
A diferencia de los campos eléctricos inducidos, dando lugar a las corrientes inducidas que a
nivel experimental estudió tempranamente Faraday, los campos magnéticos inducidos por
campos eléctricos variables en el tiempo fueron predichos por Maxwell teóricamente y luego
verificados experimentalmente por él mismo y posteriormente por Rowland. Ése fue quizá el
mayor mérito experiimental del primero; fue, de paso, lo que le condujo a la unificación del
electromagnetismo y de la óptica, dos campos hasta entonces totalmente separados. Fue así
como apareció una constante fundamental que ha trascendido todos los campos: la velocidad
de la luz. Formado en la escuela newtoniana, Maxwell no tuvo más remedio que apelar a un
medio físico ya previsto por otros, el éter luminífero, para dar cabida a su constante: sus
ondas, incluida la luz visible, se moverían a velocidad c en ese tenue medio material; en
cualquier otro sistema, por ejemplo la Tierra, la cual para entonces era bien sabido que se
mueve alrededor del Sol, esas ondas se moverían con otra velocidad, resultado de la adición
de velocidades de la mecánica galileana y newtoniana; las ondas de luz y la Tierra misma se
moverían también en ese medio, el omnipresente éter. Las contradicciones no tardaron en
presentarse, pero aquí no se hará más que una mención circunstancial a esos problemas,
resultado del experimento negativo de Michelson y Morley.
Volvamos a los campos, campos en el vacío, para mayor facilidad. Cada vez que un campo
eléctrico cambia produce un campo magnético igualmente variable, el cual a su vez va a
generar un campo eléctrico cuya variación provocará un campo magnético y así
sucesivamente: esa es la razón para que se produzcan las ondas electromagnéticas: campos
entrelazados que se propagan, aún en el vacío, o mejor, sobre todo en el vacío, haciendo que
nos llegue valiosa información del interior de las estrellas, del confín del Universo. En la
materia, esos campos producen efectos sobre las cargas que hay en sus ingredientes
fundamentales y se generan nuevos campos que se superponen con los iniciales. Los campos
resultantes satisfacen las ecuaciones de Maxwell, cuya elegante formulación matemática el
lector puede consultar en los textos (por ejemplo en la sencilla presentación que de ellas hace
Sagan en El mundo y sus demonios, capítulo 23) y de cuya aplicación cotidiana está inundado
el mundo de las comunicaciones.
No valdría la pena el esfuerzo anterior hacia la visualización de los campos electromagnéticos
para lo que nos incumbe, el mundo microscópico, si no tuviéramos en cuenta la producción de
esos campos en el interior mismo de la materia, en los átomos y, por qué no, en los núcleos.
Ilustrémoslo con un ejemplo dinámico de singular trascendencia para el universo cuántico.
Surgirán de paso nuevas contradicciones del enfoque mecanicista de la física.
Figura II.11. Propagación de una onda electromagnética plana. Obsérvese que los tres vectores, a saber,
E, B y c, son perpendiculares entre sí. Se dice que esta onda tiene polarización lineal en dirección y.
Recuérdese que un movimiento circular, en un plano XY, puede verse como la suma o
superposición de dos movimientos oscilatorios, uno en dirección x, el otro en dirección y. En la
imagen clásica del átomo más sencillo, el de hidrógeno, el electrón estaría revoloteando
alrededor del protón, en un movimiento circular. Visto de canto, desde el eje Y o desde el eje
X, es como si el electrón estuviera oscilando, a lo largo de X o de Y respectivamente, con una
amplitud A igual al radio de la supuesta órbita. En esas condiciones, se tiene un dipolo
eléctrico que oscila, dando lugar así a ondas electromagnéticas.
Si los físicos hubieran adivinado más temprano que las corrientes son cargas eléctricas
(elementales) en movimiento y que el magnetismo es producido por el movimiento de esas
cargas, habrían podido dar un soporte fundamental a la hipótesis atómica. Fue el haber
pasado por alto esta hipótesis lo que hizo que llegaran la mayoría de los físicos más
prominentes del siglo XIX a los albores del siglo XX menospreciando la hipótesis atómica.
Seguramente esta reflexión sirva para elevar aún más la imagen del joven Einstein. De sus
cinco históricas contribuciones, publicadas todas ellas, a excepción de su tesis doctoral, en
1905, la que llamó más la atención inicialmente fue la que se refiere al tamaño de los átomos
y a su movimiento browniano. Pero volvamos a una imagen más reciente, a saber, la del
electrón circulando como se ilustra en la figura, una imagen prevista por el modelo de
Rutherford del átomo.
En términos clásicos, se diría que el electrón está radiando, generando campos que se
propagan, lo cual significa que estaría perdiendo energía. En condiciones estacionarias el
electrón no radia, lo que llevó a descartar el modelo de Rutherford. Que eso no sea lo que se
observe significa, de paso, el colapso del edificio clásico: los electrones no pueden estar
siempre radiando si no tienen una fuente que los esté alimentando permanentemente.
Figura II.12. Un punto de partida de toda teoría clásica. Una carga girando en círculo produce ondas
electromagnéticas. Estas ondas pueden visualizarse como el resultado de osciladores cruzados (vertical
y horizontal; véase el apéndice I).
Ese fue el derrumbe de la pieza más monumental de la teoría clásica, al tenerse que concluir
que la radiación atómica ocurre de otra manera, no predicha por el electromagnetismo de
Maxwell. De eso diremos algo en el capítulo cuarto y nos ocuparemos más a fondo en la
segunda parte.
Figura II.13. Campo variable de un dipolo eléctrico. A grandes distancias, las ondas electromagnéticas
forman ondas planas, como sugiere la figura I.6. (Tomado de Panofsky y Phillips: Classical Electricity and
Magnetism,Addisson Wesley 1958.)
Espectro Electromagnético
A pesar de lo anterior, una antena es la materialización de la oscilación dipolar, componente a
lo largo del eje X o del eje Y que acabamos de describir; para ese caso, las leyes de la
electrodinámica funcionan inequívocamente. Es así como se generaron ondas
electromagnéticas para la comunicación desde finales del siglo XIX, en esencia el mismo tipo
de ondas que nos llega de los átomos que constituyen la materia estelar. El tipo de ondas o
radiación electromagnética que se puede producir es muy amplio y cada vez estamos en
mejores condiciones para manipular y utilizar las ondas resultantes, desde muy bajas
frecuencias, por ende muy larga longitud de onda (ondas de radio y de TV), hasta la región de
muy altas frecuencias o altas energías, en la región del ultravioleta (UV). En la tabla adjunta se
muestran los rangos respectivos en longitud de onda, frecuencia y energía equivalente.