Buscar

La física moderna y la deconstrucción de la naturaleza

Electrones, neutrinos y quarks

FRANCISCO J. YNDURÁIN

Crítica, Barcelona, 272 págs.

image_pdfCrear PDF de este artículo.

Hace apenas unos meses que se cerró el siglo XX (y el segundo milenio de la era cristiana), y es natural reflexionar sobre lo que este siglo ha aportado al género humano. Si desde el punto de vista político, militar o humanitario el balance no resulta muy lisonjero, en ciencia, y en particular en ciencias básicas, como la física, la astronomía, la biología o la matemática, se han dado pasos de gigante. Nuestro conocimiento ha avanzado en extensión y profundidad mucho más allá de lo que algunos intentaron imaginar en las postrimerías del siglo XIX. Esta es una de las constantes más fascinantes de la investigación científica. Cuestiones que parecían centrales acaban siendo marginales, mientras que aspectos desconocidos de la naturaleza revolucionan nuestra visión de la misma, implicando con frecuencia un cambio radical de los conceptos y modelos que la describen.

Al final del siglo XIX teníamos una comprensión notable de la mecánica, la gravitación, la teoría del calor y de los fenómenos termodinámicos, la máquina de vapor, la teoría electromagnética, el teléfono, el telégrafo, la radio, la dinamo, la luz eléctrica, la teoría atómica, etcétera, sin contar con los avances en otras ciencias como la biología, la química o la matemática. Todos estos campos fueron a su vez desarrollados y extendidos en el siglo pasado de forma inimaginable. Por ejemplo, la mecánica cuántica, que explica el comportamiento de la materia a nivel atómico, cuando se combina con el electromagnetismo, genera la electrónica, que ha cambiado radicalmente nuestra vida. La conjugación de la electrónica con la teoría de la computación (parte de la matemática y descubierta fundamentalmente en el siglo XX ) dieron luz a la cibernética, que ha evolucionado con tal eficacia y rapidez que es difícil pensar en algún aspecto de la vida cotidiana que no se beneficie de la asistencia de algún microprocesador.

El libro que nos ocupa, Electrones, neutrinos y quarks, proporciona un viaje a lo largo del desarrollo de la física de partículas elementales, un fenómeno centrado en el siglo XX y que nos ha dado la versión más profunda conocida de las leyes de la naturaleza a nivel microscópico. El profesor Ynduráin intenta acercar al gran público uno de los logros más impresionantes del intelecto humano. En sus palabras: «el desvelar la estructura última de la materia a partir de la cual se puede, en principio, entender todo el cosmos». En este sentido se entiende la deconstrucción de la naturaleza en las teorías actuales de la física de partículas. Esta frase hay que tomarla con cierto grado de precaución si no se quiere caer prematuramente en la idea de que el libro representa además una defensa filosófica del reduccionismo. Prácticamente en ninguna parte del libro se aborda esta cuestión. De hecho, la física del pasado siglo nos ha enseñado entre otras cosas que el sueño de Laplace de una predictibilidad sin límite es una quimera no sólo inalcanzable con los medios tecnológicos a nuestra disposición actualmente o en un futuro más o menos lejano, sino que es además una concepción errónea. Incluso sin apelar a las relaciones de incertidumbre de Heisenberg que emergen de la mecánica cuántica, la mecánica clásica predice en algunas circunstancias un comportamiento caótico a largo plazo de sistemas complejos. Algo similar al familiar «efecto mariposa» en el que, debido al comportamiento inestable de la atmósfera, una pequeña perturbación provocada por el batir de las alas de una mariposa en Camerún puede amplificarse de tal forma que al cabo de unos meses genere una tromba de agua en la Costa del Sol. Cabe decir que sólo el reduccionista más ingenuo pretendería reducir el comportamiento de un sistema complejo como la atmósfera, o la emergencia de la vida y la consciencia a partir de la materia inanimada a una consecuencia directa de las leyes fundamentales y sus constituyentes. Una teoría eficaz de los efectos colectivos de grandes agregados de materia sigue siendo una de las asignaturas pendientes de la ciencia moderna a pesar de los notables progresos realizados hasta la fecha.

Ynduráin nos invita a recorrer la fascinante historia de cómo se descubrieron los componentes últimos de la materia y cuáles son sus interacciones básicas. El camino es difícil, a veces confuso, polémico, pero el resultado final es un edificio coherente, técnicamente conocido como el Modelo Estándar, y que resume nuestro conocimiento detallado de las leyes de la naturaleza a nivel microscópico. Esta es la epopeya humana que el autor nos describe con lucidez y detalle. Uno de los aspectos más sobresalientes es el hecho de que el autor ha participado activamente en el desarrollo de la materia, y por tanto puede darnos una visión personal sobre la génesis de las ideas y sobre muchos aspectos humanos de los personajes que llevaron a cabo la construcción de la física de altas energías.

Los primeros capítulos realizan un repaso de algunos resultados que a final del siglo XIX podían mitigar el optimismo generado por la apoteosis de la física clásica. Por ejemplo, las medidas de la radiación electromagnética emitida por cuerpos a bajas temperaturas estaba en contradicción con los cálculos clásicos, la existencia de radiactividad natural no encontraba explicación en ninguna extensión conocida de la teoría atómica, se encontraron también contradicciones estructurales entre las leyes de Newton de la mecánica y las del electromagnetismo conocidas como leyes de Maxwell, y finalmente había una discrepancia notable entre la geología y la física, que se manifestaba de forma dramática en las estimaciones de la edad de la Tierra y del Sol. La resolución de la primera paradoja implicó la creación de la mecánica cuántica, la segunda condujo a la teoría de la relatividad, y la tercera sólo consiguió resolverse cuando se entendieron las reacciones nucleares, que son las que sustentan la energía solar, y no la energía liberada por la contracción gravitacional de la masa gaseosa que forma el Sol.

El inicio de la física de partículas puede considerarse como el descubrimiento de J. J. Thomson en 1897 de la naturaleza corpuscular de la electricidad, compuesta por la primera partícula elemental conocida: el electrón. El descubrimiento casi simultáneo de la radiactividad natural, de materiales que emitían continuamente radiación muy penetrante, proporcionó una serie de herramientas nuevas para la exploración de la materia a pequeñas distancias. En la primera década del siglo XX, Rutherford y sus colaboradores bombardearon la materia con los productos de desintegración producidos por la radiactividad natural, y sus resultados demostraron que los átomos están compuestos de un núcleo minúsculo donde se concentra la mayor parte de su masa, con carga eléctrica positiva, y de una nube de electrones a una enorme distancia (relativa al tamaño del núcleo). El átomo resultaba estar casi completamente vacío. A pesar de la irresistible tentación de pensar en el átomo como un sistema planetario microscópico, desde el punto de vista de la física clásica el modelo es inestable. Cuando una partícula cargada se mueve de forma curvilínea, emite radiación, pierde energía y en un tiempo extraordinariamente corto los electrones se precipitarían al interior del núcleo. Huelga decir que semejantes inestabilidades no se observaban, y que las «órbitas» de los electrones parecían estables. La única explicación posible había que buscarla en la hipótesis cuántica enunciada en 1900 por Planck para explicar la radiación de cuerpos a baja temperatura y que implicaba que la materia emite y absorbe radiación en paquetes cuantificados de energía. Los primeros en obtener consecuencias profundas de la hipótesis cuántica fueron Bohr, que diseñó un modelo del átomo de hidrógeno compatible con las medidas espectroscópicas, y Einstein, que en el portentoso año de 1905 demostró la existencia de los átomos (todavía no era completamente aceptada), formuló la teoría de la relatividad resolviendo la paradoja entre las leyes de Newton y las de Maxwell en favor del último, y además demostró que la hipótesis cuántica implicaba la naturaleza corpuscular de la luz, con lo que puede decirse que fue ese año cuando se descubrió la segunda partícula elemental: el fotón o cuanto de la energía electromagnética.

La formulación completa de la mecánica cuántica no se logró hasta 1925, y sus implicaciones tanto filosóficas como prácticas supusieron un auténtico terremoto. Finalmente se tenía una teoría que permitía explicar en detalle el comportamiento microscópico de la naturaleza. El libro explica con claridad algunos de los conceptos centrales tanto en el mundo cuántico como en la teoría de la relatividad que cambiaron radicalmente nuestra comprensión del espacio, el tiempo y la materia. La relatividad nos dice, entre otras cosas, que hay una velocidad límite con la que se puede comunicar información o interacción (la velocidad de la luz), pero en la época se conocían pocos fenómenos cuánticos que involucraran grandes velocidades o grandes energías. Una de las prioridades teóricas de la época fue la de combinar la mecánica cuántica con la relatividad. El resultado, después de un largo y tortuoso camino que nos lleva prácticamente hasta los años setenta, fue lo que hoy se conoce como la teoría cuántica de campos, y es en términos de sus conceptos y herramientas como pueden formularse las leyes básicas del cosmos. Las dificultades tanto técnicas como conceptuales que debieron superarse hasta lograr una comprensión adecuada de la teoría de campos constituyen una parte central del libro, y todas las etapas principales son explicadas en detalle y con claridad, incluyendo con frecuencia anécdotas ilustrativas sobre los personajes que llevaron a cabo los descubrimientos clave. Una de las primeras consecuencias completamente inesperadas de la fusión entre relatividad y mecánica cuántica es la existencia de antipartículas y la antimateria. Toda partícula tiene su antipartícula, con la misma masa pero carga eléctrica opuesta. La antipartícula del electrón, por ejemplo, se conoce como positrón, y cuando se encuentran se destruyen completamente produciendo radiación. Aunque hoy día es rutinario producir antipartículas copiosamente en los grandes aceleradores, en los años veinte tal predicción fue (y sigue siendo) profundamente revolucionaria.

A principios de los años treinta se descubrió una partícula más, que junto con el protón (el núcleo del átomo de hidrógeno) forma parte del núcleo: el neutrón sin carga, y que en libertad es inestable, desintegrándose con una vida media de unos mil segundos. Las décadas siguientes vieron aumentar de forma vertiginosa el zoo de partículas llamadas elementales, todas ellas con nombres más o menos exóticos y más o menos afortunados: muones, piones, kaones, lambdas, sigmas, xis, omegas… Las primeras se descubrieron estudiando los rayos cósmicos que nos bombardean constantemente, y posteriormente en los alrededores de partículas que permiten a la vez su producción y su estudio detallado. Gracias a la equivalencia entre la masa y la energía (consecuencia de la teoría de la relatividad), si logramos concentrar en un espacio muy pequeño una gran cantidad de energía, ésta puede a su vez transformarse en partículas nuevas nunca antes observadas. Por ejemplo, podemos hacer chocar haces de electrones y positrones. De vez en cuando un electrón y un positrón se encontrarán y se aniquilarán completamente. La energía producida puede posteriormente transformarse en pares partícula-antipartícula, como por ejemplo un par muón-antimuón (el muón es una partícula con las mismas propiedades que el electrón, sólo que su masa es unas doscientas veces mayor, y además es inestable, desintegrándose en reposo en alrededor de una millonésima de segundo). De esta forma, los aceleradores modernos permiten explorar energías cada vez más altas, y también distancias cada vez más pequeñas. Son los microscopios que nos permiten ver lo que sucede a distancias subnucleares. El acelerador más potente, hoy en día en construcción en el laboratorio europeo de física de partículas (CERN, cerca de Ginebra) y que se conoce con las siglas de L. H. C., alcanzará una energía de cerca de quince mil veces el equivalente energético de un protón. La historia de la construcción de los modernos aceleradores, y también de los detecFísica 34 Diciembre, 2002. Nº 72. REVISTA DE libros tores necesarios para observarlos productos de las colisiones es una bella saga contada en detalle en el libro, y es una auténtica epopeya tecnológica que ha producido una gran cantidad de retornos industriales a la sociedad. Baste citar por ejemplo la invención (precisamente en el CERN) del Internet, que ha cambiado completamente la sociedad en menos de diez años.

La formulación del llamado Modelo Estándar que resume nuestro conocimiento más básico sobre las leyes de la naturaleza se terminó en los años setenta, y permite una explicación detallada de tres de las fuerzas conocidas, la interacción electromagnética, la interacción fuerte, que permite explicar en principio la fuerza nuclear que mantiene unidos en el núcleo los protones y los neutrones (a pesar de que los protones tienen la misma carga, y por tanto tenderían a repelerse), y la interacción débil, responsable en última instancia de la radiactividad natural. También se descubrió que los protones y los neutrones que forman los núcleos no son elementales, sino que a su vez están compuestos de partículas elementales conocidas como quarks, con propiedades altamente sorprendentes desde un punto de vista clásico. En particular el hecho de estar siempre confinados, y de que sea imposible observar quarks libres. En total hay seis tipos de quarks distintos, que suelen representarse con las letras u, d, c, s, b, t, cada una de las cuales representa la inicial del caprichoso nombre que ha recibido: up, down, charm, strange, bottom y top. A pesar de que estas palabras tienen un significado bien definido en inglés, no tienen nada que ver con las propiedades de los quarks y, por tanto, siguiendo la práctica del libro, no es necesario traducirlas. Todas las partículas que son sensibles a las interacciones fuertes están compuestas de quarks, y se las conoce con el nombre de hadrones. Junto con los quarks, tenemos otras partículas elementales con propiedades muy parecidas a los electrones, los leptones, que se conocen como partículas mu y tau, y que se diferencian del electrón solamente por su masa. Cada uno de los leptones elementales tiene un compañero conocido como neutrino. Los neutrinos son partículas con una masa minúscula y que interaccionan muy poco con la materia conocida, pero que desempeñan un papel fundamental en las interacciones débiles y en los procesos estelares. Un neutrino producido en el Sol, por ejemplo, podría atravesar un espesor de cuarenta veces la Tierra sin interaccionar ni una sola vez con algún núcleo o electrón. Toda la materia conocida está esencialmente formada por dos tipos de quarks, u y d, que forman los protones y los neutrones; y de los electrones y el correspondiente neutrino electrónico. Estas partículas forman lo que se llama la primera familia del Modelo Estándar. Es, sin embargo, profundamente sorprendente que la naturaleza haya optado por reproducir esta estructura tres veces aunque con masas sensiblemente superiores. Hay tres familias de partículas elementales y nadie tiene una idea medianamente aproximada de por qué debe ser así. Junto con los quarks, electrones y neutrinos, también hay que considerar las partículas que median las varias interacciones.

La última parte del libro está dedicada a presentar los problemas abiertos en física de altas energías. En el párrafo anterior nos hemos referido a las interacciones fuerte, electromagnética y débil. Hay otra interacción, la gravitatoria, que de momento sólo tiene una descripción clásica: la teoría general de la relatividad de Einstein. A pesar de un gran número de intentos, todavía estamos lejos de tener una comprensión de la estructura cuántica del espacio-tiempo. Es bastante probable que la resolución de este problema implique una revolución conceptual análoga a la revolución cuántica. Por el momento, la mayor parte del esfuerzo es puramente teórico. La falta de experimentos relevantes en el dominio de la gravitación cuántica es un hándicap notable para obtener avances significativos.

Un aspecto del libro que inevitablemente hay que comentar es la profusión de fórmulas matemáticas complicadas en algunos capítulos. Algunas de ellas son simplemente representaciones de las interacciones entre las partículas y de sus modos de desintegración. Éstas requieren un esfuerzo moderado, básicamente familiarizarse con la notación. Hay, sin embargo, otras partes del texto cuya compresión requiere haber seguido cursos avanzados de física teórica en la universidad. Dado que el libro está escrito utilizando con frecuencia la técnica musical del ritornello, donde el mismo tema aparece expuesto de diferentes formas y a diferentes niveles, podemos utilizar la metáfora musical para describir este aspecto de la obra. Si en un texto de divulgación musical aparece un pentagrama con las primeras notas de alguna melodía conocida, el lector recordará probablemente la música y superará el obstáculo sin dificultad. Si, por el contrario, se encuentra con alguna página de una pieza difícil, es muy probable que sienta frustración y tenga tendencia a abandonar la lectura. El autor es bien consciente del problema cuando dice: «No es fácil navegar entre el Escila del exceso de formalismo matemático y el Caribdis de la imprecisión (cuando no las falacias) que resultan inevitablemente de prescindir de él». Otros autores de libros de ciencia para el gran público optan por el camino más conservador de prácticamente no escribir fórmulas, o de relegarlas a apéndices técnicos para lectores interesados. Contrasta la actitud de Ynduráin, que prefiere perder algunos lectores temporalmente con tal de presentar en algún detalle, y con un mínimo de rigor, la belleza del edificio matemático que describe las estructuras básicas del mundo microscópico. En las ciencias exactas, y en particular en física, pesa mucho la famosa frase de Galileo: «La Naturaleza es un libro que está escrito en lenguaje matemático». Para animar al lector a adentrarse en el libro de Ynduráin, sería más idóneo utilizar una metáfora pictórica. Al contemplar una obra de pintura moderna, podemos comprender los colores y las formas geométricas, pero a veces no captamos la idea o la imagen que el artista pretende comunicarnos. En el libro al que nos estamos refiriendo, deberíamos pensar en algunas fórmulas como dibujos abstractos. El autor siempre se ocupa de dar eventualmente un título y una explicación que permiten una comprensión adecuada.

La lectura de este libro es fascinante, aunque no siempre fácil. En divulgación científica hay que huir también de la excesiva trivialización de los conceptos, que pueden distorsionar de forma irreconocible lo que se pretende describir. La física de partículas elementales es una ciencia profunda y un gran logro del siglo XX, y no es fácil de absorber ni siquiera para físicos profesionales. Por eso, es de agradecer que uno de los mejores profesionales del campo en nuestro país haya dedicado un esfuerzo considerable a hacer accesible este campo arcano, pero central, de nuestro conocimiento.

image_pdfCrear PDF de este artículo.

Ficha técnica

11 '
0

Compartir

También de interés.

Del neodarwinismo al neoliberalismo

Un personaje de Fortunata y Jacinta, doña Lupe la de los pavos, aconsejaba así a…