Buscar

Rapsodias bosónicas

image_pdfCrear PDF de este artículo.

El pasado 4 de julio se anunciaba en el auditorio del CERN en Ginebra el descubrimiento de una nueva partícula. En los días previos, el pequeño mundo de la Física de altas energías era un hervidero de rumores propagados a través de diferentes blogs. Todo indicaba que las señales anunciadas antes de la Navidad no habían desaparecido con los datos acumulados durante la primavera y que la palabra mágica «5 sigmas»El número de «sigmas» define la fiabilidad estadística de una observación o, en otras palabras, nos da la probabilidad de que el efecto observado no sea real, sino consecuencia de un error sistemático o simple efecto del ruido de fondo del experimento. En Física de altas energías, el umbral para que una observación cualifique como descubrimiento es de 5 sigmas, lo que es equivalente a que la probabilidad de error sea de uno entre algo más de tres millones. sería pronunciada a lo largo de la presentación. Y así fue finalmente. Tanto los datos de ATLAS como de CMS, los dos detectores del LHC involucrados en la búsqueda del Higgs, habían logrado acumular evidencia suficiente como para anunciar el descubrimiento de una nueva partícula. Este acontecimiento no señala el final del experimento, sino el comienzo de un proceso complejo de investigación cuyo objetivo será identificar la naturaleza del recién llegado y descubrir el lugar que ocupa en el restringido mecano de la Naturaleza.

Aunque la identificación de la nueva partícula tardará en completarse al menos dos años, el descubrimiento no ha sido realmente una sorpresa, sino el inicio de la confirmación definitiva de lo que en Física conocemos como «el modelo estándar». Todo hace pensar que la partícula recién descubierta es el esperado «bosón de Higgs» o, al menos, algún familiar próximo. Esta partícula es la pieza más misteriosa del modelo estándar, cuyo análisis nos desvelará uno de los secretos más profundos de la Naturaleza: el origen de las masas.

Ya desde el pasado mes de diciembre se esperaba el anuncio. Había señales –todavía no pasaban los protocolos para cualificarlo como descubrimiento– que indicaban que algo compatible con el bosón de Higgs estaba empezando a manifestar inequívocamente su presencia. Que algo tenía que ocurrir estaba claro para toda la comunidad científica. Sin embargo, nadie sabía exactamente cómo se manifestaría la nueva partícula, ni en qué rango de energías o, lo que es lo mismo, con qué masa. Hoy ya sabemos que el recién nacido tiene una masa de 125 Gev, unas cien veces más pesado que el protón. A priori, podría haber sido un poco más ligero o mucho más pesado. En este último caso, no hubiera sido descubierto con el LHC, lo que habría creado una situación complicada, indicando alguna forma de nueva física, pero empujando su potencial confirmación experimental a un futuro impredecible y altamente improbable.

El análisis de esta partícula  nos desvelará uno de los secretos más profundos de la Naturaleza: el origen de las masas

¿Qué significa entonces este valor particular de la masa? Quizá lo más sorprendente es que el esperado bosón está, precisamente, donde podemos verlo y, quizás algo aún más importante, donde podemos comprenderlo. Este comentario, aparentemente banal, adquirirá un mayor sentido al final de este artículo.

Pero no adelantemos acontecimientos. Está claro que se ha descubierto algo, como cuando Colón llegó a La Española , pero no es aún obvio que lo que se haya descubierto sean las Indias, como pensaba el Almirante, aunque muy probablemente la terminología «bosón de Higgs» sobrevivirá –cualquiera sea el caso–, como ha sobrevivido la costumbre de llamar «indios» a los habitantes del nuevo continente.

En el momento en que esto se escribe se han observado algunas anomalías, aunque aún con muy escasa estadística, que podrían indicar que el nuevo bosón no es exactamente el del modelo estándar. Esta posibilidad apasiona a la mayoría de la comunidad, pues nos colocaría en el mejor de los mundos posibles: la existencia de algo nuevo y, al mismo tiempo, accesible experimentalmente.

Pero, ¿qué es el bosón de Higgs? ¿Por qué ha creado su descubrimiento tanto revuelo? El pasado 4 de julio, cuatro octogenarios tenían reservado un asiento en las primeras filas del auditorio del CERN. De entre ellos, el más conocido era Peter Higgs, un físico británico cuyo trabajo, fechado en 1964, dio nombre a la nueva partícula. También estaba François Englert, un físico belga; él y Robert Brout –desafortunadamente desaparecido hace un año– fueron los primeros en establecer lo que hoy, paradójicamente, se conoce como mecanismo de Higgs. Y, por último, dos físicos norteamericanos: Carl Hagen y Gerald Guralnik, quienes, junto con el británico Tom Kibble, escribieron pocos meses después, y de manera independiente, un trabajo que aclaraba algunos aspectos del mecanismo. Al ser más de tres, el comité Nobel tendrá que tomar alguna decisión que necesariamente será controvertida, pero para ello aún faltan quizás algunos años.

Lo más interesante es que estamos hablando de trabajos que aparecieron antes de la formulación del conocido como modelo estándar. En otras palabras, estamos hablando de trabajos cuyo objetivo en el momento en que se hicieron no era el de encontrar la clave de la dinámica de las interacciones electrodébiles, sino algo mucho más académico y, en aquel momento, de un interés casi puramente formal.

Para localizar un poco mejor la trama de la historia, necesitamos situarnos en la década de los sesenta. Un paradigma emergente, aunque aún escasamente popular en aquella época, era lo que hoy se conoce como teorías gauge. A lo largo de los primeros sesenta años del siglo pasado se habían descubierto dos nuevas formas de interacción: la interacción fuerte, que controla los núcleos atómicos, y la interacción débil, cuya manifestación consiste en la emisión espontanea de electrones y antineutrinos en el proceso de transformación nuclear de neutrones en protonesLa primera manifestación experimental de estas nuevas formas de interacción se produjo con el descubrimiento de la radioactividad natural. En 1900, Ernest Rutherford había identificado tres formas diferentes de radiación: las conocidas como radiación gamma (electromagnetismo), beta (interacción débil) y alfa (interacción fuerte).. El objetivo de los físicos en aquella época era encontrar teorías que explicaran estas nuevas formas de interacción. Cada una de ellas tenía sus propias peculiaridades que, al irse descubriendo, iban dictando paulatinamente la manera de modelarlas. Sin embargo, la única teoría que realmente conocíamos al principio de los años sesenta, y que mereciera tal nombre, era la electrodinámica cuántica o, lo que es lo mismo, la versión cuántica de la teoría de Maxwell del electromagnetismo. La estructura formal de esta teoría se acomoda a lo que hoy conocemos como principio gauge. Éste es un principio de simetría que nos permite derivar la dinámica de la interacción a partir de ciertas leyes de conservación de las cargas. Algunos físicos comenzaron a especular con la posibilidad de que algo similar sirviera para organizar las nuevas interacciones. Esto exigía encontrar las nuevas cargas que actuaran como las fuentes de dichas interacciones, de una manera similar a como la carga eléctrica es fuente de los campos electromagnéticos. Estas nuevas cargas, que se conocen hoy con los poéticos nombres de sabor y color, generalizan, respectivamente, la noción de carga eléctrica a las interacciones débiles y fuertes. Sus leyes de conservación, que son una consecuencia de la simetría gauge, determinan la forma de la teoríaEn Física, todo principio de conservación refleja la existencia de una simetría. Por otro lado, postular una simetría nos sirve para dirigirnos a la hora de construir una teoría. De esta manera, una vez que identificamos las cargas que actúan como fuentes de las nuevas interacciones, sus leyes de conservación nos dictan, de manera casi unívoca, la forma de la correspondiente teoría..

Lo más sorprendente es que el esperado bosón está donde podemos verlo y, aún más importante, donde podemos comprenderlo

Ésta era una idea muy especulativa y pocos físicos la tomaron en principio en serio, aunque hay excepciones notables, en particular el norteamericano Julian Schwinger, catedrático en Harvard. Fue Schwinger quien indicó a su estudiante Sheldon Lee Glashow que construyera, sobre la base del modelo de Enrico Fermi de las interacciones débiles, una teoría gauge para las interacciones débiles y electromágneticas. En esto consistió su trabajo doctoral en Harvard y postdoctoral en el Instituto Niels Bohr de Copenhague en el año 1961, y por el que recibió, junto con Steven Weinberg y Abdus Salam, el premio Nobel en 1979.

Este primer modelo de las interacciones electromagnéticas y débiles pasó inadvertido y, a lo largo de la década de los sesenta, hasta el propio autor abandonó su interés por el modelo. El problema radicaba en que el principio gauge daba lugar a una teoría que no cuadraba con los resultados experimentales. La razón es que, en esta versión generalizada de la teoría de Maxwell, el equivalente del fotón destinado a servir de mediador de las interacciones débiles aparecía, al igual que ocurre con el fotón del electromagnetismo, necesariamente sin masa. Pero un fotón sin masa da lugar a una interacción de largo alcance. Por el contrario, la interacción débil sólo actúa a distancias subnucleares, de tal forma que el nuevo fotón necesitaba adquirir masa de alguna manera. Podía simplemente postularse dicha masa y añadirla a la teoría como una hipótesis ad hoc, suspendiendo el juicio sobre cuál pudiera ser su origen. Esto es lo que hizo Sheldon Glashow en 1961. Sin embargo, añadir la masa como una hipótesis ad hoc destrozaba la consistencia matemática del modelo, que era, en fin de cuentas, lo que estaba en el origen estético y metodológico del principio gauge de simetría. Al postular dicha masa, la simetría del modelo se «rompía» violentamente y la teoría respondía generando inconsistencias matemáticas. La manera en que estas inconsistencias matemáticas se manifiestan es limitando la posibilidad de calcular dentro de la teoría el valor de ciertas correcciones cuánticas. Esto significa que la validez de la teoría está limitada. Sin embargo, es perfectamente aplicable y puede ser falsada o corroborada dentro de su rango de aplicabilidad.

La teoría de Glashow, enriquecida con su hipótesis ad hoc, predecía la existencia de fotones masivos, algo que, como veremos, se observó en los años ochenta, pero hacía aguas cuando pretendía calcular los detalles de la dinámica de dichos fotones. En aquellos momentos, esta limitación del modelo se interpretó como un síntoma de que se había errado el camino. Las nuevas formas de interacción parecía que no eran una simple extensión de la teoría de Maxwell y el quid de la cuestión radicaba en la dificultad de encontrar una teoría matemáticamente consistente que describiera un fotón masivo. Se había generado así un problema formal cuyo valor dependía de cuán fuertes fueran las creencias en el principio de simetría gauge, y eran muy pocos los físicos que, en la década de los sesenta, hubieran apostado por el valor explicativo de dicho principio más allá del electromagnetismo.

Los cuatro octogenarios que ahora seguían, algunos con los ojos vidriosos, la presentación de los resultados de los experimentos ATLAS y CMS el pasado 4 de julio, eran en aquella época, con la excepción de Robert Brout y Tom Kibble, jóvenes que habían acabado hacía pocos años sus estudios y que intentaban abrirse camino en el mundo de la investigación. La consistencia matemática de una teoría con un fotón masivo, aunque se trataba de un problema bastante formal y un poco marginal en aquel momento, constituía un buen tema de investigación, sobre todo después de los trabajos pioneros de Yoichiro Nambu en Chicago, que habían abierto una nueva línea de pensamiento al extender al campo de la Física de partículas elementales algunas de las ideas de la Física de la materia condensada.

En un período de pocos meses, todos estos jóvenes encontraron la clave de lo que hoy conocemos como el mecanismo de Higgs, que describiré un poco más adelante. Aunque este mecanismo y su presentación en esa época distaba mucho de ser la solución al problema de la consistencia matemática de la teoría –un problema cuya solución se hizo esperar hasta los primeros años de la década de los setenta–, el mecanismo aportaba una clave importante sobre cuál podía ser el secreto de una teoría consistente de fotones masivos.

Sin embargo, ninguno de ellos estableció la conexión con el, en aquel momento, casi desconocido trabajo de Sheldon Glashow. En otras palabras, ninguno de ellos pensó que el mecanismo que aportaba masa al fotón y que acababan de descubrir pudiera implementarse dentro del modelo de Glashow, de tal modo que aportara masa al fotón débil sin romper violentamente la simetría gauge. Tan solo Steven Weinberg, en Estados Unidos, y Abdus Salam, en Londres, establecieron la conexión de la que resultaría el modelo estándar. Ambos observaron que el mecanismo de estos jóvenes podía implementarse en el modelo de Glashow y que esto daba lugar a una teoría de las interacciones electrodébiles que, sin violar el principio de simetría gauge, daba lugar a un fotón masivo. En estas condiciones, y al no romperse violentamente la simetría, la teoría resultante contaba con alguna posibilidad de ser matemáticamente consistenteLa diferencia entre el modelo de Sheldon Glashow y lo que hoy llamamos el modelo estándar radica, como vemos, en la manera de dar masa al fotón débil. En el modelo de Glashow, la masa se introduce como una hipótesis ad hoc y se suspende el juicio sobre cuál pueda ser su origen. Como se ha apuntado, esto daba lugar a una teoría matemáticamente inconsistente, pero el lector debe tener cierto cuidado a la hora de entender el significado de esta afirmación. Lo que quiere decir es que la teoría tiene un rango limitado de validez que, cuando se supera, da lugar a ciertas inconsistencias o a resultados absurdos. Esto, en Física, recibe el nombre de teoría efectiva. En el modelo estándar, lo que en el modelo de Sheldon Glashow es una hipótesis ad hoc, se convierte en un mecanismo de generar masas, el mecanismo de Higgs, cuya validez va más allá de los límites de aplicabilidad de la teoría efectiva. Esto da lugar a una teoría matemáticamente consistente, pero su verificación requiere experimentar más allá del rango de validez de la teoría efectiva. Es esto precisamente lo que logramos con el LHC..

La masa nos habla de la resistencia del medio a vibrar. Si fuera muy rígido la energía que necesitaríamos para hacerlo vibrar sería enorme

Steven Weinberg construyó un modelo completo, que es con el que aún trabajamos hoy, y Abdus Salam explicó sus ideas en su seminario del Imperial College (o al menos de esa manera convenció al comité Nobel), presentando casi un año más tarde su modelo en la conferencia Nobel de Estocolmo. Había nacido el modelo estándar, pero muy pocos fueron conscientes de lo que acababa de ocurrir.

El modelo no pasaba de ser una propuesta más o menos exótica y, aunque el mecanismo de Peter Higgs y de los otros jóvenes le otorgaba ciertos visos de consistencia matemática, la mayoría dudaba de que dicha consistencia pudiera realmente probarse con un mínimo de rigor. Así, el modelo estándar conjugaba dos elementos básicos: un principio de simetría, que generalizaba la del electromagnetismo de Maxwell, y, al mismo tiempo, una ruptura controlada de dicha simetría, de la que dependía que el fotón adquiriera masa sin perder ninguna de sus buenas propiedades.

En la década de los setenta, las cosas se precipitaron y una de las predicciones más inequívocas del modelo –la existencia de corrientes neutras– se comprobó experimentalmente en 1974, cambiando por completo el estado de opinión de la comunidad. Pero lo que se había comprobado experimentalmente era una parte de la estructura formal diseñada por Sheldon Glashow: la potencia explicativa del principio gauge, pero no la artificialidad del mecanismo introducido por Steven Weinberg y Abdus Salam para hacer de la teoría algo con mínimas posibilidades de consistencia. En suma, se había comprobado la existencia de fotones débiles masivos y cómo éstos se conjugaban armoniosamente con los fotones del electromagnetismo, pero no la manera concreta en que habían adquirido su masa.

Una anécdota reveladora del ambiente de la época es la forma con la que, quizá no con gran fortuna, Sheldon Glashow se refería a la contribución de Steven Weinberg (y de Abdus Salam) al modelo: «Weinberg’s toilette». Glashow, que había sido compañero de Weinberg en el prestigioso Bronx High School of Science de Nueva York, comparaba el modelo estándar con una casa. Y, en efecto, en toda casa hay una toilette, que no es precisamente la parte más estética, y la toilette del modelo estándar era, para Glashow, la zona que Weinberg había habilitado valiéndose de las ideas de Higgs.

Ninguno de los jóvenes que habían participado en el descubrimiento del mecanismo de Higgs tuvieron un verdadero papel activo en la formulación del modelo estándar, y eso explica que sólo el nombre de Higgs sobreviviera como un mojón que identificaba el sector que habían añadido Weinberg y Salam.

A lo largo de los años ochenta, y en particular con la construcción del LEPP, el progenitor del actual LHC que se construyó también en Ginebra, y en cuyo túnel de veintisiete kilómetros se ha instalado el LHC, la comprobación de las predicciones del modelo estándar fue casi exhaustiva. Se descubrieron los correspondientes fotones masivos y cargados que generalizaban el principio gauge a una nueva forma de carga que se denominó sabor, pero la toilette de la casa seguía aún cerrada, de modo que podía pensarse que, aunque estaba funcionando algún mecanismo de masificación, la naturaleza de los protagonistas de este mecanismo podía ser distinta de la que asumieron Higgs y sus colegas. Quedaba abrir la toilette y ver cómo funcionaban realmente las cañerías del modelo.

El pasado 4 de julio se produjo el primer anuncio de que, finalmente, la toilette del modelo estándar estaba abierta y lista para inspección. Con ello, Higgs y sus amigos volvían a la escena. Lo que empezó siendo un trabajo de juventud y una solución más o menos formal de un problema académico se había convertido en –posiblemente– el mayor descubrimiento de los últimos cincuenta años, en una revelación de enormes consecuencias, aún por dilucidar. Es fácil entender la emoción de los protagonistas: la Naturaleza estaba haciéndoles el mayor de los regalos: ¡confirmar sus ideas!

Necesitamos diseñar un medio que haga que el fotón adquiera masa, pero que, al mismo tiempo, este medio cualifique como «vacío»

Pero, ¿en qué consiste el mecanismo de Higgs? Como ya hemos dicho, se trataba de construir una teoría matemáticamente consistente de fotones masivos. Es posiblemente bastante intuitivo pensar que las propiedades de la luz puedan depender de la naturaleza del medio de propagación y que, en cierto tipo de medios muy densos, el fotón se comporte como si tuviera masa. Sin embargo, no es ésta la solución completa del problema que nos ocupa. Lo que entendemos por una teoría matemáticamente consistente de fotones masivos debe ser una teoría de fotones masivos moviéndose en el «vacío». Estos dos comentarios nos dan la clave. Necesitamos diseñar un medio que, a todos los efectos, haga que el fotón adquiera masa, pero al mismo tiempo necesitamos que este medio cualifique como «vacío». Esto parece llevarnos a un callejón sin salida. Si actúa como un medio, no puede estar vacío, pero si no es el vacío no nos sirve para definir, en un sentido fundamental, fotones masivos. Este aparente rompecabezas debería recordarnos el que ya nos hemos encontrado al hablar de la teoría de Sheldon Glashow. En aquel caso necesitábamos la simetría gauge para definir el nuevo fotón, pero teníamos que «romperla» para que éste adquiriera su masa. La paradoja o el rompecabezas radicaba entonces en «romper sin romper» y, ahora, en definir un «vacío que está lleno». Ambas paradojas resultaron ser la misma. Pero, ¿cómo podemos resolver ambos rompecabezas?

La solución radica en observar que, en el mundo cuántico, y gracias a las propiedades de los bosones, podemos perfectamente diseñar algo que, aunque energéticamente cualifique como vacío, esté realmente lleno y actúe como un medio material. La clave está en la diferencia entre los dos tipos básicos de partículas elementales: bosones y fermiones. Los bosones, a diferencia de los fermiones, pueden «condensarse». Lo que esto quiere decir es que tienden a acumularse en su estado de mínima energía. Si esta mínima energía es cero, el correspondiente condensado de bosones cualifica –desde un punto de vista energético– como el vacío, en el sentido de tener una densidad de energía nula. Sin embargo, es obvio que difiere mucho de la nada, pues al ser un condensado, lo que en realidad está es lleno. Lo importante de este condensado de bosones es que adquiere propiedades «colectivas» o, en otras palabras, que se comporta como un medio material. Esto significa, en particular, que una pequeña vibración del condensado crea una onda que se propaga. Esta onda, al traducirla mecanocuánticamente, adquiere el aspecto de una partícula, y es esta partícula la que identificaremos con el famoso ¡bosón de Higgs!

Evidentemente, nos falta dilucidar cuáles son los bosones que, al condensar, producen un medio en el que el «fotón», al propagarse, adquiera masa. Definir la naturaleza y el origen de este condensado es en lo que consiste lo que genéricamente podríamos llamar la física del Higgs. Antes de entrar a explicar las características del condensado, es importante que identifiquemos claramente quién o qué es el «bosón de Higgs» que presuntamente ha sido descubierto en el LHC. El bosón de Higgs es, como se ha dicho, la versión cuántica de las pequeñas ondulaciones o vibraciones de este misterioso medio. En cierto sentido, el experimento ha consistido en perturbar el medio definido por el condensado y observar las pequeñas ondas que se crean de manera similar a como observamos las ondulaciones en el agua de un estanque en reposo cuando lo perturbamos tirando una piedra.

Esta imagen nos permite entender lo que significa el valor particular de la masa del Higgs. De lo que esta masa nos habla es de la resistencia del medio a vibrar. Si el medio fuera muy rígido o casi no vibrara, la energía que necesitaríamos para hacerlo vibrar y poder observar así el famoso bosón sería muy grande o, en el caso límite, casi infinita, y no habría acelerador capaz de hacer vibrar al condensado. En este caso, aunque podríamos percibir experimentalmente la existencia del medio, no podríamos ver sus modos de vibración. El bosón de Higgs sería infinitamente pesado y su descubrimiento no se habría producido. Esto podría perfectamente haber sucedido y hasta el pasado mes de julio era una posibilidad teórica a tener en cuenta.

En realidad, la situación antes de julio y, fundamentalmente, antes del pasado mes de diciembre, apuntaba en esta dirección. Se había excluido el rango de masas pequeñas y el de masas entre 140 Gev y 500 Gev. Sólo quedaba una pequeña ventana abierta que iba estrechándose cada vez más entre 120 y 130 Gev. Bien estaba realmente allí, como de hecho ha sido el caso, bien el Higgs era demasiado pesado, lo que podría estar indicando que el condensado no vibraba o, lo que es lo mismo, que no había bosón de Higgs.

Aquellos jóvenes que, en los años sesenta, habían descubierto el mecanismo de Higgs, bien no se habían dado cuenta de la potencial existencia del bosón de Higgs, bien simplemente no le habían otorgado mucha importancia. Recordemos que el problema entonces era el de encontrar una teoría consistente del fotón masivo. Como ya ha quedado apuntado, la manera de conseguirlo era cuadrando el círculo de encontrar un medio que cualificara como «vacío», pero manteniendo sus propiedades materiales. Este medio estaba identificado como un condensado bosónico, pero su modo de vibración –que es lo que llamamos el bosón de Higgs– no participaba realmente en el proceso de la masificación del fotón. En cierto modo, el famoso bosón era un subproducto generado por la idea de un medio que funcione como un «vacío». Para entender mejor este complicado asunto necesitamos hablar un poco más del misterioso condensado.

El fenómeno de la condensación de bosones no es tan exótico como pudiera parecer a primera vista y se da de hecho, y de manera casi cotidiana, en aquellos materiales que a temperatura suficientemente baja se comportan como superconductores. Pero, ¿cuáles son en este caso los bosones responsables del condensado? En el caso de los superconductores, los responsables son simplemente pares de electrones que se aparean a bajas temperaturas, convirtiéndose de manera efectiva en bosones y condensando en su estado de mínima energía. Es este condensado el responsable de la superconductividad, de manera análoga a la que el condensado de Higgs es el responsable de la masa del «fotón».

El fenómeno de la condensación de bosones no es tan exótico como pudiera parecer a primera vista

El físico japonés Yoichiro Nambu, afincado en Chicago, fue el primero en intentar exportar esta manera de pensar a la Física de partículas elementales. El fenómeno que se produce en la superconductividad podemos pensarlo como un cambio de «vacío». A temperaturas suficientemente bajas, los electrones se aparean, dando lugar a bosones que condensan definiendo el nuevo «vacío». El condensado, aunque cualifica como un «vacío», presenta genéricamente menor simetría que el vacío sin condensación, y esta es la razón por la que se conoce a este tipo de fenómeno como «ruptura espontánea de simetría”. Es esta ruptura controlada de la simetría la que resuelve nuestro otro problema: el de romper sin romper.

Jeffrey Goldstone, actualmente profesor en el MIT de Boston, observó que, con toda generalidad, cuando este fenómeno se produce, algunas de las vibraciones del condensado no cuestan energía alguna. A estas vibraciones de «coste cero» es a las que se conoce como «bosones de Nambu-Goldstone». Con este último comentario, que sonará a muchos un poco oscuro, llegamos al meollo del problema. El condensado tiene dos modos de vibración: uno de «coste cero», los bosones de Nambu-Goldstone (que nos hablan de la ruptura controlada de simetría), y otro con un coste energético que depende de la rigidez del condensado, que no es otro que el bosón de Higgs.

Lo que observaron Peter Higgs y el resto de los jóvenes que participaron en el descubrimiento del mecanismo de masificación del fotón es que éste se masifica como resultado de su comercio con las vibraciones de «coste cero» o, en la terminología que utilizamos los físicos, mediante la ingesta de bosones de Nambu-Goldstone. El bosón masivo no participa en este proceso de masificación del fotón, pero está allí. Su cometido depende de cuán pesado sea o, como se ha indicado más arriba, de lo rígido que sea el condensado. En realidad, su cometido no es el de dar masa al fotón débil, algo que hacen las vibraciones de coste cero, sino decirnos cómo estos fotones masivos se comportan cuando los hacemos colisionar a energías suficientemente altas. Son estas colisiones las que utilizamos para zarandear el condensado bosónico, y son precisamente estas colisiones las que quedaban fuera del rango de validez de una teoría que, como la Sheldon Glashow, se redujera a introducir la masa de los fotones mediante una hipótesis ad hoc. El círculo está cerrándose y, con ello, la verificación completa del modelo estándar.

La siguiente anécdota puede servir para que el lector aprecie el poco interés que suscitaba al principio este modo de vibración masivo, es decir, el famoso bosón de Higgs. Cuando Peter Higgs envió su artículo para publicación, el revisor le indicó que el artículo era demasiado formal y con nulas implicaciones experimentales. Esto llevó a Higgs a señalar que el modelo predecía la existencia de una nueva partícula, que era precisamente este modo de vibración masivo que hoy creemos haber descubierto finalmente. En aquellos días, la clave era entender la ingesta de los modos de coste cero, como el mecanismo de masificación, pero el «daño colateral» de la existencia del nuevo y misterioso bosón no se tomaba demasiado en serio.

Aunque el fenómeno de la superconductividad actuó como una guía conceptual muy fructífera, el condensado que subyace a las interacciones débiles es de muy distinta naturaleza al que observamos en los superconductores. En éstos, los bosones son simplemente pares de electrones o, dicho de otro modo, no son nada intrínsecamente nuevo, mientras que, en el caso del condensado de Higgs, los bosones que condensan son fundamentales y, en consecuencia, una «nueva» pieza que hay que añadir al mecano de la Naturaleza.

¿Qué imagen de la Naturaleza nos queda después de esto? Parece como si hubiera dos dinámicas organizando el puzle de la Naturaleza

En suma, masificar el fotón y, en este sentido, acomodar al principio gauge las interacciones débiles ha requerido postular la existencia de una nueva sustancia bosónica cuya condensación define una nueva modalidad de vacío. Las vibraciones de coste cero de este medio se utilizan para masificar el fotón que media la interacción débil y no se observan directamente. Sólo observamos indirectamente su reflejo como masa de los fotones débiles: los conocidos como bosones vectoriales. Por el contrario, las que tienen un coste energético, que son las que definen el famoso bosón de Higgs, lo que en realidad hacen es revelarnos de manera directa la existencia del medio como verdadero sistema dinámico y autónomo. Un sistema que puede vibrar y que, de hecho, ha vibrado cuando se le zarandea utilizando aceleradores suficientemente potentes, como el LHC.

¿Qué imagen de la Naturaleza nos queda después de este descubrimiento? Parece como si hubiera dos dinámicas organizando el puzle de la Naturaleza. Por un lado, la gravedad que determina la geometría del espacio-tiempo y, por otra, la condensación de esta sustancia bosónica que transforma el vacío en un medio con propiedades colectivas de las cuales depende la diversidad de las interacciones. ¿Tienen algo que ver ambas dinámicas?

En realidad, no conocemos aún la respuesta a esta pregunta, pero sí podemos decir algo al respecto. El aspecto más característico de la gravedad es la existencia de una escala de longitud fundamental. Esto sucede porque la famosa ley de Newton que aprendimos en la escuela contiene una constante con dimensiones que, en el mundo cuántico, son de longitudLa ley de Newton nos dice que la fuerza gravitatoria es proporcional al producto de las masas e inversamente proporcional al cuadrado de su distancia, pero la constante de proporcionalidad, que es la conocida como constante de Newton, no es un número puro, sino una cantidad con dimensiones. Por otra parte, la mecánica cuántica depende de otra constante de la Naturaleza: la constante de Planck. Al multiplicar ambas cantidades nos encontramos con una unidad fundamental de longitud –la longitud de Planck–, cuyo significado es decirnos el rango de distancias en que el propio espacio-tiempo y, consecuentemente, también su geometría devienen cuánticos.. Esta escala es conocida como longitud de Planck y es 33 órdenes de magnitud más pequeña que un centímetro.

¿Hay algo similar en la Física que controla al famoso condensado de Higgs? La respuesta es que sí. Hemos conjeturado una sustancia bosónica que condensa y, en principio, hemos observado sus arrugas, sus vibraciones: la partícula de 125 Gev con la que se abría este artículo. Pero, ¿de qué depende este número particular? En suma, ¿de qué depende la rigidez del condensado? Este número depende de la masa inicial que demos a los bosones que constituyen el condensado, y sobre el origen de este número –que, al igual que la constante de Newton, también define una escala de longitud fundamental– lo desconocemos casi todo.

De esta manera, y a la vista de lo que sabemos hoy, nos encontramos con dos escalas fundamentales de longitud, pero lo que resulta chocante, al menos a primera vista, es que estas dos escalas son desmesuradamente distintas, tan distintas como que su diferencia es de unos ¡15 órdenes de magnitud! Por decirlo de una manera gráfica, hay dos escalas de vibración cuánticas fundamentales: una, la del espacio-tiempo en sí mismo, que es la longitud de Planck; otra, la del modo de vibración del condensado bosónico que permea ese medio sin alterar su condición de «vacío» y que es la masa del bosón que se condensa. La disparidad entre ambas escalas es lo que se conoce como el problema de las jerarquías. ¿Por qué son tan desmesuradamente distintas?

El descubrimiento del bosón de Higgs es un paso trascendental en la fascinante labor de cartografiar lo que ignoramos

Esta situación se interpreta en Física como un síntoma de falta de naturalidad. La metodología más conservadora utiliza estas jerarquías como un indicio de que algo está escapándosenos, en suma, como un indicio de que el gap entre las escalas refleja únicamente nuestro desconocimiento y que habrá de llenarse con el descubrimiento de nuevos fenómenos que acaben poblando las escalas intermedias. Si le preguntara ahora al lector qué hubiera sido lo natural, la respuesta, si ha entendido el mensaje anterior, debería ser que lo natural es que ambas escalas, la de la gravedad de Newton y la que determina el condensado de Higgs, deberían haber sido del mismo orden de magnitud. Aunque esto es quizá lo natural, no es fácil de implementar y exige cambios tan drásticos (como multiplicar por dos el contenido material de la Naturaleza: supersimetría) o tan exóticos como imaginar dimensiones extra (algo cuyo lugar natural podría estar en la teoría de supercuerdas), posibilidades ambas en las que no entraremos en este artículo.

Pero hay otra posibilidad, consistente en pensar que no hay nada misterioso en la disparidad de escalas. Esta manera de pensar es la que se conoce con el nombre de «principio antrópico». Para algunos, que el bosón de Higgs esté –como decíamos al comienzo– donde lo podemos ver puede leerse en este sentido. Para que no haya nada misterioso en la diferencia de escalas, tan solo tenemos que pensar que las posibilidades correspondientes a todos los otros posibles valores se realizan en un «multiverso» cuántico¿Qué es el multiverso? En realidad, la mejor imagen del multiverso es la que tenía Giordano Bruno de una multiplicidad de universos (cada uno de ellos con sus propias características) conviviendo en un inmenso espacio vacío. Para Bruno, todo lo que pasaba por la cabeza de Dios necesitaba actualizarse. De esta manera se manifestaba su infinita perfección. En Cosmología cuántica, todo universo posible acaba actualizándose en el multiverso. El Dios de Bruno no podía decidir entre diferentes posibilidades, pues tal decisión hubiera supuesto que alguna de sus ideas no mereciera ser creada, algo incompatible con su infinita perfección. El Dios del multiverso tiene los ojos cerrados y ha decidido no colapsar la función de onda. A nosotros sólo nos queda sobrevivir en alguna de sus múltiples ramas.  y que la peculiaridad del valor que observamos es la de ser el valor en el universo (uno entre los millones que pueblan el «multiverso») en el que nosotros vivimos.

Confesaré al lector que esta metodología (que algunos de mis colegas consideran revolucionaria) y que nos devuelve a una versión cuántica del viejo principio de plenitud de la escolástica, no me resulta especialmente atractiva. Su implementación depende de una cosmología en la que la creación de múltiples universos sea natural. Esta cosmología existe y deriva de la extensión cuántica de los modelos inflacionarios.

En este sentido, no querría terminar sin al menos decir dos palabras sobre una confusión propagada en diversos medios de comunicación y que tiene un poco que ver con el anterior comentario. Actualmente, lo que podríamos llamar el modelo estándar en cosmología supone que existió una época del Universo donde éste se «infló» exponencialmente en un breve lapso de tiempo. Esta época se conoce como «inflación». Este proceso se modela de nuevo sobre la base de postular un bosón fundamental (esta vez denominado «inflatón») cuya condensación controla el proceso inflacionario. Aunque pueda ser natural imaginar que ambos condensados bosónicos son el mismo, esta hipótesis es arbitraria, y lo es todavía más interpretar el descubrimiento del pasado 4 de julio como la prueba de la existencia del inflatón. Al contrario que el condensado de Higgs al que nos hemos referido, el del inflatón sí tiene energía y es por eso por lo que modifica de manera drástica la geometría del espacio-tiempo inflándolo exponencialmente. Ambos podrían pertenecer a la misma familia, pero aún no hay nada que nos haga pensar que este es el caso.

La pelota está aún en el tejado y todo hace pensar que en los meses futuros seremos testigos de fascinantes descubrimientos. Puede que se descubra una nueva dimensión cuántica del espacio-tiempo: la supersimetría. O que el bosón que se ha descubierto no sea el del modelo estándar, en cuyo caso estaríamos ante algo nuevo sobre la dinámica que controla el «vacío». Pero puede que todo encaje sin otras novedades y que no nos quede otra que ¡aceptar el principio antrópico! Esperemos que no. El descubrimiento del bosón de Higgs es, en suma, un paso trascendental en la fascinante labor de cartografiar lo que ignoramos.

César Gómez es Profesor de Investigación en el Instituto de Física Teórica (Universidad Autónoma de Madrid/CSIC).
 

 

image_pdfCrear PDF de este artículo.
Yellow winner

Ficha técnica

22 '
0

Compartir

También de interés.

El nihilismo aún mira hacia atrás

El nihilismo es uno de los conceptos más polivalentes de la historia de la…