ARTÍCULO

Física fundamental y la paradoja del diseño inteligente

 

Leonard Susskind, físico teó­rico de la Universidad de Stanford, ha publicado recientemente un libro de vocación decididamente polémica. Ya en el título, The Cosmic Landscape: String Theory and the Illusion of Intelligent Design (El paisaje cósmico: la teoría de cuerdas y la ilusión del diseño inteligente), la referencia explícita al «diseño inteligente» parece nutrirse del debate público sobre la enseñanza de la teoría de la evolución en las escuelas estadounidenses. Esto se debe a que el eslogan «Teoría del diseño inteligente» está siendo utilizado por los creacionistas de aquel país como una cubierta seudocientífica en las encendidas discusiones sobre política educativa.
Más allá del oportunismo latente en el título, el libro de Susskind es un nuevo intento de acercar la teoría de cuerdas al gran público. Esta hipotética construcción teórica, que ha dominado la especulación en física de altas energías durante dos décadas, ha encontrado la vía de la divulgación «superventas» en fechas recientes, sobre todo de la mano de figuras como Brian Greene, Stephen Hawking o Lisa Randall. Aunque el de Susskind es un libro con calidad pedagógica, con un estilo fresco y desenfadado muy de agradecer, es posible que resulte más valorado entre los cognoscenti de la materia que entre el público en general. Como esfuerzo puramente divulgativo para el gran público, no parece encontrarse a la altura de los anteriores trabajos de Greene o de Hawking. El trabajo de Susskind parece más bien un serio esfuerzo por convencer a sus propios colegas sobre su personal interpretación de la teoría de cuerdas. Por tanto, bajo el disfraz divulgativo, tenemos aquí un texto que refleja grandes tensiones internas en la comunidad de físicos teóricos, debates de altos vuelos que, sin embargo, son accesibles al gran público mediante el hábil empleo de ciertas metáforas sugerentes.
Hablando, pues, de metáforas y de disfraces, se preguntará el lector qué tiene que ver la teoría del diseño inteligente con la teoría de supercuerdas. Técnicamente, la teoría de cuerdas es un andamiaje matemático extremadamente sofisticado, que propone la unificación de la teoría de la relatividad de Einstein con la mecánica cuántica, de modo que la relación con las preocupaciones del fundamentalismo cristiano estadounidense parece un tanto forzada. En rea­lidad, el oportunismo del título tiene una cierta lógica, pues el libro está articulado en torno a la existencia de una «paradoja del diseño inteligente» en la física fundamental, y a su posible solución en el contexto de la teoría de cuerdas.
La «teoría del diseño inteligente», en el sentido de la polémica educativa en Estados Unidos, no es más que el viejo mito del creacionismo aplicado a la biología. Un problema central de la biología es la asombrosa complejidad de los organismos vivos, con multitud de sistemas en funcionamiento armónico a todos los niveles, desde el bioquímico hasta el social. La simple contemplación de un ojo evoca la metáfora de una «ingeniería natural», algo que se repite constantemente en multitud de sistemas biológicos, si bien en muchas ocasiones la «eficiencia» del diseño no alcance estándares tecnológicos. Hablar de ingeniería lleva implícita la noción de intencionalidad, de satisfacción de unos objetivos que justifican, finalmente, el diseño de un artilugio concreto. Esta sensación recurrente al contemplar la naturaleza inspira en las personas religiosas la certeza de un plan o diseño divino. Por supuesto, no se trata de algo nuevo: este tipo de reflexión está en la base misma de cualquier religión, aunque fue Santo Tomás de Aquino quien la explotó con más fuerza en una serie de ambiciosas «pruebas» de la existencia de Dios.
La apariencia de diseño inteligente de los organismos vivos es el clásico problema «de principio» en la biología. Se trata de una auténtica paradoja que exige una explicación. De hecho, la aportación central de Darwin a la ciencia fue ni más ni menos que la resolución de esta paradoja en términos estrictamente científicos. Darwin y Wallace mostraron cómo la selección natural sobre organismos que se reproducen con variabilidad es capaz de explicar la dinámica de los sistemas biológicos en escalas geológicas de tiempo, hasta producir auténticas «ilusiones de diseño inteligente» que, en detalle, no son más que el resultado de un ciego proceso de prueba y error repetido durante millones de años, y moldeado por la selección natural. El descubrimiento posterior del ADN y las bases bioquímicas de la herencia han terminado por asentar definitivamente el paradigma evolutivo.
Si la relevancia del problema es obvia en biología, para los no expertos es un hecho mucho menos familiar que la física fundamental también tiene su propia versión. El punto de partida podría denominarse, siguiendo a Lee Smolin, como «la observación antrópica». Consiste en la constatación experimental de que los valores numéricos de las constantes fundamentales, aquellas en función de las cuales se escriben todas las fórmulas de la física, no parecen distribuidos al azar, sino que algunos parecen cuidadosamente «ajustados» para que ciertas estructuras emergentes sean posibles. La intensidad de la interacción electromagnética, las masas de los quarks o la intensidad relativa de la radiactividad parecen delicadamente ajustadas para que núcleos atómicos complejos sean estables, siendo entonces posibles las macromoléculas de la química orgánica, los ladrillos básicos de la vida. Una variación del uno por ciento en algunos de estos parámetros se traduciría en que la química o la física nuclear cambiarían tanto que no podríamos reconocer el mundo. En algunos casos, la tolerancia a la variación es ridículamente pequeña. Por ejemplo, si la densidad de energía oscura en el cosmos fuera diferente en una parte en diez elevado a cien (un número de cien cifras), el universo no albergaría galaxias. Lo sorprendente de estos «ajustes finos» es que las estructuras en cuestión, como las galaxias, las estrellas de vida larga o incluso las macromoléculas de la bioquímica, parecen remotos fenómenos emergentes cuando se los contempla desde el mundo microscópico de los quarks. La razón por la cual ciertos parámetros de la in­terac­ción entre quarks «parecen saber» que la química del carbono es estable se presenta así como un verdadero misterio.
El actual modelo de la física de partículas (llamado prosaicamente «modelo estándar») y el análogo modelo estándar cosmológico son estructuras teóricas de asombrosa capacidad predictiva y gran profundidad conceptual. Todas sus predicciones dependen, sin embargo, de una treintena de parámetros numéricos, que no están determinados por la teoría, sino simplemente especificados por la medición experimental. Algunos ejemplos de estas constantes fundamentales son bien conocidos: las masas de los quarks, electrones y neutrinos, las densidades cosmológicas de materia ordinaria, materia oscura y «energía oscura», las intensidades relativas de las cuatro fuerzas fundamentales (gravitación, electromagnetismo e interacciones nucleares fuertes y débiles), y un largo etcétera que no es necesario especificar aquí. Son los valores peculiares de una fracción de estas constantes lo que constituye la versión microfísica de la paradoja del diseño inteligente: la estructura más íntima de la naturaleza parece diseñada ex profeso para que nuestra existencia sea posible.
Esta «conspiración cósmica» es ciertamente dramática en el contexto de las modernas teorías cosmológicas. Según la evidencia de la que se dispone, las constantes de la naturaleza han variado poco o nada desde la época inicial del Big Bang, de modo que la supuesta «elección primigenia» de sus valores se realizó cuando las estructuras en cuestión (núcleos pesados, macromoléculas orgánicas) ni siquiera existían, debido a las altas temperaturas reinantes entonces (he aquí una diferencia clara con el caso de los seres vivos, donde la generación de «diseños biológicos» no se interrumpe nunca).
Esta nitidez de la paradoja en el contexto cosmológico es la responsable de que hayan sido los cosmólogos, como John Barrow, Martin Rees o Andrei Linde, por citar unos pocos, los que más la han enfatizado. El comportamiento de los físicos teóricos de altas energías ha sido muy diferente. Históricamente, éstos siempre se han dejado guiar por el paradigma de la unificación de las teorías. En esto no les ha ido nada mal: los triunfos de Newton, Maxwell o Einstein son otros tantos éxitos de este afán unificador. Uno de los indicadores de progreso conceptual es que el número de constantes fundamentales tiende a disminuir, porque en la nueva teoría, más profunda, algunas de estas constantes pueden calcularse en términos de otras, que pasan a conformar la nueva lista de constantes fundamentales. Así, la noción de «constante fundamental de la física» es de naturaleza histórica, con una clara tendencia al minimalismo.
El caso extremo de este minimalismo está representado por el famoso sueño einsteniano: «Lo que me interesa realmente es saber si Dios tuvo elección a la hora de crear el universo».En una versión más explícita y menos metafórica, el propio Einstein expresa su ansia intelectual cuando dice: «Quisiera enunciar un teorema que por ahora no está basado en nada más que en la fe, en la simplicidad y la inteligibilidad de la naturaleza: no hay constantes arbitrarias [...], es decir, es posible enunciar leyes tan fuertemente determinadas que, en el contexto de éstas, sólo aparecen constantes racionalmente determinadas (no constantes, por tanto, cuyo valor pueda cambiarse sin destruir la teoría)».
En una teoría tal de «superuni­ficación», las ecuaciones matemáti­cas que la gobiernan serían tan potentes que to­das las constantes numéricas que ahora tomamos como «datos del problema» estarían unívocamente determinadas por ellas. De hecho, sabemos que el sueño de Einstein es una posibilidad real porque un sector del modelo estándar, tomado de forma aislada, es una teoría puramente algorítmica, en la que todas las cantidades físicas están determinadas por ecuaciones de solución única. Se trata de la teoría de las interacciones fuertes (técnicamente, la cromodinámica cuántica), que describe la dinámica de los quarks y los gluones en el interior de protones y neutrones. Si el mundo estuviera hecho exclusivamente de gluones y quarks sin masa, habríamos realizado ya el sueño einsteniano.
Precisamente, ciertas analogías formales con la teoría de quarks y gluones han llevado a los promotores de la teo­ría de cuerdas a proclamarla como candidata a teoría de unificación total, en el sentido de Einstein. Es decir, no sólo trataría en un mismo formalismo matemático las cuatro fuerzas fundamentales y la propia materia como una sola entidad básica, sino que las ecuaciones de la teoría de cuerdas, en un sentido abstracto, se parecen a las de la cromodinámica cuántica en que no dependen de parámetros numéricos dados de antemano, así que son potencialmente capaces de determinar todas las constantes de la naturaleza. Decimos potencialmente porque, hasta fechas recientes, nadie había logrado resolver estas ecuaciones, salvo en casos muy particulares sin demasiado interés físico.
Con estas premisas históricas, no es de extrañar que la paradoja del diseño inteligente no haya tenido mucho eco entre las filas de los físicos de altas energías. En fin de cuentas, dentro del programa de máximos de Einstein, la propia paradoja carece de sentido. En efecto, si creemos que existen ecuaciones tan potentes que las constantes de la naturaleza quedan totalmente determinadas, no tiene sentido preguntarse por lo que pasaría si estas constantes tomaran otros valores. Sería como preguntarse qué pasaría si la raíz cuadrada de dos fuera mayor que tres, un sinsentido. Desde este punto de vista, la aparente conspiración de un puñado de constantes para permitir el desarrollo de estructuras complejas en nuestro universo no sería más que una coincidencia. Atareados como estaban con el desarrollo del muy exitoso modelo estándar, los teóricos de altas energías no han tenido tiempo de ver «conspiraciones» detrás de los valores de las constantes de la naturaleza. En palabras de Susskind, se han comportado como ciegos que tantean en la esquina de una habitación, ignorantes de la presencia de un gran elefante que la ocupa casi por entero. La cuestión es, por tanto, ¿hay un elefante en la habitación? ¿Hay un misterio de primera magnitud, esperando ser resuelto?
¿Cuáles son, entonces, las posibles explicaciones científicas de la observación antrópica? Básicamente, existen dos puntos de vista extremos: la visión «einsteniana» ya citada, que pospone la cuestión al descubrimiento de la «fórmula maestra» que determina todos los elementos arbitrarios de nuestras teorías, y la visión que denominaremos «antrópica», que aplica un razonamiento parecido al darwinista. Al igual que el darwinismo «trivializa» la existencia de diseños biológicos, reduciéndolos a una selección sobre la exploración ciega de variaciones a nivel genético, los físicos antrópicos establecen la hipótesis de que los valores de algunas de las constantes de la física son de naturaleza puramente «vecinal», esto es, se postula que las ecuaciones básicas de la microfísica no requieren valores bien definidos de estas constantes, como pretendía Einstein, sino que en realidad permiten un número muy grande de soluciones, que se pueden realizar en diferentes dominios o regiones del universo. En un escenario como éste, las coincidencias no tienen una significación especial: simplemente vivimos donde podemos vivir, pero otros «mundos», con diferentes características físicas, existirían en regiones remotas del universo. Con objeto de precisar la terminología, el conjunto total de dominios o regiones con valores diferentes de las constantes de la física se denomina multiverso, y en ocasiones sigue utilizándose el término «universo» para denominar un dominio local con un conjunto dado de «leyes físicas».
La analogía biológica, que utilizamos como guía metodológica en la discusión, no es perfecta en este punto. Dejando de lado los tímidos intentos de Lee Smolin por construir una cosmología estrictamente darwiniana, la principal diferencia entre el darwinismo y la teoría del multiverso es que la selección natural no tiene cabida en esta última. No hay, por tanto, un proceso de «refinamiento» de diseños por la lenta evolución, sino que los aparentes ajustes finos de la naturaleza son simplemente el resultado de que hay un número astronómico de posibilidades, y todas son realizadas en diferentes «lugares» del multiverso. Por tanto, si vivimos en un mundo con constantes cuidadosamente ajustadas, no debemos dejarnos impresionar porque se trate de un «mundo improbable»: sin duda se realizará en alguna remota esquina del multiverso de posibilidades. En la teo­ría del multiverso se diluye la famosa tensión conceptual entre azar y necesidad, destilada por Monod a partir del mundo biológico. Aquí el azar tiene el papel fundamental. La necesidad, en el sentido de ley física inmutable, operaría sólo a nivel global en el multiverso. Por ejemplo, es necesario que las ecuaciones matemáticas de la teoría admitan los valores experimentales como solución posible, pero basta que sea una más entre millones, sin ninguna significación particular.
La diferencia entre los puntos de vista antrópico y einsteniano es patente. Utilizando la metáfora divina, el Dios einsteniano no tiene elección a la hora de crear el mundo: la consistencia matemática le deja una única posibilidad, y es nuestro máximo objetivo encontrar esa fórmula maestra. El Dios «antrópico», por el contrario, tiene multitud de posibilidades y, de hecho, crea un mundo que las realiza todas. Es posible que exista una fórmula maestra que gobierna el multiverso, pero ésta no se refleja directamente en las condiciones de nuestro vecindario cósmico, donde sólo tenemos acceso a una solución particular, entre muchas otras posibles.
Estrictamente, decir que un parámetro está antrópicamente determinado equivale a colocarlo fuera de los objetivos de máximos de Einstein: ya no aspiramos a calcularlo teóricamente en función de leyes fundamentales, puesto que, por hipótesis, esas leyes admiten muchas soluciones diferentes. Como mucho, podremos calcular el espectro de valores que son en principio posibles. Así, asumir que todas las posibilidades se realizan de hecho en diferentes puntos del multiverso supone la retirada copernicana definitiva: no sólo la Tierra, el sistema solar y nuestra galaxia son uno más entre millones, sino que el propio universo es un reducto provinciano del vasto multiverso de posibilidades.
Un ejemplo puede servir para ilustrar la idea. Es claro que la temperatura de la Tierra no está determinada de forma unívoca en términos de leyes básicas, puesto que estas mismas ­leyes permiten la existencia de muchos planetas distintos con diferentes temperaturas. La temperatura de la Tierra es, así, un parámetro puramente antrópico. Este ejemplo muestra claramente una limitación del antropismo: si bien la ciencia progresa reduciendo el número de «constantes de la naturaleza», no es fácil saber a priori si una cantidad dada puede tener una naturaleza «vecinal» o no. Es perfectamente posible imaginar a un científico medieval, habitante de un planeta permanentemente cubierto de nubes, plantearse como pregunta científicamente lícita si hay una ley de la naturaleza que determina la temperatura de su planeta. Las nubes le impiden ver el Sol y la distancia a la que se encuentra, causa contingente de la temperatura de su planeta. Las generaciones posteriores descubrirían experimentalmente que esta pregunta era equivocada, en el sentido de que no admite una respuesta «einsteniana», por más que otras preguntas puedan llevar, y de hecho llevan, a progreso genuino desde el punto de vista científico. En una versión real de este ejemplo, es bien conocido el caso de Kepler, que invirtió sus mejores esfuerzos en demostrar una conexión entre los tamaños de las órbitas en el sistema solar y la geometría de los sólidos pitagóricos. Hoy sabemos que los tamaños concretos de estas órbitas están determinados en gran medida por complejos accidentes históricos.
La «solución antrópica» a la paradoja del diseño inteligente requiere la realización de un escenario teórico basado en dos pilares fundamentales. Primero, la teoría fundamental ha de ser tal que ciertas «constantes» varíen en un espectro suficientemente amplio y «denso» de posibles valoresEl espectro de valores debe ser suficientemente denso. Si, por el contrario, los valores posibles de un parámetro microfísico estuvieran muy «espaciados» en comparación con la precisión experimental de nuestras medidas, sería muy improbable que tomara el valor medido experimentalmente por puro azar. En este caso, habría que buscar una explicación «einsteniana» de este parámetro.. Segundo, esta teoría fundamental debe dar cabida a un modelo cosmológico en el que todo el espectro de valores posibles se realice de hecho, en dominios suficientemente grandes como para que el universo observable quepa en uno de ellos. Esta segunda condición es crucial, puesto que no existe ninguna evidencia de que las leyes físicas cambien en absoluto a lo largo del universo conocido.
Según Susskind, la teoría de cuerdas proporciona precisamente el andamiaje teórico requerido para realizar este escenario. Resulta cuando menos sorprendente que la teoría que había sido promocionada como el paradigma de la unificación total, al más puro estilo einsteniano, pase ahora por la piedra angular del paradigma opuesto, el del multiverso. Como puede suponerse en un cambio de dirección tan radical, no todo el mundo rema en la misma dirección, y notables líderes de la teoría de cuerdas, como David Gross o Edward Witten, han mostrado su desacuerdo o, como poco, su descontento ante la nueva dirección teórica difundida por Susskind.
Lo primero que cabe preguntarse es cómo se ha llegado a este punto. ¿Acaso los voceros de la teoría de cuerdas en los años ochenta estaban totalmente equivocados? La realidad es que hoy, con más claridad si cabe que hace veinte años, la estructura matemática de la teoría de cuerdas sigue apuntando a una unificación total de la materia y las fuerzas, y parece claro que no hay constantes numéricas especificadas a priori en las ecuaciones de la teoría. Sin embargo, ante la dificultad de encontrar soluciones realistas a estas ecuaciones, los teóricos de cuerdas simplemente asumieron que tal solución era única, tal vez inspirados por el caso más simple de la cromodinámica cuántica, y por el clásico prejuicio filosófico de la unificación à la Einstein.
El reciente cambio de rumbo en teoría de cuerdas es el resultado de la consolidación paulatina de la opción contraria: que las ecuaciones de la teo­ría de cuerdas tienen muchas soluciones «realistas». De hecho, parecen tener muchísimas, en el rango de diez elevado a quinientos (un número con quinientos dígitos), o tal vez más. Siendo rigurosos, hay que reconocer que estos resultados están basados en aproximaciones, cuya validez no está exenta de dudas. También es cierto que ninguna solución conocida describe bien nuestro mundo. Es a este clavo ardiente al que se aferran los cuerdistas del «partido einsteniano». En todo caso, si se confirma que el número de soluciones de la teoría es tan grande, la teoría de cuerdas tiene pocas posibilidades de encarnar el ideal einsteniano, circunstancia que está provocando un cierto shock cultural entre los expertos en cuerdas.
La condición cosmológica sobre una teoría viable del multiverso, la generación de dominios suficientemente homogéneos y «grandes» con leyes uniformemente definidas, la salva la teoría de cuerdas proporcionando modelos cosmológicos de tipo inflacionario. La inflación cosmológica, idea propuesta por Alan Guth en los primeros años ochenta, tiene como objetivo principal la reconciliación de la longevidad finita del universo (la base de la teoría del Big Bang) con la gran homogeneidad de sus características físicas a gran escala. La idea es que, durante un período primitivo de la historia cosmológica, tuvo lugar una expansión exponencial del universo, de tal forma que regiones diminutas fueron «estiradas» por la expansión hasta tamaños astronómicos, dando lugar a condiciones localmente homogéneas como las observadas. Esta fantástica idea tiene cabida en la bien establecida teoría de la relatividad general de Einstein, y algunas de sus predicciones sobre el fondo de radiación cósmica han sido recientemente apoyadas por medidas a bordo de los satélites COBE y WMAP.
Aunque las ideas inflacionarias distan mucho de estar confirmadas, los recientes resultados experimentales han proporcionado una gran solidez a este tipo de escenarios cosmológicos. De hecho, el gran descubrimiento experimental de la cosmología reciente es que la inflación continúa hoy día en el universo, aunque a un ritmo muy lento: la famosa «energía oscura», cuyo efecto es la aceleración de la expansión del universo, parece haber sido confirmada. La existencia de esta energía oscura plantea el caso más extremo de «ajuste fino» en el modelo estándar, puesto que la estructura en gran escala del universo (básicamente, la mera existencia de galaxias) require un fijado con una precisión de ciento viente órdenes de magnitud. De nuevo, Susskind enfatiza que los argumentos basados en la interpretación antrópica de la teoría de cuerdas parecen los únicos capaces de explicar, hoy por hoy, estas propiedades tan sorprendentes. Esta situación encierra, de hecho, una gran ironía histórica. El «problema de la constante cosmológica», como se conocía tradicionalmente, siempre había sido visto como el veredicto final sobre cualquier candidata a teoría de la gravitación cuántica. Se suponía que la teoría correcta se revelaría a todos como la única capaz de explicar por qué la energía del vacío cosmológico es tan ridículamente pequeña. Por supuesto, cualquier manifestación de este tipo de pensamientos asumía tácitamente que la explicación en cuestión debería ser de tipo einsteniano. Hasta hace pocos años, el recurso al argumento antrópico era considerado como una auténtica indignidad en boca de un físico de cuerdas. Podríamos decir, así, que la importancia de Susskind radica en su condición de «pa­dre fundador converso», en mayor medida que en su contribución concreta a este tipo de teorías.
Por tanto, ¿qué les queda a los partidarios de las cuerdas? ¿Están obligados a enterrar definitivamente el sueño einsteniano? La verdad es que la teoría multiversal ofrece cierto solaz filosófico, ya que redefine como «no problemas» muchos de los misterios de la estructura del mundo físico. El problema con el multiverso es, más bien, que se trata de una caja de Pandora. Una vez que la selección contingente, histórica o «vecinal» es invocada para explicar el valor de un cierto parámetro (por ejemplo, la constante cosmológica o energía oscura), es difícil decidir dónde detenerse. Si un número es antrópico, ya no podemos utilizarlo como palanca conceptual para profundizar en nuestro conocimiento de la naturaleza. La cuestión es, entonces, cuántos de los treinta parámetros básicos están matemáticamente determinados (à la Einstein) y cuántos son contingentes a nuestra posición particular en el multiverso. No parece posible decidir, ni siquiera en principio, lo que provoca encendidas discusiones entre «escuelas de pensamiento». Los antrópicos son acusados de «tirar la toalla» antes de tiempo, mientras que los einstenianos son acusados de fanatismo filosófico. Lo cierto es que la explicación antrópica despierta muchos recelos y ha llegado a ser tildada de acientífica, ya que, en la práctica, no tenemos acceso experimental directo a otros dominios del multiverso. Volviendo a la parábola del científico atrapado en un planeta permanentemente nublado, no­so­tros no tenemos el lujo de sobrevolar el manto de nubes y contemplar la rea­lidad de muchos planetas orbitando el Sol a diferentes distancias.
Una cuestión más modesta, pero estrictamente científica, es saber si el multiverso es una propiedad inevitable de la teoría de cuerdas, algo que puede elucidarse con sólo profundizar en las matemáticas de la teoría. Se trata de un problema muy bien definido al que puede responderse sí o no. Para falsar la teoría de cuerdas en un sentido estricto sería necesario identificar propiedades suficientemente genéricas que fueran, a la vez, aproximadamente independientes de nuestra ­posición particular en el multiverso. Pero parece difícil avanzar en esta línea sin progresos en la cuestión previa de la inevitabilidad del multiverso. Por consiguiente, el debate está «en tablas», y es probable que siga así bastante tiempo, dada la dificultad intrínseca de las matemáticas de la teoría de cuerdas.
En menos de dos años, el nuevo colisionador de protones (LHC) del CERN (el laboratorio europeo de física de partículas) entrará en funcionamiento en los alrededores de Ginebra. Se trata de un microscopio que explorará la estructura del espacio-tiempo y la materia hasta distancias del orden de una milésima del tamaño de un protón, y hay muy buenas razones para pensar que revelará nuevas estructuras. Algunos de los pilares del edificio de las cuerdas, como simetrías nuevas (supersimetría) o dimensiones adicionales del espacio, podrían ser experimentalmente reveladas. También podrían aparecer fenómenos nuevos, sorpresas que no han sido soñadas por los teó­ricos.
¿Qué nos puede enseñar el LHC sobre el multiverso? Para ser since­ros, poca cosa. La verificación directa, como hemos argumentado antes, está descartada. Como mucho, podríamos ver cómo aumenta la sensación de arbitrariedad y contingencia estructural de la física de partículas, una de las características de la selección antrópica. Al igual que la exuberancia caprichosa y el no siempre «económico» diseño de los organismos vivos es, a la postre, evidencia de lo azaroso de la variabilidad genética, el descubrimiento de una física de partículas basada en mecanismos ad hoc y en estructuras de gran arbitrariedad y complicación podría ser interpretado como indicio de la selección contingente en un multiverso. Sin embargo, será difícil ir más allá de los meros indicios. Otra posibilidad sería el descubrimiento de fenómenos que permitieran una nueva síntesis teórica, basada en un esquema más simple que el modelo estándar. Esto permitiría a los einstenianos posponer, unas cuantas generaciones, la ine­vi­ta­ble discusión acerca de la contingencia de las leyes físicas.
En cualquier caso, de confirmarse que el multiverso es matemáticamente inevitable en teoría de cuerdas, el estatus científico de éstas cambiaría para siempre. Incluso si el LHC u otro hipotético experimento futuro «descubre» las cuerdas, será difícil realizar tests experimentales de precisión, según los estándares actuales. Cualquier cálculo teórico de los detalles de un experimento con precisión de, digamos, un uno por ciento, seguramente requeriría conocer, de antemano, cuál de los diez elevado a quinientas soluciones de la teoría de cuerdas se realiza en nuestro dominio local. La física experimental de precisión puede ser, entonces, un negocio arriesgado, por más que las propiedades cualitativas de las cuerdas fueran obvias en los datos experimentales. La teoría de cuerdas se convertiría entonces en una teoría «blanda», con predicciones de carácter cualitativo, más parecida a la tectónica de placas en geología, o a la evolución de las especies en biología, que al actual modelo estándar de la física de partículas. Si un escenario así fuera cierto, siempre subsistiría un límite a la precisión de nuestras predicciones y a nuestra capacidad para confirmarlas. La mayoría de los físicos, educados en el sueño einsteniano, miran esta alternativa con inquietud. Incluso aquellos que reconocen la posible existencia de un multiverso estarían encantados de posponer este límite epistemológico unas cuantas generaciones.
En suma, el libro de Susskind es lectura recomendada para los que abrigan curiosidad sobre los últimos esfuerzos del intelecto humano por elucidar los secretos de la naturaleza. Ofrece al lector la posibilidad de contemplar una hipótesis inquietante: los propios límites de la física fundamental como empresa intelectual histórica. En sí, este tipo de reflexión no es nuevo, aunque tradicionalmente, en un claro ejemplo de soberbia intelectual, los físicos siempre la abordaron en términos einstenianos, es decir, preguntándose si nos encontrábamos más o menos cerca de dar con la «fórmula maestra». En este libro, como en otros anteriores que se han ocupado de la cuestión antrópica (Barrow, Rees, Linde...), se ofrece al lector una perspectiva muy diferente sobre ese «final de la física». Además, el libro resultará muy interesante para los avezados a la física teórica o a la filosofía e historia de la ciencia. Lo encontrarán fascinante porque es polémico y está escrito en el filo de la navaja: se trata de una propuesta indudablemente valiente, pero también podría resultar un caso flagrante de bisoñez intelectual, como lo fueron antes las abigarradas cosmologías mitológicas, o lo son ahora los tratados sobre extraterrestres constructores de las pirámides de Egipto. No conviene perder de vista que las teo­rías «conspiratorias» son una droga para el intelecto, y el antropismo parte de un prejuicio «conspiratorio» sobre un conjunto de treinta números que determinan la física.

01/05/2007

 
ENVÍA UN COMENTARIO
Nombre *
Correo electrónico *
Su comentario *
 
 
 
 

Normas de uso
Los comentarios en esta página pueden estar moderados. En este caso no aparecerán inmediatamente en la página al ser enviados. Evita las descalificaciones personales, los insultos y los comentarios que no tengan que ver con el tema que se trata. Los comentarios que incumplan estas normas básicas serán eliminados.

 
Deseo mostrar mi email públicamente
 
He leído y acepto la cláusula de privacidad.
 
 
 
Por favor, para evitar el spam necesitamos que resuelvas la siguiente operación matemática:
9 - 6  =  
ENVIAR
 
 
RESEÑAS

 

BÚSQUEDA AVANZADA

Te animamos a bucear en el archivo de Revista de Libros. Puedes realizar tus búsquedas utilizando los siguientes criterios.

Todas las palabras
Cualquiera
Coincidencia
ENVIAR


Apúntate al boletín de Revista de Libros
ENSAYOS ANTERIORES
RDL en papel 185
RESEÑAS
 
  Apúntate a RdL
BLOGS
 
  Archivo RdL
 
Patrocinadores RDL