Buscar

¿Es el universo un ordenador?

A New Kind of Science

STEPHEN WOLFRAM

Wolfram Media, Nueva York

image_pdfCrear PDF de este artículo.

1

Todo el mundo sabe que los ordenadores electrónicos han contribuido enormemente a la labor de la ciencia. Algunos científicos han tenido una visión más grandiosa de la importancia del ordenador. Confían en que cambiará nuestra imagen de la propia ciencia, de lo que se supone que han de conseguir las teorías científicas y de los tipos de teorías que podrían alcanzar estos objetivos. Nunca he compartido esta visión. Para mí, el ordenador moderno es sólo una versión más rápida, barata y fiable de los equipos de trabajadores (entonces llamados «computadores») que fueron programados en Los Álamos durante la segunda guerra mundial para realizar cálculos numéricos. Pero ni yo ni la mayoría del resto de físicos teóricos de mi generación aprendimos a utilizar ordenadores electrónicos en nuestros años de estudiante. Esa técnica la necesitaban fundamentalmente para hacer sus cálculos los experimentalistas que tenían que procesar enormes cantidades de datos numéricos y los teóricos que trabajaban con problemas como la estructura estelar o el diseño de bombas. Los teóricos como yo, cuyo trabajo tenía como objetivo inventar teorías y calcular lo que predicen estas teorías sólo en los casos más sencillos, no solíamos necesitar ordenadores.

Sin embargo, de cuando en cuando he necesitado encontrar la solución numérica de una ecuación diferencialUna ecuación diferencial da una relación entre el valor de una cantidad variable y la tasa a la que va cambiando esa cantidad, y quizás la tasa a la que va cambiando esa tasa, y así sucesivamente. La solución numérica de una ecuación diferencial es una tabla de valores de la cantidad variable, que satisfacen en una buena aproximación tanto la ecuación diferencial como algunas condiciones dadas sobre los valores iniciales de esta cantidad y de sus tasas de variación. y, con cierta vergüenza, tenía que buscar a un colega o a un licenciado para que me hiciera el trabajo. Por eso, el día que aprendí a utilizar un programa llamado Mathematica, concebido para ordenadores personales bajo la dirección de Stephen Wolfram, me sentí feliz. Todo lo que había que hacer era escribir las ecuaciones para que fueran resueltas en el código prescrito, pulsar mayúscula-intro y, al momento, la respuesta aparecía en la pantalla del monitor. El manual de usuario de Mathematica se encuentra ahora encima de mi mesa, y es tan gordo y voluminoso que cumple una segunda función como sujetalibros del resto de los volúmenes que tengo al alcance de la mano.

Ahora Wolfram ha escrito otro libro que es casi tan voluminoso como el manual de usuario de Mathematica y que ha suscitado una gran atención en la prensa. A New Kind of Science describe una visión radical del futuro de la ciencia, basada en la larga relación de amor de Wolfram con los ordenadores. La editorial del libro, Wolfram Media, anuncia «un modo enteramente nuevo de observar cómo opera nuestro universo» y «una serie de descubrimientos espectaculares que nunca se habían hecho públicos anteriormente». Wolfram pretende ofrecer una revolución de la naturaleza de la ciencia, alejando una y otra vez su trabajo de lo que él tilda de ciencia tradicional, con observaciones como «si la ciencia tradicional fuera nuestra única guía, en este momento estaríamos probablemente bastante atascados». Reivindica su afirmación en las primeras líneas del libro: «Hace tres siglos la ciencia se vio transformada por la nueva y espectacular idea de que las reglas basadas en ecuaciones matemáticas podían utilizarse para describir el mundo natural. Mi propósito en este libro es iniciar otra transformación de este tipo».

Generalmente pongo los libros que incluyen afirmaciones como ésta en la balda de los chiflados de la estantería de mi despacho. En el caso del libro de Wolfram, hacer eso sería un error. Wolfram es inteligente, obtuvo una beca de investigación MacArthur a los veintidós años y es el padre del inapreciable Mathematica, además de tener montones de cosas que decir sobre los ordenadores y la ciencia. No creo que su libro se acerque a la consecución de sus objetivos o a la justificación de sus afirmaciones pero, si estamos ante un fracaso, se trata de un fracaso interesante.

El tema central del libro se expone con facilidad: muchas reglas sencillas pueden dar lugar a un comportamiento complejo. El ejemplo que se utiliza repetidamente para ilustrar este tema es un juguete predilecto de los teóricos de la complejidad conocido con el nombre de autómata celular, de modo que tendré que explicar brevemente qué son los autómatas celulares.

Cojamos una hoja de papel blanco cuadriculado. Las cuadrículas son las «células». Coloreemos de negro una o más células de la fila superior, de la manera que prefiramos, dejando el resto en blanco. Ésta es nuestra entrada. Coloreemos ahora de negro algunas células de la segunda fila de acuerdo con algún tipo de regla fija que nos diga que coloreemos de negro cualquier célula o que la dejemos en blanco dependiendo de los colores de sus tres células contiguas en la primera fila (esto es, las células de la primera fila que están o inmediatamente por encima de la célula de la segunda fila, o una célula a la derecha o a la izquierda). A continuación utilizamos automáticamente la misma regla, sea la que sea, para colorear cada célula de la tercera fila en función de los colores de sus tres células contiguas en la segunda fila y seguimos haciéndolo automáticamente del mismo modo en las filas inferiores. La regla para ir coloreando utilizada de este modo es un autómata celular elemental.

Esto puede parecer una variación en forma de solitario del tres en raya, sólo que no tan emocionante. Lo cierto es que la mayoría de los 256 posiblesEl autómata debe decirnos el color de una célula en una fila para cada uno de los posibles 2 x 2 x 2 = 8 modelos de color posibles de las tres células contiguas de la fila superior, y el número de modos de tomar estas ocho decisiones independientes entre dos colores es 2 8 = 256. Del mismo modo, si hubiera tres colores posibles, el número de decisiones en torno al color que habrían de ser especificadas por un autómata celular elemental serían 3 x 3 x 3 = 27, y el número de autómatas (calculados utilizando Mathematica) sería 3 27 = 7625597484987. autómatas celulares elementales de este tipo son muy aburridos. Pensemos, por ejemplo, en la regla 254, que prescribe que una célula se colorea de negro si la célula inmediatamente superior, o por encima y un espacio a la izquierda o a la derecha, es negra ya que, de no ser así, se deja en blanco. Sea cual sea el modelo de entrada de células negras en la fila superior, las células negras se extenderán en las filas inferiores, completando posteriormente un triángulo negro cada vez mayor, por lo que las células de cualquier columna dada serán todas negras una vez que lleguemos a una fila lo bastante baja.

Pero, un momento. El autómata estrella de Wolfram es el número 110 de su lista de 256. La regla 110 prescribe que una célula de una fila permanece en blanco si las tres células contiguas de la fila superior son todas negras, o todas blancas, o negra-blanca-blanca ya que, de lo contrario, se colorea de negro. La figura A muestra el resultado de aplicar esta regla veinte veces con una entrada muy sencilla, en la que una única célula se colorea de negro en la fila superior. No es mucho lo que sucede aquí. Wolfram programó un ordenador para que ejecutara este autómata y lo hizo durante millones de pasos. Después de unos cuantos cientos de pasos sucedió algo sorprendente: la regla empezó a producir una estructura asombrosamente rica, ni regular ni completamente aleatoria. El resultado después de 700 pasos se muestra en la figura B de la página siguiente. Un modelo de células negras se extiende hacia la izquierda, con una tira espumosa en el extremo izquierdo, y luego una alternancia periódica de zonas de mayor y menor densidad de células negras que se desplaza hacia la derecha, seguida de un revoltijo de células negras y blancas. Se trata de una demostración espectacular de la conclusión de Wolfram, según la cual incluso reglas y entradas muy sencillas pueden producir un comportamiento complejo.

Wolfram no es el primero que ha trabajado con autómatas celulares. Habían sido estudiados durante décadas por un grupo dirigido por Edward Fredkin en el MIT, que prosiguió la labor pionera de John von Neumann y Stanislas Ulam en la década de 1950. Wolfram tampoco es el primero que ha comprobado que la complejidad surge de reglas sencillas en autómatas o por medio de otros procedimientos. Un matemático de Princeton, John Horton Conway, inventó hacia 1970 El juego de la vida , un autómata celular bidimensional en el que las células se volvían negras en función de una regla que dependía de los colores de todas las células adyacentes, no sólo de las situadas en la fila superior. El juego produce diversas estructuras proliferantes que recuerdan a los microorganismos cuando se observan con un microscopio. Durante un tiempo, El juego de la vida resultó peligrosamente adictivo para los estudiantes de física. Una década después, otro matemático, Benoit Mandelbrot, el inventor de los fractales, ofreció una sencilla fórmula algebraica para construir el famoso «conjunto de Mandelbrot», una figura bidimensional conectada que muestra una increíble riqueza de complejos detalles cuando se examina a escalas cada vez más pequeñas.

Existen también famosos ejemplos de complejidad que surgen de reglas sencillas en el mundo real. Pensemos en una corriente uniforme de aire que sopla en un túnel aerodinámico y atraviesa un obstáculo de una forma sencilla, como una bola maciza lisa. Si la velocidad del aire es suficientemente lenta, entonces el aire sopla según un sencillo modelo homogéneo sobre la superficie de la bola. Los aerodinámicos le dan el nombre de flujo laminar. Si la velocidad del aire aumenta a partir de un cierto punto aparecen vórtices de aire detrás de la bola, formando posteriormente una serie regular de vórtices bautizada como «calle de Von Karman». A continuación, según va incrementándose la velocidad del aire, la regularidad del modelo de vórtices se pierde y el flujo empieza a ser turbulento. El flujo de aire pasa a ser verdaderamente complejo, aunque resulta de las sencillas ecuaciones diferenciales de la aerodinámica y de la sencilla configuración del viento al pasar por la bola.

Lo que ha hecho Wolfram que parece ser nuevo es estudiar un gran número de sencillos autómatas de todos los tipos, buscando específicamente aquellos que producen estructuras complejas. Hay autómatas celulares con más de dos colores, o con reglas para colorear como las de El juego de la vida que cambian los colores de las células en más de una fila cada vez, o con células en más de dos dimensiones. Además de los autómatas celulares existen también autómatas con elementos adicionales como memoria, incluida la máquina de Turing, sobre la que volveré más adelante. A partir de sus estudios de estos diversos autómatas, Wolfram ha descubierto que los modelos que producen pueden dividirse en cuatro clases. Algunos son muy sencillos, como el triángulo negro que se expande en el autómata celular elemental de la regla 254 que mencioné en primer lugar. Otros modelos son repetitivos, como los modelos anidados que se repiten interminablemente a escalas cada vez mayores. Otros parecen enteramente aleatorios. Los más interesantes son los autómatas del cuarto tipo, de los que la regla 110 constituye un paradigma. Estos autómatas producen modelos verdaderamente complejos, ni repetitivos ni enteramente aleatorios, con estructuras complicadas apareciendo aquí y allá de un modo imprevisible.

¿De qué sirve esto para la ciencia? La respuesta depende de por qué nos interesa la complejidad, y eso depende a su vez de por qué nos interesa la ciencia.

2

Los científicos estudian algunos fenómenos complejos porque los fenómenos son, en sí mismos, interesantes. Es posible que sean importantes para la tecnología, como el flujo turbulento del aire al pasar un avión, o directamente relevantes para nuestras vidas, como la memoria, o simplemente tan atractivos o extraños que no podemos evitar interesarnos por ellos, como los copos de nieve. Desgraciadamente, por lo que yo puedo decir, no hay ni un solo fenómeno complejo del mundo real que haya sido explicado convincentemente por los experimentos con ordenador realizados por Wolfram.

Pensemos en los copos de nieve. Wolfram ha encontrado autómatas celulares en los que cada paso se corresponde con la ganancia o pérdida de moléculas de agua en la circunferencia de un copo de nieve cada vez mayor. Tras añadir unos cientos de moléculas, algunos de estos autómatas producen modelos que se asemejan a auténticos copos de nieve. El problema es que los verdaderos copos de nieve no contienen unos pocos cientos de moléculas de agua, sino más de diez mil trillones de moléculas. Si sabe qué modelo produciría su autómata celular en caso de que funcionara el tiempo suficiente para añadir todas esas moléculas de agua, Wolfram no nos lo dice.

O pensemos en sistemas complejos en biología, como los sistemas nervioso o inmunitario del ser humano. Wolfram propone que la complejidad de estos sistemas no va forjándose gradualmente en una complicada historia evolutiva, sino que es más bien una consecuencia de algunas sencillas reglas desconocidas, más o menos del mismo modo que el complejo comportamiento del modelo producido por el autómata celular 110 es una consecuencia de sus sencillas reglas. Puede que sea así, pero no hay ninguna prueba de ello. En cualquier caso, incluso si la especulación de Wolfram fuera correcta, eso no significaría que la complejidad de los sistemas biológicos tiene poco que ver con la evolución darwiniana, tal y como sostiene Wolfram. Aún tendríamos que preguntar por qué los organismos obedecen a unas reglas sencillas y no a otras reglas, y la única respuesta posible sería que la selección natural favorece aquellas reglas que generan el tipo de sistemas complejos que mejoran la capacidad reproductora.

Wolfram aborda incluso el viejo conflicto entre la creencia en una visión determinista de la naturaleza y en la existencia del libre albedrío. Sugiere que el libre albedrío es una ilusión que nace de la aparente imprevisibilidad del comportamiento complejo producido por esas sencillas reglas de la biología que él supone que gobiernan el organismo humano. Esto es extraño, porque está claro que no atribuimos libre albedrío a otros fenómenos complejos imprevisibles como los terremotos o las tormentas. Esto no quiere decir que yo tenga alguna explicación que ofrecer sobre el libre albedrío, porque nunca he podido entender la contradicción que otros encuentran entre el libre albedrío y una visión completamente determinista de la naturaleza. Para mí, libre albedrío significa únicamente que a veces decidimos lo que hacemos, y sabemos que esto es cierto gracias al mismo tipo de experiencia mental que convenció a Descartes de que existía, pero no tenemos ninguna experiencia mental que nos diga que nuestras decisiones no son consecuencias inevitables de condiciones pasadas y de las leyes de la naturaleza.

3

Otros científicos, como yo mismo, estudian fenómenos que es posible que no sean muy interesantes intrínsecamente, y lo hacen porque creen que estudiar estos fenómenos les ayudará a entender las leyes de la naturaleza, las reglas que gobiernan todos los fenómenos. En este tipo de trabajo tendemos a estudiar los fenómenos más sencillos posibles, porque es en estos casos donde podemos calcular más fácilmente lo que predicen nuestras teorías y comparar los resultados con datos experimentales para decidir si nuestras teorías son correctas o incorrectas. Wolfram hace que parezca que los físicos optan por estudiar fenómenos sencillos y no complejos debido a hábitos muy asentados o a su endeblez matemática, pero en la búsqueda de las leyes de la naturaleza la esencia del arte de la ciencia es evitar la complejidad.

Mi propio trabajo se ha concentrado fundamentalmente en la teoría de las partículas elementales, aunque nunca he encontrado estas partículas muy interesantes en sí mismas. Un electrón carece de características especiales y es muy parecido a cualquier otro electrón. La mayoría de quienes estudiamos partículas elementales lo hacemos porque pensamos que en este momento de la historia de la ciencia constituye el mejor modo de descubrir las leyes que rigen todos los fenómenos naturales. Debido a esta especial motivación no nos preocupamos por regla general de si podemos calcular todo lo que les sucede a las partículas elementales en situaciones complicadas, sino sólo de si podemos calcular lo suficiente para comprobar la validez de nuestras teorías. En las colisiones de partículas elementales a una energía moderada, la energía de la colisión da lugar a complejas lluvias de partículas. Nadie puede predecir los detalles de estas lluvias, incluso cuando se conoce la teoría subyacente, y apenas a nadie le preocupa esto. A mayores energías las cosas son más sencillas: la energía se concentra en chorros bien definidos, cada uno de los cuales contiene partículas que viajan en la misma dirección, de tal modo que pueden calcularse teóricamente y compararse con experimentos para comprobar nuestras teorías de las partículas elementales. Son las leyes, no los fenómenos, lo que nos interesa.

Al contrario que las partículas elementales, los planetas han parecido históricamente interesantes por motivos religiosos y astrológicos. Pero fue la sencillez de los movimientos planetarios lo que permitió que Newton descubriera las leyes del movimiento y la gravedad. Los planetas se mueven en el espacio vacío y en una buena aproximación bajo la influencia de un único cuerpo inmóvil, el sol. Newton nunca habría descubierto sus leyes estudiando la turbulencia o los copos de nieve.

El propio Wolfram es un físico de partículas elementales que ya no cultiva la disciplina y supongo que no puede resistirse a intentar aplicar su experiencia con los programas de ordenadores digitales a las leyes de la naturaleza. Esto lo ha conducido a la visión (también contemplada en un artículo de 1981 de Richard Feynman) de que la naturaleza es discontinua y no continua. Sugiere que el espacio consiste en una red de puntos aislados, como las células en un autómata celular, y que incluso el tiempo avanza a pasos discontinuos. Retomando una idea de Edward Fredkin, concluye que el propio universo sería un autómata, como un ordenador gigante. Es posible, pero no veo ninguna motivación para estas especulaciones, de no ser que éste es el tipo de sistema al que Wolfram y otros se han acostumbrado en su trabajo con ordenadores. Así las cosas, un carpintero, contemplando la luna, podría suponer que está hecha de madera.

Hay otro motivo para estudiar los fenómenos complejos: no porque los fenómenos sean interesantes, que a veces lo son, o porque estudiar fenómenos complejos sea un buen modo de aprender las leyes de la naturaleza, lo que no es así, sino porque la complejidad en sí misma es interesante. Puede que haya una teoría de la complejidad esperando ser descubierta, que diga cosas sencillas sobre el comportamiento complejo en general, no sólo sobre el autómata celular de la regla 110 o sobre el flujo de aire turbulento o el sistema nervioso del ser humano.

Existen otros ejemplos de lo que me gusta llamar teorías que flotan libremente, teorías que son aplicables en una amplia –aunque no ilimitada– variedad de muy diferentes contextos. La teoría del caos, que ha prendido la imaginación pública, se ocupa de sistemas, desde el tiempo atmosférico a las piedras en los anillos de Saturno, cuyo comportamiento muestra una exquisita sensibilidad a las condiciones iniciales. La termodinámica, la ciencia del calor, es un ejemplo no tan de moda. Conceptos de la termodinámica como la temperatura y la entropía son aplicables tanto a los agujeros negros como a las calderas a vapor. Un ejemplo menos familiar es la teoría de la simetría rota. Un gran número de sustancias muy diferentes, incluidos los superconductores, el hierro imantado y el helio líquido, se rigen por ecuaciones que guardan una cierta simetría, en el sentido de que las ecuaciones parecen las mismas desde diferentes puntos de vista, a pesar de lo cual las sustancias muestran fenómenos que no respetan esta simetría.

Está librándose una guerra de cultura de baja intensidad entre los científicos que se especializan en teorías que flotan libremente de este tipo y los que (en su mayor parte físicos de partículas) persiguen el viejo sueño reduccionista de encontrar leyes de la naturaleza que no se expliquen de ningún otro modo, sino que se hallan en las raíces de todas las cadenas de explicación. El conflicto prende normalmente la atención pública cuando los físicos de partículas intentan obtener financiación para un nuevo acelerador de gran tamaño. Sus oponentes se exasperan cuando oyen hablar de físicos de partículas que buscan las leyes fundamentales de la naturaleza. Sostienen que las teorías del calor, el caos, la complejidad o la simetría rota son igualmente fundamentales, porque los principios generales de estas teorías no dependen de qué tipo de partículas conforman los sistemas a los que se aplican. A cambio, los físicos de partículas como yo señalan que, aunque estas teorías que flotan libremente son interesantes e importantes, no son realmente fundamentales, porque pueden o no ser de aplicación a un sistema dado; para justificar la aplicación de una de estas teorías en un contexto dado hay que poder deducir los axiomas de la teoría en ese contexto de las leyes realmente fundamentales de la naturaleza.

Este debate es inoportuno, porque ambos tipos de ciencia son valiosos y suelen tener mucho que enseñarse uno a otro. Mi propio trabajo dentro de la física de partículas elementales se ha beneficiado enormemente de la idea de la simetría rota, que nació gracias al estudio del estado sólido pero que resultó ser la clave tanto para entender las reacciones que incluían partículas denominadas pi mesones a baja energía como para la unificación de algunas de las fuerzas que actúan sobre las partículas elementales. La teoría de la complejidad podría comportar también lecciones para la teoría de las partículas elementales (o viceversa), pero no es probable que sea fundamental en el mismo sentido que la física de partículas elementales.

Últimamente los físicos de partículas están teniendo problemas para defender su posición en este debate. El avance hacia una teoría fundamental ha sido dolorosamente lento durante décadas, en gran medida porque el gran éxito del «Modelo Estándar» desarrollado en las décadas de 1960 y 1970 nos ha dejado con menos enigmas que puedan indicar nuestro próximo paso. A los científicos que estudian el caos y la complejidad también les gusta resaltar que su trabajo es aplicable a la rica diversidad de la vida cotidiana, en la que la física de partículas elementales carece de una relevancia directa.

Los científicos que estudian la complejidad se muestran especialmente exuberantes estos días. Algunos de ellos descubren sorprendentes similitudes en las propiedades de fenómenos complejos muy diferentes, incluidas las fluctuaciones bursátiles, los montones de arena que se desmoronan y los terremotos. Estos fenómenos suelen estudiarse por medio de su simulación con autómatas celulares, como El juego de la vida de Conway. Este trabajo se hace normalmente en los departamentos de física universitarios y en el Instituto Interdisciplinario de Santa Fe. Otros científicos que se autodenominan teóricos de la complejidad trabajan en departamentos universitarios de informática y matemáticas y estudian el modo en que, en un cálculo con ordenador del comportamiento de diversos sistemas, se incrementa el número de pasos con el tamaño de los sistemas, utilizando a menudo autómatas como la máquina de Turing como ejemplos específicos de ordenadores. Algunos de los sistemas que estudian, como la World Wide Web (WWW), son muy complejos. Pero todo este trabajo no ha cuajado en una teoría general de la complejidad. Nadie sabe cómo juzgar qué sistemas complejos comparten las propiedades de otros sistemas, o cómo caracterizar en general qué tipos de complejidad hacen que resulte extremadamente difícil calcular el comportamiento de algunos grandes sistemas y no otros. Los científicos que trabajan en estos dos tipos diferentes de problemas no parecen incluso comunicarse muy bien entre sí. A los físicos de partículas les gusta decir que la teoría de la complejidad es la novedad más apasionante que ha surgido en la ciencia en una generación, salvo que tiene la sola desventaja de no existir.

Creo que es aquí donde el libro de Wolfram puede realizar una útil contribución. Wolfram y sus colaboradores han podido mostrar que numerosos autómatas del «tipo cuatro» que producen un comportamiento complejo, como el autómata celular de la regla 110, son capaces de emularse entre sí. Esto es, estableciendo un modelo de entrada adecuado de células blancas y negras en el autómata celular de la regla 110, puede producirse el mismo modelo complejo que producirían otros autómatas del tipo cuatro, y viceversa (en esta emulación, bloques de células en un autómata representan una sola célula en el autómata que se emula). Lo que hace que esto resulte especialmente interesante es que uno de los autómatas que pueden emularse de este modo es la máquina universal de TuringWolfram afirma que los principales elementos de la prueba los encontró en 1994 uno de sus ayudantes, Matthew Cook, y ofrece una versión actualizada ilegible en su libro junto con un reconocimiento de que pueden restar unos pocos errores. Deduzco que la prueba no se ha publicado en una revista con evaluadores. Un artículo en Nature de Jim Giles titulado «What Kind of Science is This?» (16 de mayo de 2002) informa de que cuando Cook dejó su trabajo con Wolfram en 1998 dio una conferencia sobre lo que hacía en el Instituto de Santa Fe, pero la conferencia no apareció en las actas del congreso; Wolfram emprendió acciones legales contra Cook, arguyendo que Cook estaba infringiendo acuerdos que le impedían publicar hasta después de que se publicara el libro de Wolfram..

La máquina de Turing es el autómata más importante en la historia de la informática y el precursor de los actuales ordenadores digitales. Fue inventada en 1936 por Alan Turing, que en la segunda guerra mundial se convirtió en uno de los grandes descifradores de claves de Gran Bretaña y que más tarde fue el héroe de la obra de Hugh Whitemore Breaking the Code. El propósito de Turing era responder a una pregunta clásica de la lógica matemática conocida como el Problema de la Decisión: dado un sistema matemático deductivo como la aritmética, la geometría euclidiana o la lógica simbólica, ¿existe algún método lógico que, aplicado mecánicamente a cualquier afirmación de ese sistema, asegure decidir si esa afirmación puede demostrarse siguiendo las reglas de ese sistema?Turing se preocupó de señalar que este tema no había quedado zanjado con el famoso teorema de 1931 de Kurt Gödel, que señala que hay tres afirmaciones en el sistema general de las matemáticas presentado en los Principia Mathematica de Bertrand Russell y Alfred North Whitehead que no pueden ni demostrarse ni refutarse siguiendo las reglas de ese sistema..

Para responder a esa pregunta, la máquina de Turing se diseñó para captar la esencia de los métodos lógicos mecánicos. Igual que una persona que se enfrenta a una prueba matemática trabaja con una serie de símbolos, centrándose sólo en uno al mismo tiempo, la máquina de Turing trabaja con una secuencia unidimensional de células, cada una de las cuales contiene un símbolo tomado de una lista finita, con una sola célula «activa» que puede leerse y posiblemente cambiarse en cada paso. Asimismo, para corresponderse con el hecho de que una persona que resuelve una prueba recordaría los pasos anteriores, Turing introdujo en su máquina un registro de memoria, que puede consistir en cualquiera de un número finito de «condiciones».

Cada tipo de la máquina de Turing obedece a una regla fija que dice a cada paso cómo cambiar el símbolo en la célula activa, cómo cambiar la condición del registro de memoria y si mover la célula activa un paso a la izquierda o a la derecha, en función del símbolo en la célula activa y la condición del registro de memoria. Da igual qué símbolos elijamos utilizar o qué condiciones sean posibles para el registro de memoria; su importancia surge únicamente de las reglas de la máquina. El problema que ha de resolverse y los datos que han de utilizarse se introducen en la máquina como una serie inicial de símbolos y la respuesta aparece como la serie de símbolos que se encuentran cuando el registro de memoria alcanza una condición que le dice a la máquina que se pare.

Turing no construyó nunca realmente una máquina así (aunque sí seguiría construyendo ordenadores con alguna finalidad especial), pero si quieren pueden pensar en las células de la máquina de Turing formando una cinta de papel, en la que los símbolos son simplemente una secuencia de puntos de colores en la cinta, leídos y escritos por un artilugio que se desplaza hacia arriba o hacia abajo por la cinta de una célula activa a otra. En este ejemplo, la memoria de registro es un sencillo puntero mecánico que puede adoptar cualquiera de dos o más posiciones. La decisión de cómo cambiar el color de la célula activa y la posición del registro de memoria, y de cómo mover la cinta, se toma en función del color de la célula que se lee y de la posición del puntero, siguiendo reglas integradas en el interior de la máquina. Una máquina de Turing específica se caracteriza por el número de colores posibles en las células de la cinta, el número de posiciones posibles del puntero y por las reglas integradas en la máquina.

Lo importante de las máquinas de Turing es que algunas de ellas son universales. Turing fue capaz de demostrar que cualquiera de estas máquinas de Turing universales podía calcular o demostrar cualquier cosa que pudiera ser calculada o demostrada por cualquier otra máquina de Turing. Por ejemplo, al menos uno del enorme número (96 elevado a 48) de las máquinas de Turing posibles que utilizan dos colores y tienen un registro de memoria con veinticuatro posiciones es universal. Es más, dado el modo en que se designaron las máquinas de Turing para imitar el modo en que los seres humanos hacen cálculos mecánicamente, Turing defendió que las máquinas de Turing universales podían calcular o demostrar cualquier cosa que pudiera calcularse o demostrarse por medio de cualquier otro procedimiento puramente mecánico. Esto suele recibir el nombre de tesis de ChurchTuring porque aproximadamente al mismo tiempo Alonzo Church, un matemático de Princeton, llegó a conclusiones similares en torno a un método matemático más abstracto pero equivalente que él mismo concibió. Casualmente, Turing y Church descubrieron que la respuesta al Problema de la Decisión en la mayoría de los sistemas matemáticos o lógicos es «no»: no existe ningún procedimiento mecánico que asegure decidir si una afirmación dada puede demostrarse siguiendo las reglas de ese sistema.

Como las máquinas de Turing universales pueden ser emuladas por el autómata celular de la regla 110, se sigue que este autómata celular, y todo el resto de los autómatas que pueden emularlo, son también universales: pueden realizar cualquier cálculo que pueda hacer cualquier ordenador. El programa para el cálculo y los datos que han de utilizarse se introducirían en un autómata celular de la regla 110 como un modelo de células negras en la fila superior, y la respuesta aparecería como un modelo en una fila inferior. Wolfram dice que todos estos autómatas son computacionalmente equivalentes, pero eso es sólo cierto en un sentido limitado. Cuanto más sencillo sea el diseño de un ordenador universal, más pasos necesitará para emular cada uno de los pasos de un ordenador práctico. Este es el motivo por el que Dell y Compaq no venden máquinas de Turing o autómatas celulares de la regla 110.

Wolfram continúa planteando una conjetura de gran alcance: que casi todos los autómatas de cualquier tipo que producen estructuras complejas pueden ser emulados por cualquiera de ellos, de modo que todos son equivalentes en el sentido de Wolfram, y todos son universales. Esto no quiere decir que estos autómatas sean computacionalmente equivalentes (incluso en el sentido de Wolfram) a sistemas que incluyan cantidades que varían continuamente. Sólo si Wolfram tuviera razón al afirmar que ni el espacio ni el tiempo ni ninguna otra cosa es verdaderamente continua (lo que constituye un tema aparte) la máquina de Turing o el autómata celular de la regla 110 serían computacionalmente equivalentes a un ordenador analógico, un ordenador cuántico, un cerebro o el universo. Pero incluso sin esta suposición de gran alcance (y extravagante), la conjetura de Wolfram sobre la equivalencia computacional de los autómatas proporcionaría al menos un punto de partida para una teoría de cualquier tipo de complejidad que pudiera producir cualquier tipo de autómata.

El problema con la conjetura de Wolfram es no sólo que no ha sido demostrada; un problema aún mayor es que ni siquiera se ha formulado en una forma que pueda ser demostrada. ¿Qué quiere decir Wolfram con complejo? Si su conjetura no quiere convertirse en una tautología, hemos de contar entonces con alguna definición de comportamiento complejo independiente de la noción de universalidad. El modelo producido por el autómata celular de la regla 110 parece ciertamente complejo, pero ¿qué criterio podemos utilizar para la complejidad que nos dijera que es lo bastante complejo para que se aplique la conjetura de Wolfram?

Existe un famoso problema análogo en la definición de aleatoriedad. La definición precisa más habitual de la aleatoriedad de una serie de dígitos o de una secuencia de células blancas y negras en una cinta es que es aleatoria si no hay modo de describirla con una serie de menor longitud. El problema es que, según esta definición, la serie de dígitos en un número como la raíz cuadrada de dos no se calificaría de aleatoria, ya que puede describirse muy sencillamente –es la raíz cuadrada de dos–, a pesar de que seguramente parece aleatoria (Mathematica da los siguientes treinta primeros dígitos: 1,41421356237309504880168872420). Del mismo modo, no serviría definir el resultado (que se muestra en la figura B) de un autómata celular como el de la regla 110 con una sola célula negra en la fila superior como complejo sólo si no puede describirse en términos sencillos: es el resultado de la regla 110 con una única célula negra en la fila superior. Existen otras definiciones de aleatoriedad, como la ausencia de correlaciones: puede decirse que los dígitos en la raíz cuadrada de dos son aleatorios porque, hasta donde sabemos, tener un dígito en una posición decimal no identificada no nos dice absolutamente nada sobre cuál es el próximo dígito más probable. Wolfram no ha empezado siquiera a formular una definición similar de complejidad.

De hecho, como él mismo admite, la verdadera prueba de la complejidad de un modelo para Wolfram es que debería parecer complejo. Una buena parte de su estudio de la complejidad es anecdótico, ya que se basa en imágenes de los modelos producidos por autómatas específicos que él ha conocido. En esto Wolfram se alía con una facción en la antigua lucha entre lo que –en un exceso de simplificación– podríamos llamar culturas de la imagen y culturas de la palabra. En nuestro propio tiempo ha salido a la luz en la competencia entre la televisión y los periódicos, y entre los interfaces gráficos de usuario y los interfaces de línea de comando en los sistemas operativos informáticos.

Últimamente, la cultura de las imágenes es la que ha ganado la batalla. Durante un tiempo la cultura de la palabra había parecido alcanzar una victoria con la introducción del sonido en las películas. En El crepúsculo de los dioses , Norma Desmond recuerda que en las películas mudas «no necesitábamos diálogos. Teníamos rostros». Pero ahora las películas pueden contener largas secuencias sin palabras, únicamente con los golpetazos de los coches estrellándose entre sí y el chasquido de los sables. La supremacía de la cultura de la imagen ha sido secundada por los ordenadores y el estudio de la complejidad, que han hecho posible la simulación de complejas imágenes visuales.

Soy un pertinaz creyente en la importancia de la palabra, o su análogo matemático, la ecuación. Después de observar centenares de las imágenes de Wolfram, me sentía como el minero de una de las tiras cómicas de Beyond the Fringe, al que le resulta poco satisfactorio el tipo de conversación que se desarrolla abajo en la mina: «Es siempre sólo "Hola, aquí hay un trozo de carbón"».

La clasificación de Wolfram de los modelos producidos por los autómatas celulares data de comienzos de la década de 1980, y el descubrimiento de que el autómata celular elemental de la regla 110 es un ordenador universal se realizó a comienzos de los años noventa. Desde entonces, ninguno de sus trabajos ha tenido un gran impacto en la investigación de otros científicos, al margen de los que trabajan para Wolfram. La reacción más fuerte que he visto a su nuevo libro por parte de los científicos ha sido de indignación ante la exageración de la importancia que Wolfram otorga a sus propias contribuciones al estudio de la complejidad. Sin embargo, su investigación de los modelos complejos producidos por autómatas podría despertar la atención de otros científicos si da lugar a alguna formulación matemática clara y sencilla en relación con la complejidad. Dudo de que incluso a Wolfram le preocupe qué imagen produciría el autómata celular de la regla 110 después de mil millones de pasos. Pero si Wolfram puede ofrecer una formulación precisa de su conjetura sobre la equivalencia computacional de casi todos los autómatas que producen modelos complejos y demostrar que es cierta, entonces habrá encontrado un sencillo elemento habitual de la complejidad, lo que revestiría un verdadero interés. En el estudio de todo aquello que queda fuera de los asuntos humanos, incluido el estudio de la complejidad, es únicamente la sencillez lo que puede ser interesante.

 

Traducción de Luis Gago.

image_pdfCrear PDF de este artículo.

Ficha técnica

22 '
0

Compartir

También de interés.

Cooperación y homogeneidad