ARTÍCULO

¿La mente de la economía o la economía de la mente?

 

Hace cosa de un año, como medida antiinflacionista, se consideró la posibilidad de sustituir las monedas de un euro por billetes. Parece ser que nos resulta más difícil desprendernos de un billete que de una moneda del mismo valor. Juan está dispuesto a pagar diez euros al hijo de su vecino, como mucho, por cortar la hierba de su jardín, pero él mismo no realizaría esa misma tarea por once euros en el jardín de su vecino, idéntico al suyo. Los comerciantes saben bien que no es lo mismo anunciar un producto con la etiqueta de 95% libre de materia grasa que con la de 5% de grasa. Si estamos en la cola de un cine y alguien se ofrece a comprar nuestro puesto por el doble de lo que cuesta la entrada seguramente no lo aceptaríamos, aunque si, repentinamente, duplicaran el precio de las entradas nos iríamos a casa: la elección es la misma pero, en un caso, preferimos la entrada a los diez euros y, en el otro, lo contrario. La cantidad de dinero que estamos dispuestos a pagar por una medicación que nos evite el desarrollo de una enfermedad a la que hemos estados expuestos con cierta probabilidad (1/10.000) no es igual a la que demandamos por participar en una investigación de una vacuna en la que existe la misma probabilidad de que desarrollemos la enfermedad. La mayoría de nosotros preferimos quedarnos sin nada antes que aceptar un reparto de dinero en proporciones manifiestamente desiguales (pongamos noventa para ti, diez para mí) y, lo que es más, no realizamos propuestas de esa naturaleza (noventa para mí, diez para ti), aunque sepamos que la única alternativa para quienes habrían de aceptarlas es quedarse sin nada. Pues bien, si usted se comporta en cada uno de los casos anteriores como un ser humano normal, usted es un tipo raro para la teoría económica. Las investigaciones que están en la trastienda de los ejemplos anteriores invitan a revisar el enfoque clásico con el que se abordaban las explicaciones de muchos procesos sociales y económicos. Según esa mirada, los humanos, carentes de emociones, egoístas y máximamente racionales, para evitar enfrentarse unos con otros, acordarían establecer unas instituciones y unas normas, unas reglas de juego, que respetarían en la medida que les resultase ventajoso su mantenimiento. A través de procesos espontáneos (mano invisible del mercado) o reforzados con sanciones o acuerdos (Estado, código de circulación), se explicaría, en lo esencial, el funcionamiento de las sociedades humanas. Trabajos procedentes de distintas disciplinas aparecidos en los últimos años muestran que las cosas no son de ese modo. Casi todos ellos responden a una inspiración que puede calificarse como «naturalista», en un doble sentido de tan fatigada palabra: como búsqueda de control experimental de las conjeturas, de compatibilidad con los datos, y como búsqueda de fundamentos en las ciencias más básicas, como la biología, la etología o la neurociencia. Muy en general, las investigaciones vienen a confirmar que los supuestos antropológicos de las teorías sociales y, en especial, los de la teoría económica, no se corresponden con los resultados empíricos. Con más detalle y sequedad telegráfica, entre los resultados razonablemente consolidados se incluyen los siguientes: 1. Participamos de diversos sesgos, regulares, que nos alejan de los comportamientos racionales tal y como los entiende la teoría formal de la racionalidad. Muchos de esos sesgos, aunque nos alejan de las soluciones «óptimas», se corresponden con soluciones a problemas evolutivos: al hecho, por ejemplo, de que tenemos que tomar decisiones rápidas en contextos cambiantes, con información escasa y con una limitada capacidad de computación. Ahora bien, somos capaces de reconocer tales sesgos, esto es, de reconocer nuestros errores, y en esa labor reflexiva el lenguaje es una herramienta poderosa en tanto que nos permite construir teorías y escapar con ellas a nuestras constricciones preceptuales. 2. Los humanos, y los primates con intensa vida social, somos «psicólogos naturales», que realizamos inferencias sobre las actitudes, motivos de los demás y anticipamos su conducta, lo que es parte importante de los procesos comunicativos. La incapacidad para realizar tales inferencias estaría, según algunos investigadores, en el origen del autismo. 3. Una sociedad de hominesoeconomici, sin vínculos emocionales o normativos, sustentada sólo en el cálculo egoísta, resulta imposible: las interacciones sociales –incluidos los intercambios de mercado– requieren confianza, lealtad, sentido del compromiso. En ese sentido, las emociones –que tienen un sustrato biológico cuyo origen se explica, básicamente, por razones evolutivas– operan de modo coordinado (culpa con enfado, venganza con miedo) y, de ese modo, resuelven importantes problemas sociales al evitar que los conflictos resulten destructivos. 4. La presunción de que los humanos son puramente egoístas resulta sencillamente falsa. Principios como los de reciprocidad o equidad regulan muchas de las interacciones en distintas sociedades humanas (y no humanas). No es menos falsa la presunción de que somos puramente altruistas. Presentamos procesos emocionales diversos, repertorios de compromisos flexibles, variedad de vínculos entre normas y emociones. En cada uno de nosotros no sólo coexisten distintos repertorios emocionales y normativos, que se activan en distintos escenarios, sino que también en un mismo escenario pueden coexistir individuos motivacionalmente bien diferentes. Nuestra vinculación con las normas morales está mediada por vínculos emocionales: nos indigna la injusticia, nos humilla la arbitrariedad. Salvo casos patológicos. En realidad, los egoístas racionales, los homines oeconomici, son lo más parecido a los individuos con ceguera afectiva: incapaces de tomar decisiones, de valorar el significado emocional de los acontecimientos. 5. Las emociones, en fin, nos permiten distinguir entre normas morales («No matarás») y la norma que es simple convención (coger el tenedor con la mano izquierda): quienes sufren lesiones que afectan a su capacidad emocional son incapaces de diferenciarlasLas referencias detalladas a estos resultados en Félix Ovejero, «Miradas naturalistas sobre la moral. Límites y posibilidades», en Óscar Vilarroya (ed.), Biología de los conflictos y la cooperación (en prensa). . Estos resultados obligan a corregir buena parte de nuestras concepciones acerca del comportamiento humano, la sociedad y las instituciones.También las estrategias para explicar su funcionamiento y, particularmente, nuestra idea de las ciencias sociales como un terreno «especial», inabordable con las herramientas teóricas y metodológicas de las ciencias de la naturaleza. Por lo general, los científicos sociales, y en particular los economistas, han adoptado ahora una actitud más modesta respecto al potencial de sus herramientas y más cautelosa a la hora de avanzar conjeturas. Se han acabado aquellos tiempos en que la calidad de las teorías se fiaba exclusivamente en el ajuste de las predicciones con independencia del grado de realismo de sus supuestos de partidaEsta fue la tesis defendida en un debate clásico de la ciencia económica por Milton Friedman en su Essays in Positive Economics (1953). . Una estrategia, por cierto, que siempre resultó de mal llevar con el quehacer investigador de unos economistas que pretendían dar cuenta de los precios a partir de la mano invisible, de la interacción entre agentes (consumidores, productores), lo que les convertía en paladines del individualismo metodológico, de la explicación de los procesos sociales como resultado de la interacción entre unidades de decisión. Si cualquier supuesto podía aceptarse como bueno, no se ve por qué habría que ponerles pegas a las explicaciones holísticas que tomaban como punto de partida entidades como clases, naciones o el propio sistema capitalista y les atribuían intenciones, deseos, propósitos u otros estados mentales. Por lo demás, cuando las explicaciones se hacen a toro pasado, cuando se intenta dar cuenta de sucesos, procesos o estados ya acontecidos, carece de todo valor apelar al ajuste de las predicciones con las observaciones, inevitable por construcción, por punto de partida. Si por «arriba», en los supuestos, todo vale, en nombre de la «irrealidad», y por «abajo», por los datos, se arranca con lo conocido, las explicaciones se convierten entonces en enormes tautologías: un proceder que ha resultado cada vez más frecuente con la extensión de las estrategias metodológicas de la economía a otras disciplinas sociales donde hay poco lugar para las predicciones, y en las que, por lo general, las explicaciones son siempre retrospectivas. En todo caso, la tesis del «irrealismo de los supuestos» resulta difícilmente defendible a la luz de resultados como los inventariados. No parecen existir dificultades para calibrar la solvencia empírica de los supuestos. Se puede, se ha hecho y, la mayor parte de las veces, no se corresponden con las observaciones. Una cosa son los supuestos irreales y otra los llanamente falsos. Los supuestos de comportamiento de la economía no es que sean «abstractos», es que son incompatibles con las observaciones. Por supuesto, no faltan quienes intentan actuar como si no pasara nada. Siempre es posible. Cabría sostener, por ejemplo, que si gastamos más con las monedas que con los billetes es porque éstos «nos proporcionan mayor utilidad», porque, en algún sentido, los valoramos más, por su color, porque son más llevaderos o por lo que sea. Pero no es ese el tono generalAbundan los trabajos que buscan proporcionar fundamentos microeconómicos (racionales) al comportamiento irracional, o sesgado. No todos evitan las tautologías. Pero existen también otros, susceptibles de control empírico, que muestran que «elecciones sistemáticamente sesgadas no implican necesariamente que los agentes tengan creencias sistemáticamente sesgadas, irracionales» (Isabelle Brocas y Juan D. Carrillo, «Biases in Perceptions, Beliefs and Behaviour», USC CLEO Research Paper núm. C04-19, agosto de 2004) . La psicología económica –también llamada economía experimental– es hoy una disciplina floreciente. Una condición sancionada por el Premio Nobel de Economía concedido en 2002 a Daniel Kahneman y Vernon SmithNo sería exagerado decir que la misma inspiración realista acerca de cómo son realmente las cosas, de las capacidades reales de computación de los agentes, estaba ya en el Nobel concedido en el año anterior a George A.Akerlof,A. Michael Spence y Joseph Stiglitz. . Incluso los manuales, donde cristaliza la ciencia supuestamente consolidada, por lo común renuentes a las innovaciones, empiezan a acusar recibo de los nuevos resultados, si bien no siempre acaban de presentarse articuladamente con una teoría económica con la que guardan no pocos problemas de compatibilidad. Sea como sea, poco a poco, los economistas han ido inyectando realismo a sus modelos humanos, han buscado ajustar los supuestos de comportamiento de sus teorías a lo que sabemos acerca del funcionamiento de la mente humana (o, por lo menos, a tener mala conciencia de no hacerlo). La sensatez de esa maniobra parece fuera de toda duda. La biología no puede manejar una idea de célula incompatible con los resultados de la química y ésta, a su vez, ha de atender a lo que los físicos le dicen, no puede hacer filigranas con los átomos y las moléculas. Muchas de las investigaciones de la economía de los últimos veinte años han ido en esa dirección: elaborar teorías con supuestos más acordes con los resultados empíricos, teorías que, por lo común, apostaban por debilitar el grado de racionalidad de los agentesAunque no es esa la única respuesta. Para una exposición más detallada, véase Félix Ovejero, «Economía y psicología: entre el miedo y la teoría», Revista Internacional de Sociología, núm. 38 (mayo-agosto de 2004), pp. 9-34. . Muy en general, esas teorías arrancan suponiendo que los humanos actuaban según patrones de racionalidad limitada, que se conformaban con resultados «razonables», «suficientes», y no estaban en condiciones de –o no podían o no se empeñaban en– determinar estrategias óptimas, por lo demás difíciles de precisar en escenarios cambiantes. Con todo, tampoco cabe ignorar la cordura de quienes recuerdan que mientras los «suficientes» son muchos, el óptimo, por definición, es único, lo cual es una ventaja no desdeñable, si hemos de valorar los resultados de las teorías por su finura predictiva, que es lo mismo que decir por la cantidad de sus refutadores potenciales. Después de todo, por eso nos interesa más una predicción que diga que «el PIB crecerá el 3%» que otra que se limite a decir que «el PIB crecerá». La primera es más exacta y, por tanto, más fácil de refutar. LA NEUROECONOMÍA Cuando el lector se aproxima a la neuroeconomía que nos propone Glimcher espera encontrarse con una obra que, en la línea de otros trabajos, intenta dar un salto hacia «arriba» y relacionar los resultados de la psicología o la economía con los de las ciencias cognitivas o la neurobiología. De hecho, no faltan investigaciones, cobijadas bajo la etiqueta de «neuroeconomía», que buscan desentrañar los mecanismos cerebrales comprometidos en la toma de decisiones. Por cierto que, en su mayoría, muestran que los individuos andan bien lejos de ser maximizadores racionales de su utilidad. Muy cerquita de las neuronas, Bechara y Damasio, neurobiólogos que también acuden al amparo de la denominación de origen «neuroeconomía», han destacado que «aunque la perspectiva de la toma de decisiones basada en la maximización de utilidad resulta persuasiva, las decisiones humanas rara vez se conforman a ella». Antes al contrario, sus investigaciones sobre marcadores somáticos muestran que las decisiones «están ancladas en el lado emocional y muy alejadas del constructo del homo oeconomicus» (Antoine Bechara y Antonio R. Damasio, «The Somatic Marker Hypothesis:A Neural Theory of Economic Decision», en prensa). Del mejor modo posible, mostrando que son susceptibles de control, esas investigaciones están poniendo en duda el realismo de los supuestos de la teoría económica. Pero Glimcher no camina por la misma senda. Él no desconfía de la teoría económica: al contrario, cree que es una herramienta fundamental para entender el sistema nervioso. Aspira, por así decirlo, a dar cuenta de la propia neurobiología con las estrategias explicativas maximizadoras, sin que parezca importarle mucho el «realismo» de éstas. No se fundamentaría la economía en la neurobiología, sino la neurobiología en la economía. Contempla la posibilidad de que puedan producirse desajustes entre los supuestos de la economía y el comportamiento de los humanos, pero, a su parecer, eso es un asunto menor. En lo que atañe a los mecanismos cognitivos fundamentales, no tiene ninguna duda: «La teoría económica puede servir como un excelente modelo computacional de cómo el cerebro solventa algunos problemas de decisión». En su opinión, hay razones para pensar que aquellas áreas de la economía relacionadas con la toma de decisiones son de mucho provecho para describir los procesos de toma de decisión tanto en humanos como en animales. Dicho de otro modo: en lugar de afirmar la economía en la psicología, Glimcher busca asegurar los fundamentos de la neurología en la economía. Es cierto que Glimcher no es el primero que acude a la economía en busca de utillaje para entender el funcionamiento de la mente humana.A la economía o, más en general, a la hipótesis de racionalidad. La reconstrucción del psicoanálisis por parte de Donald DavidsonEn «Paradoxes of Rationality», incluido en Richard Wollheim (ed.), Philosophical Essayson Freud, Garden City, Doubleday, 1981. es acaso el clásico más reciente. Según él, id, ego y super-ego vendrían a ser como distintos individuos, cada uno de ellos con un conjunto de creencias y deseos independientes, cada uno de ellos coherente y, por tanto, racional, que, sin embargo, se manifiestan (agregadamente) en un único comportamiento «irracional». En ese «yo plural de sombra única» (Borges) se reúnen «a la vez» creencias y deseos que proceden de fuentes independientes, de «individuos distintos» y que fácilmente resultan incoherentes: la creencia C 1 –coherente con el objetivo D 1 – aparece con D 2, coherente con la creencia C 2. Por su parte, con más detalle psicológico, George Ainslie, en su Picoeconomics, acudirá a la teoría económica para abordar la racionalidad oculta en comportamientos supuestamente patológicos como las adicciones (tabaquismo, ludopatías, etc.), la preferencia por lo más inmediato en el tiempo o los comportamientos compulsivos.Todos esos trastornos del entendimiento, a su parecer, se entienden mejor cuando se abordan como interacciones estratégicas entre diversas motivaciones del individuo. Desde esa perspectiva, el fumador que se arruina poco a poco la vida en el fondo no haría otra cosa que jugar al dilema del prisionero consigo mismo: cada uno de mis yoes sucesivos prefiere fumar, aunque con su elección desemboque en un resultado no deseado por ninguno de nosotros, por mí. Pero Glimcher juega más fuerte. Él no está hablando de psicología, de personalidad, carácter o super yo, sino de neuronas, de sinapsis y de neocórtex. Su libro arranca como una revisión, prescindiblemente prolija, de la historia de la neurobiología. Historia que entiende como un progresivo proceso de consolidación y crítica de las tesis de Descartes. Según éste, la conducta se dividiría en dos categorías: la simple, aquella en la que, dado un suceso sensorial, se desataría de modo determinista una respuesta motora; y la compleja, en la que la relación entre estímulo y respuesta resulta impredecible, entre otras razones por la mediación de la voluntad. El dualismo cartesiano está presente en las investigaciones de Sherrington (1906), quien, en todo caso, excluirá los «procesos indeterminados» del ámbito de explicación de su teoría de los reflejos. Su estrategia heurística, en la reconstrucción de Glimcher, operaba en tres pasos: a) identificar una conducta elemental, como retirar un dedo del fuego; b) determinar a priori el mínimo conjunto de componentes neurológicos que explican esa conducta; c) buscar evidencias de que tales componentes existen. Una estrategia de fondo en la que ahondará Paulov (1927) al sostener que no existe comportamiento indeterminado, y que los comportamientos complejos no difieren en lo esencial de los simples; una radicalización que, consecuentemente, le conducirá a criticar el dualismo cartesiano, a puntos de vista reduccionistas. Las cosas empezarán a cambiar a finales de los años cincuenta, cuando las investigaciones de Hebb, basadas en el principio de que cada neurona puede computar localmente, mostraron que, cuando acumulamos y sedimentamos conocimientos y experiencia, los grupos de neuronas se modifican a sí mismos, cambiando la fuerza de las sinapsis que las interconectan. Con todo, los resultados –la promesa de resultados, por ser más precisos– más importantes vendrán de la mano del tempranamente fallecido David Marr, autor de La visión, un trabajo llamado a convertirse en la obra fundacional –con la inevitable exageración de estos juicios– de la moderna neurociencia computacional. Marr discutirá el axioma clásico según el cual el estudio fisiológico del comportamiento debe buscar «definir los mínimos circuitos neuronales complejos que pueden explicar los comportamientos complejos mínimos». A su parecer, nada cabía esperar de reduccionismo. Según Marr, «para entender la relación entre comportamiento y cerebro, debemos empezar por entender los fines del comportamiento». Frente a la estrategia consistente en estudiar cómo operaban los circuitos neuronales locales, Marr adoptará una aproximación funcionalista: definir fines modulares que el cerebro debe cumplir y después «intentar desarrollar descripciones matemáticas de tales fines. Lo importante es la función, el resultado que causan. Para entender el vuelo de las aves, lo que nos interesa conocer es aerodinámica, no la composición de las plumas». Lo que caracteriza a la mente no es de qué está hecha, sino cómo funciona, cómo está organizada. Del mismo modo que «un corazón es algo que bombea sangre, no importa si es artificial, humana o de un cerdo [...] lo que convierte algo en mente (o en creencia, o en dolor, o en temor) no es su composición, sino aquello que es capaz de hacer»Daniel Dennett, Kinds of Minds, Londres, Weidenfeld & Nicolson, 1996. . Marr estableció una distinción que estaba llamada a ser canónica: una cosa es la función que un mecanismo realiza; otra, el algoritmo, el procedimiento de reglas pautadas para computar esa función; y una tercera, la implementación, cómo la computación se lleva a cabo en cierto soporte (neuronas, circuitos, cables, alambres). Marr sienta los cimientos, pero se queda en las puertas de tres desarrollos que, según Glimcher, están en el origen del avance de la neurofisiología y del nacimiento de la neuroeconomía. El primero, razonablemente compartido –no sin discrepancias acerca de su naturaleza y alcance– por la comunidad científica, es la teoría modular. Según ésta, la mente humana no utiliza –como, por cierto, parece suponer la teoría económica y, en especial, el rational choice cuando extiende la hipótesis del homo oeconomicus a distintos procesos sociales o económicos– un conjunto general de reglas, una suerte de método general, de capacidades de razonamiento que aplica a cualquier actividad cognitiva, sino que es dominio-específica: dispone de una serie de módulos diferentes, de estructuras neuronales funcionalmente especializadas en procesar ciertos inputs específicos, de un modo autónomo, automático e independienteMás recientemente, Glimcher insiste en que los «estudios sugieren una única estructura unificada para entender la toma de decisiones», lo que plantea algunos problemas con la teoría modular (Paul Glimcher, Michael Dorris y Hannah Bayer,Games and EconomicBehavior, en prensa).. Por ejemplo, según parece, poseemos una estructura cognitiva para el reconocimiento de las caras que se activa únicamente en el dominio del procesamiento de información para el reconocimiento de las caras, permaneciendo desactivada en la gran mayoría de otros dominios. Conviene advertir, en todo caso, que para muchos –empezando por el padre de la teoría modular, Jerry Fodor– la estructura modular de la mente se limita a los «sistemas periféricos», esto es, a los «input systems» responsables de la percepción y del lenguaje, y a los «output systems» que producen las acciones. La segunda línea de desarrollo añade a la teoría modular la conjetura de que la selección natural está en la base de la conformación de múltiples módulos. La evolución estructura el sistema nervioso «para cumplir fines con la suficiente eficiencia», lo que permite «hacer de los fines computacionales un punto de partida del análisis neurobiológico»: dibuja problemas para los que los módulos son respuestas. En su versión más radical, muy popular y muy discutida, esta conjetura adopta la forma de la hipótesis de la modularidad masiva (The Massive Modular Hypothesis), según la cual la mente humana estaría formada por un gran número de módulos darwinianos: unos módulos innatos, resultado de la selección natural y que consisten en mecanismos de procesamiento de información específicos para el problema adaptativo concreto para el que han sido diseñadosFodor será también uno de los muchos críticos. . El tercer paso es el que nos llevará a la economía, el que propiamente añade Glimcher al «fundar» la neuroeconomía. Después de asumir que la evolución ha fijado el fin, la eficiencia reproductiva, y que la función del sistema nervioso es la selección y ejecución de los comportamientos que aseguran la maximización de esa eficiencia, Glimcher opta, como estrategia de investigación, por caracterizar al sistema nervioso como un agente racional que toma decisiones –retirar la mano al contacto con la llama, desplazarse en cierta dirección– que resultan ser soluciones óptimas al problema particular que el entorno impone al organismo. La teoría económica, y en particular aquellos de sus desarrollos asociados a lo que laxamente podría llamarse –Glimcher parece bastante confundido al ordenar el mapa de los instrumentos que defiende– teoría formal de la racionalidad (teoría bayesiana, teoría de la decisión, teoría de juegos, teoría de la utilidad), se convierten entonces en «las herramientas fundamentales para entender cómo el cerebro produce ciertos comportamientos [...]. Las teorías económicas pueden servir como excelentes modelos computacionales de cómo el cerebro realmente resuelve problemas de toma de decisión». Para avalar su programa, Glimcher acude a diversas investigaciones. Las primeras, las de los ecólogos que en los años sesenta, a propósito de asuntos como el forraje alimenticio o los modelos de emparejamiento, mostraron que cualquier sistema biológico puede, en algún sentido, caracterizarse como maximizador de la eficacia evolutiva. De su propia cosecha añade algunos experimentos con monos que, a la vista de sus respuestas ante ciertos estímulos, le llevan a concluir que su cerebro captura eficientemente la información. Un resultado que tampoco debe sorprendernos tanto. Después de todo, hemos visto mil veces cómo los predadores, cuando corren tras sus presas, ante el zigzagueo de éstas, se desplazan «óptimamente» hasta el punto de intersección. El paso siguiente, el verdaderamente fisiológico y que no alcanza a dar, consistiría en identificar las neuronas comprometidas en tales comportamientos. La falta de ese paso no es una broma cuando se aspira a hacer neurofisiología, cuando uno quiere situarse en la estela de Sherrington o Paulov. Porque lo cierto es que la neuroeconomía no deslumbra ni con sus avales empíricos ni por su arquitectura teórica. El propio Glimcher reconoce el carácter programático de su trabajo: «Este libro no desarrolla una teoría sino que nos dice cómo debería ser la teoría. Para ello debe utilizar una teoría de base económica para describir los comportamientos individuales. Después ha de usar herramientas fisiológicas para averiguar los módulos neuronales que realizan algunas o todas las computaciones requeridas por el comportamiento objeto de estudio. Finalmente, uno debe desarrollar una explicación desde las células de cómo se realizan esas computaciones». OTRA REVOLUCIÓN CIENTÍFICA Una vez más el nombre de la ciencia precede a la cienciaUna convicción que no se ve refutada con la lectura de otro libro de neuroeconomía (Pablo Peyrolón, Neuroeconomía. Breve introducción a una novísima ciencia, Barcelona, Granica, 2004), con el que tan poco tiene que ver el ensayo de Glimcher. . La justificación del programa noeuroeconómico no se ampara en sus resultados sino en consideraciones metacientíficas. Y entre ellas las que más abundan son las moralejas extraídas de la revolución científica, con la que Glimcher busca no pocos paralelismos. Sus tesis aparecen como la culminación de un proceso hasta la consolidación del nuevo «paradigma» –el uso del maltratado léxico de Thomas S. Kuhn es cosa del autor– en una descripción escolar de lo que es la actividad científica. Circunstancia que se hace patente de diversas formas. Algunas de poca enjundia, como es el caso de las pesarosas digresiones biográficas en que se nos presentan con información de enciclopedia generalista a Descartes, Bacon, Harvey, Bayes y Laplace, entre otros muchos. Otras de un poco más de relevancia, dado el propósito del libro –justificar el nacimiento de una teoría, aunque quizá sea más ajustado decir de una disciplina–, y así sucede con las ingenuas ideas acerca de lo que fue el nacimiento de la ciencia moderna, como las que insisten en la importancia de haber aplicado el «método científico», el de Bacon y Descartes, clásicos cuyas ideas «metodológicas» se parecen como la noche y el díaDe hecho, el propio Kuhn acuñó y contrapuso la distinción entre ciencias «clásicas» (física, matemáticas) y ciencias «baconianas» (geología, botánica) en razón de las distintas ideas de método asociadas a diferentes tipos de prácticas científicas: deductivas, predictivas, «geométricas», las primeras; descriptivas, inductivas, narrativas, las segundas. . Como insiste mucho y en muchas páginas en forzar los paralelismos con el nacimiento de la ciencia moderna, quizá no esté de más decir que el camino de Glimcher es exactamente inverso al que dio lugar al nacimiento a la ciencia moderna, que arrancó con una profunda despreocupación acerca de las cuestiones de fundamentos, de método, sin otras garantías que sus resultados (a diferencia, puestos a decirlo todo, de lo que había sucedido con la ciencia tardomedieval, en la que excelentes argumentaciones epistemológicas –que, entre otras cosas, recordaban que nuestro conocimiento del mundo físico es conocimiento inseguro, de relaciones causales, no de relaciones de necesidad– contribuyeron a abortar las prometedoras investigaciones físicas realizadas en universidades como las de París y Oxford). Una despreocupación por las cuestiones de «método», por cierto, que podría haber observado en el propio Descartes, a quien dedica tantas páginasComo nos recuerda Desmond Clarke, Descartes no hacía reposar su física en su metafísica, Descartes' Philosophy of Science, Manchester, Manchester University Press, 1982, p. 104. . Esa es la verdadera enseñanza de la historia que Glimcher transita con tantos descuidos. Primero llegó Newton, después Kant se interrogó sobre la posibilidad del conocimiento. Pero el primero no había esperado a que le «demostrasen la posibilidad del conocimiento» para escribir los Principia. La cosa empeora cuando, al describir la crisis del paradigma «clásico» (el de Descartes, el de Sherrington), acude al teorema de Gödel para sostener que «la aproximación empírica de Sherrington no puede ser completa» y negar la posibilidad de que «la teoría de los reflejos (que era efectivamente un cálculo lógico) pudiera describir completamente todos los posibles comportamientos deterministas». Una tesis sin duda arriesgada. El teorema de incompletud de Gödel –casi tan manoseado como los «paradigmas» de Kuhn– nos viene a decir que, dentro de ciertos sistemas lógicos, existen enunciados verdaderos que pertenecen a un sistema lógico que no pueden ser probados dentro de dichos sistemas. Con la cobardía del ejemplo, que diría Pessoa, el teorema demuestra que hay conjeturas razonables de la geometría euclidiana que, sin embargo, no pueden ser demostradas a partir de los axiomas de Euclides. Sus implicaciones son devastadoras para cualquier programa formalista, en particular para el intento de Hilbert de asegurar fundamentos firmes a la matemática: una axiomatización de las teorías matemáticas que permitiera demostrar su consistencia, decidibilidad y completud. Por cierto, según algunos, también resulta devastador para el programa computacional en teoría de la mente que Glimcher asume, para la idea de que la mente humana puede entenderse como un ordenador. Pero el teorema en nada afecta a la normal aspiración de una teoría de dar cuenta del ámbito de problemas que, razonablemente, conforman sus retos explicativos. En realidad, si tuviera razón Glimcher en su apelación al teorema de Gödel, no quedaría teoría, sólida o frágil, en pie: todas aspiran a ser «completas». Una cosa, pertinente, es decir que «estudios teóricos y empíricos han mostrado que hay determinados comportamientos que son pobremente descritos por la teoría de los reflejos» y otra creer que una demostración metamatemática acaba con una investigación empírica. Una cosa es un algoritmo y otra, una teoría. A lo sumo, el teorema puede servir para mostrar que ciertas pretensiones de Sherrington eran un despropósito, pero eso no es la teoría de Sherrington, sino las ideas de Sherrington sobre su teoría. Con todo, entre las diversas ideas acerca de en qué consiste la consolidación de una teoría científica, la más significativa es aquella que está en la raíz de la tesis central del libro: la economía es la ciencia donde la neurobiología debe encontrar cimientos firmes. Sucede que, entre el amplio repertorio de productos que ofrece la teoría económica, Glimcher escoge teorías como las mencionadas más arriba, teorías, en realidad, matemáticas: la teoría de la optimización, teorías de la decisión, teoría de juegos. Es cierto que también menciona la teoría de la utilidad, en muchos casos entramada –al menos en sus fundamentos– con las teorías anteriores, pero, en realidad, Glimcher hace poco más que mencionarla, algo que, por lo demás, no resulta extraño: el afán empírico de la neurobiología no se lleva bien con unas funciones, como las de utilidad, que nadie acaba por especificar. En breve: en su intento de proporcionar fundamentos firmes a la neurociencia, busca en la teoría económica para acabar recalando en la matemática. Lo interesante de la operación no es tanto la confusión –nada infrecuente entre los científicos sociales usuarios de la teoría de juegos– entre lo que es una teoría con vocación empírica y una formal, confusión en la que incurre de muy diversa manera, ni que asocie, sin más, la aplicación del «método científico» –y, consiguientemente, el nacimiento de una ciencia– a la introducción de las matemáticas, sino el camino que le conduce a recalar en esa «economía», que no es tal. Para entenderlo, lo mejor es reconstruir el núcleo duro de la argumentación del ensayo. El desplazamiento que lo lleva a la teoría de la optimización o a la teoría de juegos –cuando dice ir a la economía– es resultado de dos movimientos. El primero: la interpretación del sistema nervioso y, en particular, del cerebro como un agente que busca maximizar la eficacia biológica. La justificación de ese movimiento se apoya en un compromiso –inevitablemente arriesgado– con las tesis adaptacionistas más fuertes de la psicología evolucionista cuya estrategia heurística consiste en abordar las explicaciones como si la selección natural asegurara respuestas óptimas a las presiones selectivas. De ese modo, la racionalidad de los agentes de los economistas tiene su equivalente en la adaptación de los organismos y las teorías que describen a la primera sirven para la segunda. El riesgo de ese proceder es conocido y ha sido denunciado mil veces en biología: las patas –y el hábito de sostenerse sobre una de ellas– de los flamencos son una adaptación «óptima» a la termorregulación (se dispersan menos calorías) o, si no, al consumo de energías (al reposar la pata recogida) o, si no, a... Un riesgo que tiene su propia formulación en «economía», como destacó John Harsanyi, premio Nobel precisamente por sus investigaciones sobre teoría de juegos: «Si hacemos nuestros supuestos motivacionales suficientemente complicados, podemos "explicar" cualquier tipo de comportamiento, lo cual, por supuesto, significa que no estamos explicando nada». No cabe dudar de la fecundidad de las estrategias heurísticas consistentes en preguntarse por las razones que llevan a una acción, o por la presión selectiva que está detrás de cierta conformación anatómica; pero otra cosa es, a la hora de explicar, hacer de la capa un sayo para que todo cuadre como respuestas «óptimas». Siempre resulta interesante preguntarse por qué una posibilidad adaptativa teórica no ha cuajado: entre otras cosas, el reconocimiento de esa circunstancia nos permite, por ejemplo, indagar por la trayectoria histórica, por las formas preexistentes, que impiden la solución «óptima». Una indagación que queda inmediatamente cancelada si empezamos por suponer que lo que hay es siempre lo mejor y no sencillamente lo posible. Los adaptacionistas militantes descuidan que la existencia de una historia imaginable que relacione las ventajas para el éxito reproductivo de un rasgo con el incremento de éxito reproductivo no es, sin más, una explicación. Al cabo, una mejora en la musculación, conveniente para la velocidad en la huida de la presa, es también una demanda energética adicional, y una mejor dentición, que permita segar la hierba apenas brota, es también un pastizal que puede ser devastado sin tiempo para reproducirse. El segundo movimiento resulta todavía más discutible: confundir la teoría económica con las herramientas formales que utiliza en sus explicaciones. Las teorías que Glimcher califica como teorías económicas son, en rigor, teorías formales, matemáticas, que se utilizan en la teoría económica. En el mejor de los casos eso significa que lo que Glimcher ha encontrado en la teoría económica no es tanto –como él sostiene– una fundamentación para la neurobiología, sino algo mucho más modesto: un formato matemático, que comparte con la teoría económica, adecuado para las teorías neurobiológicas. En un sentido más elemental, es lo que sucede con la operación material de agregar pesos y la de combinar longitudes: las dos comparten unas relaciones básicas que permiten hacer uso de la operación suma de la aritmética ordinaria. Algo bastante sencillo que nada tiene que ver con reducir, con subsumir unas teorías en otras. Que lo único que nos recuerda es que introducir una estructura matemática exige, primero, dilucidar las relaciones básicas (la teoría) del sistema que quiere explicarse y, después, buscar en el arsenal de la matemática un sistema formal isomorfo con aquél, un sistema que pueda servir a cualquier teoría que incorpore relaciones básicas semejantes, pero no a otras. Por eso, la operación suma sirve para las longitudes y los pesos, pero no para las temperaturas (un líquido a 5 °C y otro a 30 °C, combinados, no nos dan otro a 35 °C). En el camino hacemos uso de una hipótesis empírica del tipo «este sistema real queda bien descrito por este sistema formal», hipótesis que puede ser verdadera o falsa. Pero no hay que confundir el orden de las cosas. Primero hay que conocer cómo son las cosas y después acudir a la estructura matemática más adecuada, respetuosa con las relaciones empíricas que se analizan. Por cierto, esa es una de las lecciones importantes de la «revolución científica». Newton tuvo que inventarse la matemática que necesitaba –el análisis, el «cálculo infinitesimal»– porque no encontraba una herramienta que describiese bien las propiedades y relaciones empíricas que le interesaba explorar, las relaciones que su teoría física establecía.Y eso, en buena medida, es lo que ha sucedido con la teoría de juegos, que permite abordar las interacciones estratégicas entre agentes intencionales. No hay que confundir el orden natural, ni, tampoco, el papel de cada cual. Porque Glimcher, en su sustitución de las teorías empíricas por las matemáticas de las cuales hacen uso las teorías, parece sugerir que es la matemática la que «explica».Tampoco está aquí solo. Diversos procesos pueden compartir unas mismas características: pueden presentar, por ejemplo, la común calidad de presentar efectos perversos, esto es, efectos que, al ser perseguidos, acaban por desembocar en el resultado contrario al pretendido: el que se esfuerza por olvidar una pena de amor, lo que, naturalmente, le lleva a tenerla permanentemente presente; el descenso del ahorro agregado que sigue, en ciertas condiciones, a la decisión individual de aumentar el ahorro (que se traduce en una disminución de la demanda y, con ésta, de la renta), etc. Ahora bien, para seguir con el ejemplo, los efectos perversos, como tales, no explican. Ni mucho menos la teoría matemática a la que podemos acudir para representarlos. Reconocer que distintos procesos (una huelga, un conflicto bélico, un desastre ambiental) tienen la misma anatomía en ciertos aspectos relevantes es distinto de sostener que esa anatomía común explica tales procesosPor ello precisamente podremos echar mano de las mismas estructuras matemáticas cuando los formalizamos y, muy probablemente, del dilema del prisionero. Sobre esas confusiones que llevan a sostener, por ejemplo, que la teoría de juegos es una teoría social, véase Félix Ovejero, «Teoría, juegos y método», Revista Internacional de Sociología, núm. 5 (1993), pp. 5-33.. Teorías económicas, físicas y biológicas hacen uso del análisis matemático. Pero eso no quiere decir que el análisis «explique» los procesos económicos, físicos o biológicos de los que se ocupan tales teorías. En algún sentido, los descuidos de Glimcher resultan explicables. En parte pueden achacarse a su apego computacional, para el que lo que importa es la sintaxis, las reglas, no los materiales. Un apego que no carece de justificación, aunque se entiende menos si de lo que se trata es de hacer fisiología, esto es, dar cuenta de mecanismos, de cómo son las cosas, en cuyo caso no se ve cómo podría prescindirse de las células. Pero, seguramente, la responsabilidad mayor hay que buscarla en la propia economía, donde no siempre el trato con las matemáticas se ha llevado del modo debido. De hecho, no han faltado ocasiones en que la existencia de poderosas herramientas formales llevaba a forzar las propiedades de los sistemas reales que pretendían explicarse. Las teorías se configuraban en aras de poder utilizar poderosos teoremas matemáticos con independencia del buen sentido de lo que estaba predicándose de los sistemas reales que querían explicarse.Algunos de los resultados inventariados al principio de estas líneas invitan a pensar, con alguna dosis de optimismo, que, al menos en algunas áreas, los economistas han empezado a caer en la cuenta, a recordar que las modelizaciones no pueden subordinar la relevancia empírica a la elegancia formal, que de poco sirven teorías «impecables» si no encuentran modelos –sistemas reales– de los que predicarse y que pueden ayudar a explicar. En cierto modo, Glimcher parece repetir una historia ya transitada mil veces en ciencias sociales: buscar en la reflexión de fundamentos los avales que no se encuentran en la calidad de sus productos. Esa disposición acostumbra a ser mala señal. Las ciencias que funcionan, como la física, no dedican mucho tiempo a justificar la posibilidad del conocimiento: la eficacia de las teorías es el mejor argumento. Por lo demás, a los estudiosos de la naturaleza no les faltan razones para olvidarse de las cuestiones trascendentales, para huir de las discusiones «filosóficas», a la vista de la ingrata experiencia histórica desde, por lo menos, 1277, cuando Juan XXI condenó 219 postulados ontológicos, condena que –a pesar de la calidad epistemológica de algunas de sus tesis– acabó por minar la naciente ciencia medieval. Ellos se limitaban a elaborar teorías, a explicar la realidad. Por su parte, Hobbes,Vico o Comte, cuando «fundaron» ciencias sociales, bautizaron criaturas inexistentes, hablaban de «ciencias nuevas» que no disponían de teoría alguna o de ciencias que empezarían cuando se aplicase el buen método. Desde entonces, casi siempre, en las entretelas mentales de los científicos sociales anidó una perpetua angustia metodológica, un infinito temor a que alguien recordase que lo suyo era poco serio, si no imposible. De ahí, tal vez, las tediosas discusiones sobre el método en las ciencias sociales, las ganas de buscar unas justificaciones de principio para lo que sólo la práctica puede justificar. El olvido, en fin, de la mejor enseñanza de Galileo y los que vinieron después: no hay que buscar en la «filosofía» la justificación del conocimiento científico, sino que, en todo caso, la reflexión filosófica lo es sobre una ciencia que tiene en su vigor explicativo su mejor aval.Vamos, que el movimiento se demuestra andando.

01/12/2005

 
ENVÍA UN COMENTARIO
Nombre *
Correo electrónico *
Su comentario *
 
 
 
 

Normas de uso
Los comentarios en esta página pueden estar moderados. En este caso no aparecerán inmediatamente en la página al ser enviados. Evita las descalificaciones personales, los insultos y los comentarios que no tengan que ver con el tema que se trata. Los comentarios que incumplan estas normas básicas serán eliminados.

 
Deseo mostrar mi email públicamente
 
He leído y acepto la cláusula de privacidad.
 
 
 
Por favor, para evitar el spam necesitamos que resuelvas la siguiente operación matemática:
3 - 2  =  
ENVIAR
 
 
OTROS ENSAYOS DE FÉLIX OVEJERO LUCAS
RESEÑAS

 

BÚSQUEDA AVANZADA

Te animamos a bucear en el archivo de Revista de Libros. Puedes realizar tus búsquedas utilizando los siguientes criterios.

Todas las palabras
Cualquiera
Coincidencia
ENVIAR


Apúntate al boletín de Revista de Libros
ENSAYOS ANTERIORES
RDL en papel 185
RESEÑAS
 
  Apúntate a RdL
BLOGS
 
  Archivo RdL
 
Patrocinadores RDL