Buscar

La revolución cognitiva

On Nature and Language

NOAM CHOMSKY

Editado por Adriana Belletti y Luigi Rizzi Cambridge University Press Cambridge

The Architecture of Language (The Delhi Lecture, 1996)

NOAM CHOMSKY

Editado por Nirmalangshu Mukherjee, Bibudhendra Narayan Patnaik y Rama Kant Agnihotri Oxford University Press,Oxford

Una aproximación naturalista a la mente y al lenguaje

NOAM CHOMSKY

Prensa Ibérica, Barcelona

Trad. de Antoni Gomila Benejam

320 págs.

16,18 €

image_pdfCrear PDF de este artículo.

Hace pocos meses, el filósofo John SearleJohn R. Searle, «End of the Revolution», The New York Review of Books, 28 de febrero de 2002, págs. 33-36. anunciaba el fin de lo que en 1970 él había llamado la revolución chomskiana. Afirma Searle que treinta años después del inicio de la revolución (para otros la revolución estalló en 1957, o incluso antes, en 1951), las metas que se habían fijado no se han cumplido; por el contrario, se han alterado, y, en última instancia, abandonado.

No resulta fácil disentir de esta opinión cuando se contempla la trayectoria de los treinta años que fija Searle para la evaluación del programa chomskiano. Las modificaciones de las teorías originales de 1957, 1965 y 1981 han sido tales que estas últimas fechas son hoy casi una referencia arqueológica. No es extraño que el escritor británico Peter Watson, en su relato de la ciencia del siglo XX , The Modern Mind. An Intellectual History of the 20th Century, aparecido en el año 2000, destaque a Chomsky sólo como el autor de un célebre ataque a la psicología conductista de Burrhus F. Skinner. Se trata de una reseña que Chomsky publicó en 1959, en la que trituraba el enfoque skinneriano del lenguaje, en el que éste es sólo considerado como conducta verbal sometida a la presión de estímulos ambientales y respuestas socialmente condicionadas. Tal como sostiene Watson, Chomsky provocó una revolución en la psicología al destacar las propiedades estructurales del lenguaje humano y el proceso de su adquisición mediante la propuesta de una gramática universal biológicamente determinada. Todo ello bien lejos de los muy simples mecanismos skinnerianos.

La revoluciónOtra figura de esta revolución, Jerome Bruner, un psicólogo de Harvard, ofrece en Acts of Meaning (Cambridge, Harvard University Press, 1990; versión española, Madrid, Alianza, 1991) el relato de su experiencia personal en ella. Para Bruner, «esa revolución se ha desviado hacia problemas que son marginales en relación con el impulso que originalmente la desencadenó» (pág. 19). Bruner destaca que la mente, objetivo prioritario de la revolución, al adoptar la computación Turing como modelo, «era o un epifenómeno que surgía del sistema computacional bajo determinadas condiciones, en cuyo caso no podía ser causa de nada, o no era más que una manera en que la gente hablaba sobre la conducta» (pág. 25). Y finalmente afirma que «[la ciencia cognitiva] ha dejado sin explicar precisamente los problemas fundamentales que inspiraron originalmente la revolución cognitiva» (pág. 27). En efecto, en las nuevas exploraciones de Chomsky, el sistema conceptual-intencional es exterior al lenguaje.expulsó de la psicología al conductismo, puso en su lugar el cognitivismo, y la lingüística pasó del ámbito de la filología (o de las humanidades, en otros casos) a los dominios de la psicología cognitiva y de las ciencias de la computación, que es donde se encuentra ahora en muchos lugares. Curiosamente, Watson no menciona en su voluminoso libro las peripecias de la revolución cognitiva, en particular las que se refieren a la teoría del lenguaje protagonizadas por Chomsky. Es ahí donde Searle, como diré luego, ha contribuido a debilitar los cimientos de la revolución, aunque no siempre haya seleccionado los más sólidos para su crítica. Pero transcurridos treinta o cuarenta años de revolución, si contamos desde la aparición de su «manifiesto» en 1957, ésta ha pasado no sólo por la toma del Palacio de Invierno, sino por su Termidor y ahora por una fase bonapartista estable.

La revolución chomskiana descansaba esencialmente (y aún lo hace) sobre la base de que la estructura gramatical de una lengua, es decir, el conjunto infinito de frases, es computable (en el sentido de computable por una máquina de Turing) por derivación, esto es, que cada frase es representable por una secuencia de estructuras jerárquicas. Además, la forma de la derivación está determinada por propiedades innatas de la mente humana, o lo que Chomsky llama «el órgano del lenguaje». La estructura gramatical comprende tres componentes derivatorios: 1) la combinación de palabras en frases (sintaxis, en sentido estricto); 2) la combinación de sonidos para formar palabras (fonología), y 3) la combinación de conceptos (o semántica) en la frase. Dado que 1-3 son componentes combinatorios, todos son sintaxis en sentido lato.

Los sistemas computacionales son internos o mentales y generan descripciones estructurales de frases o expresiones, E, de forma automática, independientemente de la intencionalidad que pretenda el locutor al usar E. El sistema computacional S COMP. caracteriza el saber lingüístico del hablante o competencia lingüística universal, que permite al locutor producir e interpretar un número infinito de expresiones, E, que es por lo que recibe el nombre de gramática generativaLa propiedad de «infinitud» no puede fundar enteramente el programa chomskiano, como insiste una y otra vez. De hecho, las investigaciones generativistas se han concentrado en la estructura de la frase y en la relación entre frases, establecida por transformaciones. A diferencia de la teoría de aspectos, de 1965, que exigía un algoritmo para enumerar el conjunto infinito K de las oraciones de una lengua y una gramática G que asignase a cualquier oración (o) una estructura (e), es decir, que K fuese un conjunto recursivo, hoy la teoría no sólo no exige el primer requisito, sino que sostiene que no hay algoritmo que genere las oraciones [frases] de una lengua; simplemente, porque para el minimalismo no existe el concepto «oración [frase] de una lengua L». Es más, las restricciones de complejidad computacional introducidas por el minimalismo posiblemente permitirán que las gramáticas que describan las estructuras de frase sean equivalentes a un autómata de estados finitos.. S COMP. es una necesidad conceptual para caracterizar el lenguaje humano, según Chomsky. Pero por una contingencia biológica, una expresión E «se asoma» al exterior: es pronunciada (y oída) y es interpretada semánticamente. Este asomarse de la computación sintáctica constituye las interfaces de E con el sistema de actuación articulatorio-perceptual S ART.-PERC. y con el sistema semántico-conceptual e intencional S SEM.-INT. Uno y otro imponen restricciones a E, lo que Chomsky llama condiciones de «legibilidad». Así es como queda perfilada la actual teoría del lenguaje de Noam Chomsky.

No conviene omitir que un aspecto esencial de esta teoría continúa la teoría del signo iniciada por Saussure, que concibe el signo como una asociación arbitraria y autónoma entre sonidos lingüísticos y el significado que éstos representan. El punto de partida de la nueva teoría es el signo lingüístico, al que además se caracteriza como una combinación de rasgos por medio de un sistema autónomo de reglas que relaciona indirectamente los rasgos del sonido con su interpretación semántica. Chomsky coincide con las tendencias de la mayor parte de la lingüística computacional, que también descompone el signo en conjuntos de rasgos sintácticos, morfológicos y semánticos.

Las reglas o principios computacionales ensamblan rasgos en piezas léxicas. A continuación actúa la computación propiamente sintáctica uniendo (o fusionando) palabras y formando árboles sintácticos como en (2). Así, la frase (1) Pedro come pan se computa, formando primero el árbol (2) a partir de la fusión de piezas léxicas come, pan:

(2)      /      
       come pan

a continuación (2) se funde con Pedro formando el árbol (3):

(3)       /       /  
     Pedro come pan 

(computación fonológica) (computación semántica)

Para la evaluación de la teoría, hay que tener en cuenta dos puntales que la soportan. El primero es que la fusión, así como otras operaciones que emplea la computación sintáctica para especificar las estructuras jerárquicas (los árboles sintácticos), son equivalentes a lo que en etapas anteriores de la teoría generativista eran las reglas de estructura de frase. La diferencia con las antiguas reglas de estructura de frase es que éstas construyen el árbol «de arriba abajo», mientras que la fusión construye el árbol «de abajo arriba»Este modo de computación es original de la teoría de las gramáticas categoriales del matemático Ajdukiewicz, de 1935, continuado por Richard Montague en 1969, y luego por las gramáticas de adjunción de árboles, desarrolladas por Aravind K. Joshi. Véase, de este último, «An Introduction to Tree Adjoining Grammars», en Alexis Manaster-Ramer, Mathematics of Language, Amsterdam, Benjamins, 1987, págs. 87-114.. Por razones que luego explicaremos, a las operaciones computacionales (o reglas) Chomsky las llama ahora principios.

La estructura jerárquica del lenguaje, que es el eje del programa computacional, representa el principio de integración que rige las unidades lingüísticas: los sonidos lingüísticos se integran en sílabas, las sílabas en palabras, y las palabras en frases. El neurólogo Karl Lashley destacó en un influyente artículo de 1951 que el córtex cerebral impone necesariamente la integración temporal de las unidades lingüísticas para que puedan realizarse en la actividad verbalKarl Lashley, «The Problem of Serial Order in Behaviour», en Lloyd A. Jeffress, Cerebral Mechanism s in Behaviour, Nueva York, Wiley, 1951, págs. 112-136. Esta integración sería similar a lo que la actual teoría chomskiana llama una condición de legibilidad de las expresiones.. La estructura jerárquica sería la consecuencia necesaria de la actualización de una representación lingüística mental que se materializa en el acto del habla. Pero insistía Lashley en que la integración en series de las secuencias de acción es también propia de sistemas nerviosos primitivos, como el de los insectos (que integran el movimiento de sus patas), o menos primitivos como el de las aves, cuyos cantos están también organizados.

Segundo, que las piezas léxicas, que sirven de input a la computación sintáctica, no son más que conjuntos de rasgos (fónicos, morfológicos, sintácticos y semánticos), y que, en consecuencia, son los rasgos los que llevan el peso de la computación. Una vez realizada una computación sintáctica estricta, que hace intervenir rasgos sintácticos, se produce la separación de rasgosEsta separación se hacía en la teoría anterior al programa minimalista en el nivel de representación de la estructura subyacente, que ahora no existe.: los del sonido van a la computación fonológica y los semánticos van a la computación semántica. La razón de la separación de rasgos se apoya en que unos y otros rasgos tienen un funcionamiento independiente.

Las reglas computacionales o principios invariantes constituyen la gramática universal. Se les atribuye la propiedad de invariancia y son entendidos como elementos de los sistemas de computación que determinan la asociación del sonido con su significado para un número infinito de expresiones, E. Así establecida la gramática universal, el lugar que queda para la variación de la estructura lingüística observable en las lenguas es poca.

La diversidad estructural de las lenguas se atribuye a ciertas propiedades fijas como el orden de palabras en la oración transitiva universal: agente, paciente y verbo de acción, que pueden variar mínimamente. Tales propiedades fijas son los parámetros . Así, el orden básico de palabras del vasco muestra la disposición agente –paciente– verbo, frente al español agente –verbo – paciente. La computación sintáctica está modulada por los parámetros. Principios y parámetros constituyen el núcleo duro del programa de investigación chomskiano. Y así es conocida también la empresa generativista actual.

Este diseño del lenguaje humano descansa enteramente en su intrínseca computacionalidad Turing del signo que, según Chomsky, hace de él un órgano biológicoEn consecuencia, un niño no aprende una lengua, pero tampoco la adquiere. El «órgano» del lenguaje produce o, mejor, selecciona una lengua a partir de los estímulos verbales que recibe el niño. El proceso sería muy parecido al de la producción de anticuerpos cuando un organismo recibe antígenos, tal como fue descrito por Niels K. Jerne en 1955.de la especie humana, como aparece expuesto en el libro On Nature and Language. Este órgano constituye, según Chomsky, un sistema perfecto para la computación de las expresiones. Además, añade su autor, la computación está sometida al principio intrínseco de economía que impone o trata de imponer la computación óptima de la frase (es decir, el mínimo de complejidad computacional) desde la selección de piezas léxicas (que Chomsky llama numeración léxica). De ahí que el programa de investigación reciba el nombre de programa minimalistaMinimalista no es un anglicismo tan vitando como parece. El diccionario académico contiene maximalista, maximalismo, y no hay razón aparente en contra de su paralelo minimalista. El diccionario recoge minimista como un arcaísmo., emulando así un programa alternativo, el de la teoría de la optimidad, que selecciona y computa como óptima la frase que menos restricciones sintácticas infringe.

Es en esta persecución de la computación óptima –claramente expuesta en The Architecture of Language – donde descansa la primera novedad del programa minimalista, en relación con la anterior teoría de la rección y ligamiento vigente hasta finales de los años ochenta. La computación óptima pretende especificar o computar las frases que menos carga computacional presenten a partir de las frases posibles que permite el conjunto de la numeración léxica. La complejidad computacional es, sin embargo, una medida que tiene en cuenta el conjunto de otras posibles frases computables a partir de la numeración léxica. Por eso, la teoría introduce la segunda novedad: el conjunto de referencia a partir del cual se mide la complejidad. Ésta es otra novedad radical respecto de la teoría anterior, la de la rección y ligamiento. Estamos, por tanto, ante una teoría aparentemente nueva dentro del marco de principios y parámetros.

Esta nueva teoría se sustenta en la conjetura de que el lenguaje está bien diseñado para la computación óptima de las expresiones y su «lectura» por los sistemas de actuación. Esta conjetura es, al menos a primera vista, algo excéntrica, teniendo en cuenta que Chomsky ha insistido siempre en que el lenguaje es un órgano mental/biológico. Supone enfocar el estudio del lenguaje desde el punto de vista del ingeniero, no del biólogo. Los ingenieros empiezan pensando en una función óptima y diseñan una estructura que satisfaga esa función. Los biólogos, por el contrario, empiezan por la estructura y se preguntan qué función la ha originado.

El planteamiento, en palabras de Chomsky, es: «cómo es de bueno el diseño [del lenguaje]. ¿Qué perfección ofrecen las leyes de la naturaleza para una solución óptima a un cierto problema de ingeniería, el impuesto por las condiciones de legibilidad a las expresiones [generadas por el sistema computacional]?» (The Architecture of Language, pág. 18). Chomsky coloca al lenguaje humano, como él mismo expresa, «bastante más allá de un entendimiento serio de los procesos evolutivos». Lo que sorprende no es tanto esta afirmación, que debería suscitar una respuesta de los biólogos, sino que ni siquiera discute los puntos de vista de quienes sí sitúan al lenguaje humano dentro de los procesos biológicos evolutivos habituales, los neodarwinistas, algo que, en buena lógica, parece que debería hacer.

Entre los que han hecho propuestas teóricasVéase Camilo J. Cela Conde y Francisco J. Ayala, Senderos de la evolución humana, Madrid, Alianza, 2001, capítulo 10.se cuentan tanto sus discípulos (Pinker y Jackendoff) y sus simpatizantes (Bickerton), como sus adversarios (Phil Lieberman) y los independientes (Mithen, Noble y Davidson, Dunbar). Mucho menos aún tiene en cuenta Chomsky las reconstrucciones paleoantropológicas de Tobias, que sostiene razonablemente la presencia de la capacidad para el lenguaje nada menos que en la especie Homo habilis. Todos ellos discuten el lenguaje ya dentro de la selección natural, ya desde mecanismos compatibles con ella, como el efecto Baldwin. Pero Chomsky bien rechaza sin argumento cualquiera de estas propuestas, bien las ignora.

Que el diseño del lenguaje humano sea la computación óptima de una expresión independiente de la intención del locutor y de su significado no es nada obvio. La computación Turing considera el lenguaje como informaciónCésar Gómez, en «La caverna de Platón», Revista de Libros, julio-agosto de 2000, págs. 26-27, explica cómo, para ciertos dominios, la física emplea el concepto de información como algo intrínseco a la naturaleza de los eventos físicos.o, lo que es lo mismo, entiende que el lenguaje (sintaxis, semántica y fonología) es de naturaleza discreta (o no continua). Sólo con este supuesto, en parte verdadero, puede el lenguaje caracterizarse como un código que emplea bits, o secuencias de 0 y de 1.

Este punto de vista introduce más problemas de los que pretende resolver (en el caso del lenguaje, el de la infinitud) en el dominio de las ciencias cognitivas. Entre los que no resuelve, está el propio concepto de mente, que al ser construida como un puro mecanismo de información autosuficiente la convierte en un autómata tontoLa actuación verbal es intencional, salvo en expresiones espontáneas o hechas, o en acciones verbales puramente fácticas. Víctor Sánchez de Zavala hace algunas precisiones en este sentido; véase Hacia la pragmática, Madrid, Visor, 1997.. Este paso introduce, además, una ruptura evidente con la teoría anterior que, siendo informacional, destacaba más el carácter representacionalDonde había una representación simbólica esencial, la estructura subyacente (o estructura «profunda»). Contribuye poco a la claridad que Chomsky emplee el término «representación» de manera ambigua, con preferencia a evitar su denotación filosófica.de algunos de sus componentes. Al separar la computación lingüística de la intencionalidad propia de esas representacionesLas representaciones son representaciones de algo., la computación deja de ser una representación mental, dado que lo propio de las representaciones mentales es lo intencionalVéase, entre otros, Joseph Levine, Purple Haze. The Puzzle of Consciousness, Oxford, Oxford University Press, 2000. Al separar Chomsky el sistema computacional del lenguaje del sistema intencional, los principios del lenguaje que fundan la competencia carecen de poder causal para explicar la actuación verbal. En la teoría de 1965, la competencia es uno de los elementos que causalmente explica el uso real del lenguaje, de la misma manera –sostenía en 1965– que una teoría de la percepción visual intenta describir lo que una persona ve realmente y los mecanismos que lo determinan. En el programa minimalista, la computación está escindida de la acción verbal, aunque se reconoce que el problema de la acción es real. Sin duda que lo es, hasta el punto de que las investigaciones computacionales de la visión cada vez se fijan más en sus aspectos funcionales, en tareas concretas de la percepción visual, que tienen en cuenta tanto al percipiente como a su entorno, y menos en aspectos del mecanismo; véase Yiannis Aloimonos y Azriel Rosenfeld, «Computer Vision», Science, n. o 253 (1991), págs. 1249-1254.. La teoría vigente hasta los años ochenta afirmaba que «saber una lengua es estar en un cierto estado mental, que persiste como un componente relativamente constante de estados mentales transitorios […]. Continuaré suponiendo que es correcto analizar el saber lingüístico [knowledge of language] en términos de estructuras mentales de reglas y representaciones»Noam Chomsky, Rules and Representations, Oxford, Blackwell, 1979, págs. 48-49..

En el programa minimalista, las representaciones de etapas teóricas anteriores han desaparecido, como las de estructura latente (o «profunda») y estructura patente (o «superficial»). Las únicas representaciones que quedan son las que exige la constitución del signo lingüístico: la del sonido y la del significado. Pero en realidad, más que representaciones, son niveles de interfaz con los sistemas «externos» al sistema cognitivo, el final de la computación sintáctica que opera sin niveles de estructura «profunda» y de estructura «superficial».

Pero, sorprendentemente, el enfoque ingenieril del lenguaje choca directamente con el carácter biológico entendido en términos neodarwinistas. Esto es algo que a Chomsky le gusta porque piensa que pone en notables dificultades a la teoría de la evolución por selección naturalEsto es llamativo en algún sentido. De hecho, la teoría de la selección clonal iniciada por Niels K. Jerne en 1955 (expuesta persuasivamente en «Antibodies and Learning: Selection versus Instruction», en Gardner Quarton et al. (eds.), The Neurosciences, vol. 1, Nueva York, Rockefeller University Press, 1967, págs. 200-205), que propone un mecanismo selectivo, es extensible de forma natural al caso de la adquisición de un lenguaje.y porque hace todavía más exótico al lenguaje humano y, en suma, a la mente humana, que es su verdadero interés de conocimientoVéanse, sin embargo, la nota 2, y el libro de Bruner citado..

¿En qué medida la naturaleza del lenguaje es derivacional, o Turingcomputacional? La habitual caracterización computacional de Chomsky empleaba reglas. Ya desde los inicios del programa generativista, y hasta mediados de los años ochenta, la gramática de una lengua aparece descrita como un sistema de reglas que computan, es decir, forman por derivación frases a partir de palabras. Como la idea de regla gramatical es consustancial a la gramática tradicional europea, en especial desde el Renacimiento, el programa generativista se presentaba como un desarrollo formalizado de la vieja gramática. El punto de partida originario de Chomsky en 1965, y continuado durante muchos años, es que una gramática (generativa) es un sistema de reglas que especifican (o computan) las secuencias bien formadas de unidades gramaticales a la vez que asignan una estructura a tales secuencias. Este sistema de reglas (sintácticas, semánticas y fonológicas) constituía la competencia o saber lingüístico del hablante, que entraba como un elemento esencial en la explicación del uso del lenguaje, es decir, en la actividad de hablar. Al sostener esto, sin hacer más distinciones sobre las reglas, la teoría chomskiana se situaba de forma natural en el ojo de los filósofos, que han elaborado el concepto de regla del lenguaje y de regla de gramática.

En efecto, Wittgenstein, en las Investigaciones Filosóficas, aparecidas en 1953, párrafos 198-208 y 496500, entre otros, caracterizaba el lenguaje como la actividad de seguir reglas. Más tarde, avanzando por esta senda, los filósofos Searle y Kripke son quienes han sometido a una crítica demoledora la concepción chomskiana de las reglas. Las reglas de la gramática, insisten los filósofos desde Wittgenstein, guían la actividad verbal del hablante, que es una actividad intencional: alguien habla de algo. Las reglas intervienen como un factor causal en la actuación verbal de los hablantes, que son agentes voluntarios en los actos de habla concretos. Por eso mismo, deben ser accesibles a la consciencia o saber del hablante. Las reglas, en suma, forman parte de una actividad social y de una actividad psicológica intencional. Ni una ni otra son actividades mecánicas. Como actividad psicológica, las reglas (y el lenguaje en general) tienen que ver más con los objetos estéticos y con la naturaleza orgánica, tal como Kant (Crítica del juicio ) la entendía, es decir, en términos de su función y de su finalidad básicas: el corazón de un mamífero, bombear la sangre al organismo; y el lenguaje, representar las cosas y comunicar la intención del hablante.

En consecuencia, si las reglas de una gramática generativa no cumplen estas exigencias, y son reglas de un autómata tonto, no puede afirmarse que la gramática sea un sistema de reglas. Las reglas computacionales de una gramática generativa no satisfacen las demandas de las reglas entendidas como Wittgenstein-Searle-Kripke. De ahí que Searle haya sentenciado el fin del objetivo perseguido desde sus orígenes por la revolución chomskiana.

No es posible afirmar que esta crítica haya tenido un efecto directo o reconocido en el programa generativista, pero lo cierto es que las reglas de una gramática generativa han dejado de ser reglas y son ahora llamadas por Chomsky principios invariantes de la gramática universal. Y aunque la crítica de Searle y Kripke puede no acertar enteramente, el blanco a que apunta no anda lejos. Pues las reglas intentaban, en el antiguo programa, caracterizar aspectos esenciales de la capacidad lingüística de los hablantes, actuando como criterios de buena o mala formación. Así, un soporte básico del programa chomskiano, como he indicado antes, era la distinción entre frases (secuencias de palabras) sintácticamente mal formadas como (1) Sinceridad la asustar puede chico al, y bien formadas como (2) La sinceridad puede asustar al chico. Las reglas de una gramática generativa recogían precisamente estas distinciones entre frases generables por la gramática interna o mental de un locutor (frases gramaticales) y frases no gramaticales, que infringen las reglas que generan frases gramaticalesNoam Chomsky, Aspects of the Theoryof Syntax, 1965, pág. 32: «Asumamos provisionalmente que los datos lingüísticos primarios consisten en señales clasificadas como oraciones y no oraciones». Esta distinción es la que permite la modelación matemática de la gramática. En la teoría de los lenguajes formales, las reglas generan secuencias (o catenas) de símbolos que pertenecen a un conjunto, pero no genera las que no pertenecen a ese conjunto. La eliminación de la distinción gramatical/no gramatical no permite la modelación matemática en la forma en que se venía haciendo.. Así, la frase (1) infringe dos reglas, que sí satisface (2): la que especifica el orden de la colocación del artículo y la que especifica el orden de los verbos. Hoy Noam Chomsky, The Minimalist Program, Cambridge, MIT Press, 1995, pág. 213., sin embargo, Chomsky afirma que el concepto de frase bien formada y gramatical carece de caracterización precisa, dentro de la teoría computacional de la gramática, naturalmente. Esta afirmación constituye otra novedad, y bien radical; la tercera, en mi opinión, en el programa minimalista, porque, además, sanciona: a) la posibilidad de que sintaxis y semántica no tengan una delimitación tan clara en el momento de aplicar las restricciones que deben satisfacer las frases, y b) que por eso mismo no exista una tajante distinción entre competencia (o saber lingüístico del hablante) y actuación, como se ha venido haciendo hasta ahora.

De este modo, las restricciones, aparentemente sintácticas, que incumple (1) se seguirían del principio de que las frases nominales denotan un sentido o concepto, mientras que «sinceridad la» y «chico al» no denotan concepto alguno en español. Todo lo que hacen las frases es satisfacer o infringir restricciones. Así, en español las frases: a) Se detuvieron a los ladrones, y b) Se detuvo a los ladrones son usuales. La primera, sin embargo, infringe la restricción de que sólo el sujeto concuerda con el verbo en número, mientras que la segunda respeta esta restricción. La primera no es tenida como normativa, pero la segunda sí. Esto vendría a dar de nuevo la razón a los filósofos, para quienes una regla establece también un criterio normativo, además de constitutivo, establecido por convención. Así pues, la gramática generativa carecería de reglas en el sentido de Wittgenstein-Searle-Kripke. Por eso, al llamar Chomsky principios a las reglas lo que quiere es zafarse de las críticas de los filósofos. Aun aceptando el viraje, el giro en la dirección de eliminar las reglas y de reconocer la inexistencia tanto de reglas gramaticales para construcciones concretas como de una caracterización de frase gramatical, es sustancial. Tanto que, hasta el programa minimalista, la gramática generativa se sustentaba en la tesis de Chomsky de que «si no se suponen distinciones de gramaticalidad, a una gramática no le queda nada por describir, excepto las "regularidades de un corpus"»Noam Chomsky, Topics in the Theory ofGenerative Grammar, La Haya, Mouton, 1966, pág. 32, nota 8.. La razón de esta condición se halla en que permitía el empleo de modelos matemáticos en la descripción de la estructura gramatical en el sentido de establecer la pertenencia (o no pertenencia) de una frase a un cierto conjunto generable.

Sorprendentemente, el viraje lleva a la teoría chomskiana en la dirección que desde hace años, antes del programa minimalista, persiguen otro conjunto de teorías computacionales. Todas ellas eliminan las reglas gramaticales concretas por un conjunto de restricciones generales que satisfacen o no las frasesTeorías restrictivas son la gramática léxico-funcional de Bresnan (1982), la gramática de estructura frase generalizada de Gazdar (1985) y la gramática de estructura de frase nucleoimpulsada de Pollard y Sag (1987). Estas teorías, sin embargo, no emplean medidas de economía global.. La apuesta que a continuación de este giro hace Chomsky consiste en proponer que las reglas o principios invariantes operen de acuerdo con una economía intrínseca. Como son principios computacionales, la economía con que actúan es economía computacionalLo que es sorprendente es que cuando, en 1969, George Lakoff introdujo una medida de este tipo, como el concepto de regla global, que comparaba derivaciones restringiéndolas de tal manera que la derivación sólo podía continuar si tenía en cuenta una fase no inmediatamente anterior de la misma, Chomsky («Some empirical issues in the theory of transformational grammar», en su libro Studies on Semantics, La Haya, Mouton, 1972, págs. 120-199) rechazó la propuesta de Lakoff argumentando que la globalidad incrementa el poder descriptivo de la teoría lingüística hasta hacerla inviable como teoría del lenguaje..

Como he dicho, junto a la medida de economía global, la teoría minimalista emplea restricciones derivatorias en la generación de las frases. En consecuencia, una gramática generativa no es, en lo esencial, más que un conjunto de restricciones derivatorias que permiten generar todo tipo de frasesEl efecto de las teorías lingüísticas restrictivas es que son infalsables, porque no excluyen nada. Si esto es así, el contenido informativo de estas teorías es irrelevante o nulo. No carecía de razón el antiguo generativismo cuando demandaba que una frase era gramatical si y sólo era generada por alguna(s) regla(s) de la gramática, lo que permitía que las reglas funcionasen como hipótesis empíricas que excluían (o predecían) ciertas secuencias de la gramática. Para que aquéllas fuesen falsables se necesitaría una teoría de qué restricciones son posibles y cuáles son imposibles en el lenguaje.: óptimas, aceptables, poco aceptables, no aceptables, etc. Algunas de estas restricciones, en especial las que se refieren a la complejidad computacional del tipo que afecta a las construcciones autoincrustadasUn ejemplo de estas construcciones es: «La señora que el chico que el hombre insultó vio vive en Madrid»., corresponden a los sistemas de actuación, lo que socavaría la distinción entre competencia y actuación, uno de los puntales que sostienen el modelo chomskiano de gramática.

Cuando, hace treinta años, Chomsky mantuvo una acre discusión con los semanticogenerativistas, que pretendían modificar la teoría lingüística en este sentido, aquél afirmóNoam Chomsky, «Some empirical issues…», pág. 127. Desde luego, algunas propuestas de la semántica generativa reaparecen en el programa minimalista. En 1969, Lakoff («On Derivational Constraints», Chicago Linguistic Society, pág. 117, afirmaba: «Parto de que la gramática de una lengua es un sistema de reglas que relaciona los sonidos de una lengua con sus correspondientes significados». Y Chomsky (The Minimalist Program, pág. 220) afirma: «Una lengua concreta L es un procedimiento generativo [derivatorio] que construye pares ( ) […] es una representación fonética y es una representación de la forma lógica». Para no ser injusto, Lakoff repetía lo que Chomsky sostuvo en sus conferencias de Indiana de 1964, aparecidas en 1966 (Topics in the Theory …, pág. 12), que corregían al Chomsky de 1957. Es destacable que algunas afirmaciones de esas conferencias no aparezcan en Aspectos de la teoría de la sintaxis, de 1965, que era el canon teórico de referencia de Lakoff. En 1969 el modelo imperante era el de Chomsky de 1965, que sostenía que una gramática generativa es «un sistema de reglas que asigna descripciones estructurales a las frases». Y aún más: el que fue concepto nuclear de la gramática generativa, el de estructura subyacente [deep structure] fue eliminado, como ya lo hizo la semántica generativa… ¡en 1969!: «Quien mantiene sólo que una gramática es un conjunto de condiciones sobre las derivaciones, carece del peso de la prueba porque no está diciendo virtualmente nada». La razón de por qué, después de treinta años, la economía de conjunto (o «economía global») desempeña un papel determinante en la teoría se encuentra en la decisión epistemológica que toma Chomsky y que establece que el lenguaje es un mecanismo óptimo para generar expresiones (y ser «leídas» por los sistemas de actuación) regido por «el menor esfuerzo» computacional. Reaparece aquí la célebre medida (interna a la teoría) de evaluación para gramáticas (o teorías) compatibles con unos mismo datos propuesta en 1965La medida que desde 1965 se exploró fue la «longitud», en términos del (menor) número de símbolos necesarios para expresar generalizaciones lingüísticas. La longitud obligaba a emplear formalismos que restringieran la forma de las reglas que expresaran aquellas generalizaciones. El número de símbolos empleados en una regla enunciada con cierto formalismo en relación con el número de símbolos empleado en una lista era la medida de evaluación interna. Esta medida no fue capaz de restringir las gramáticas en el sentido de que el poder descriptivo de las reglas así formuladas se demostró enorme, incapaz de llegar a una teoría restringida o explicativamente satisfactoria.. Tal medida era concebida como la determinación de una constante físicaQue en efecto intervienen en medir la economía/simplicidad de una teoría física. Agradezco a César Gómez, del Instituto de Física de la Universidad Autónoma de Madrid, esta información.. Pero nótese que, a diferencia de lo que ocurre con las constantes físicas, la medida de evaluación de la teoría, la «constante lingüística universal», viene aquí determinada por la propia teoría, algo excepcional. En física, las constantes aparecen como datos empíricos, algo que el físico mide e introduce como input en la teoría, de tal manera que la simplicidad de una teoría física (y su carácter más o menos fundamental) depende del número de constantes físicas que aparecen en su formulaciónDebo estas precisiones a César Gómez. Esto es válido siempre que la fundamentalidad se defina como la ausencia de constantes numéricas o materiales, como indica Mario Bunge en The Myth of Simplicity, Englewood Cliffs, Prentice Hall, 1963, pág. 62.. Las constantes permitirían seleccionar así la mejor teoría. Resulta, entonces, que la teoría lingüística minimalista no sigue la norma de las ciencias duras, que buscan medidas empíricas para sus teorías. Es como si la lingüística estuviese en una Arcadia epistemológica, puesto que los datos empíricos son lo suficientemente ricos como para determinar que la constante empírica buscada sea la economía computacional, lo que en una teoría basada en restricciones derivatorias no podía ser de otra manera. Pero si esto es así, y es lo que en fin de cuentas persigue la empresa generativista, la lingüística ocuparía un lugar único en las ciencias de la naturaleza, que es donde pretende ubicar Chomsky a la lingüística en todos estos librosSi los datos lingüísticos son ricos, no parece haber lugar para el argumento habitual en Chomsky que sostiene precisamente lo contrario, la «insuficiencia del estímulo» que recibe el niño que adquiere una gramática..

Para obtener pruebas que confirmen la decisión de Chomsky sería necesaria una comparación entre teorías lingüísticas que, valiéndose de una medida de evaluación, una constante lingüística, permita hacer predicciones que puedan ser contrastadas por los datos. La única prueba que se ofrece para la economía computacional es que su aplicación en algunos casos produce oraciones aceptables para un hablante de un cierto lenguaje. Pero esto, aplicando el propio criterio de Chomsky, sólo hace que una gramática sea descriptivamente satisfactoria, no que sea una teoría explicativa, el máximo nivel de satisfacción teórica. La decisión que eleva la economía computacional a principio de la naturaleza del lenguaje no deja de ser otra conjetura excéntrica por estar asociada a la idea de que el diseño del lenguaje es perfecto. Es como si la física elevase a principio de la naturaleza el de simetría porque se supusiera que el universo constituye un diseño perfecto. El objeto más simétrico imaginable, afirma el físico Richard FeynmanRichard Feynman, The Feynman Lectures on Physics, vol. I, Nueva York, AddisonWesley, 1963. Las ideas sobre la simetría están sugeridas por este texto., es seguramente una esfera, y la naturaleza, prosigue, está llena de esferas: estrellas, planetas, gotas de agua, pompas de jabón, etc. Pero lo único que esto quiere decir es que los objetos son con frecuencia simétricos, no que hay una ley de la naturaleza que impone la simetría sobre las cosas. Es cierto que la simetría actúa de forma persistente, no ya en los objetos, incluidos los seres vivos, sino en las leyes de la física. En el caso de los seres vivos, la simetría contiene bastantes excepciones, y una bien conocida es la del cerebro: hay un cerebro izquierdo distinto en muchas cosas del derecho. En el caso de las leyes de la física, y dependiendo de la escala en que operen, la simetría se produce de forma general. Pero, insiste Feynman, el mundo no tiene por qué ser simétrico. El hecho de que algo no tenga izquierda y derecha simétricamente no está contra las leyes de la física. Si queremos sacar alguna moraleja de estos casos, ésta sería que el lenguaje no tiene por qué ser económico ni su diseño perfecto, por más que en otros casos la economía computacional o funcional puedan encontrarse en alguna parte de su diseño.

La exposición y discusión del nuevo programa chomskiano que aquí hemos hecho parece la crónica de un gran científico que hace cuarenta años contribuyó a establecer el nuevo paradigma de lo que hoy se conoce como ciencia cognitiva y que, cual ermitaño, se empeña en perseguir unas metas que sus contemporáneos han abandonado hace tiempo. La realidad es distinta. El programa minimalista, que constituye un cambio aparentemente radical en relación con la teoría anterior, la de rección y ligamiento, vigente hasta 1984 aproximadamente, arrastra de manera incondicional a un número importante de investigadores. Quienes hasta ayer se afanaban en perseguir las metas de la teoría de 1979-1984, abandonan repentinamente ,esta teoría y se esfuerzan ahora en perseguir las nuevas metas de la economía computacional, metas que son más el resultado de una decisión metodológica insuficientemente justificada que de una contrastación empírica de la teoría o de la introducción de un nuevo formalismo computacional. No se han ofrecido pruebas empíricas decisivas que justifiquen el cambio teórico ni se ha introducido una nueva teoría de la computación de la estructura gramatical.

El seguimiento del programa minimalista obedece más a razones de prestigio y autoridadUn ejemplo de ello es el libro de Juan Uriagereka, Rhyme and Reason: An introduction to minimalist syntax, Cambridge, MIT Press, 1998, más parecido a las imposturas e incoherencias de Sokal que a un texto de introducción al minimalismo.científica detentadas por Chomsky que a razones surgidas en el desarrollo de la teoría. Esto no es nuevo. Huck y GoldsmithGeoffrey J. Huck y John A. Goldsmith, Ideology and Linguistic Theory, Londres y Nueva York, Routledge, 1995, pág. viii., que han historiado la polémica de Chomsky con los semanticogenerativistas entre 1966 y 1973Este último es antiguo estudiante de Chomsky y autor de una fructífera teoría fonológica., comienzan así su relato: «Ha sido normal en la ciencia intentar separar las ideas de los que las sostienen. Los historiadores de la ciencia han argumentado que es engañoso hacerlo, que lo que a menudo se cree que son factores sociales y personales desempeñan un papel nada trivial en la investigación científica. Si esto es verdad de la ciencia en general, es con seguridad verdad en la lingüística, donde durante más de tres décadas la escena académica ha estado dominada por la imponente personalidad de Noam Chomsky».

Huck y Goldsmith aportan el testimonio de Paul Postal (pág. 161) sobre un incidente público entre John R. Ross y Chomsky, sobre el que no vamos aquí a entretenernos, en el que los dos primeros citados justifican sus razones sobre factores personales en la lingüística. A propósito de este incidente, Postal percibió «el deseo de Chomsky de sacar partido de su dominio profesional/académico y del control temporal del auditorio para tratar a alguien [a Ross] con desdén», y concluye que «una clara implicación [de este incidente] era que estar en desacuerdo con Chomsky, incluso entonces [en 1966] la persona más influyente y de más renombre en el campo [de la lingüística], tendría un alto precio».

Otro factor, el institucional, parece contribuir a esta actitud de la comunidad científica. Indican Huck y Goldsmith la atracción que el Instituto Tecnológico de Massachusetts (MIT), donde se ubica el Departamento de Lingüística y Filosofía en que trabaja Chomsky, ejerce sobre los estudiantes más inteligentes. Pero, como subraya Postal en el libro de Huck y Goldsmith, «[los estudiantes] salen de allí sin cuestionarse mucho» porque, prosigue Postal, «se les transmite la noción de que lo que básicamente tienen que hacer es poner pequeños parches en un esplendoroso edificio ya existente» (pág. 134).

En las ciencias duras, sin embargo, una situación como la de la lingüística parece excepcional. Es bien conocido el caso de Einstein, que después de haber contribuido (entre otras aportaciones fundamentales) a la formación de la nueva mecánica cuántica en los años veinte del siglo pasado, desde 1932 se empeñó inútilmente en perseguir una teoría unificada de campos y en imponer el principio de causalidad clásico en la física de partículas. Apenas tuvo seguidores, y hasta su muerte en 1955 permaneció aislado en Princeton, escribiendo teorías inviables. En 1932 Pauli escribió de él que «su inventiva inagotable, así como su energía tenaz en la prosecución de la teoría de unificación, nos garantiza en los últimos tiempos una teoría al año, como promedio»Citado por Abraham Pais, Subtle is theLord. The Science and the Life of Albert Einstein, Oxford, Oxford University Press, 1982, pág. 347..

Mutatis mutandis, son sorprendentes los paralelismos entre Einstein y Chomsky. También de éste se puede decir que muestra una tenacidad inagotable en la prosecución de sus empresas. A Einstein, como a Chomsky, le guiaba el principio de que «en la naturaleza se realiza el ideal de simplicidad matemática»Albert Einstein, On the Method ofTheoretical Physics, 1934; citado por Pais, op.cit., pág. 467., aunque al final de su vida Einstein reconoció que la simplicidad de una teoría «no significa que la naturaleza no pudiera obedecer una teoría [de campo] más compleja»Pais, op. cit., pág. 349.. También Chomsky se precave, con más prudencia que sus estudiantes, cuando afirma que «está lejos de la obviedad que el lenguaje tenga algo parecido al carácter que postula el programa minimalista, que sólo es un programa de investigación»Noam Chomsky, The Minimalist Program, pág. 221.. Y, como ocurrió con EinsteinReseñando dos biografías de Einstein, Rosemary Dinnage indica cómo la reputación de Freud y de Einstein estaba protegida por poderosos intereses. Véase The Times Literary Supplement, 17 de diciembre de 1993, pág. 8., pero en otro terreno, existe un interés en mantener y proteger el prestigio del gran científico.

No deja de ser llamativo que la comunidad de investigadores, en vez de recordar la historia de Einstein, que prueba que los más grandes científicos pueden estar equivocados, se vea arrastrada por el prestigio y la autoridad científica hasta el punto de que quienes practican el programa minimalista confirman sistemáticamente su validez en artículos, tesis universitarias y congresos científicos. Parece como si, milagrosamente, la comunidad de investigadores se pusiera de acuerdo para aceptar las decisiones de un gran científico.

Ésta es una diferencia no banal entre las tradiciones intelectuales de la física y de la lingüística, lejos aún de la primera en seguir tanto normas científicas como metacientíficas. Como ejemplo de las primeras, poner a prueba las teorías, más que corroborarlas; presentar hipótesis falsables; aducir datos empíricos consistentes, y evitar las metáforas innecesarias, en las que el programa abunda. De las segundas, la historia de la ciencia sería suficiente.

Para concluir. A pesar de que las conjeturas que guían al último Chomsky pretenden constituir una nueva teoría del lenguaje (frente a aquellas con las que compite en estos años), el núcleo del minimalismo aprovecha las aportaciones que desde hace treinta años vienen haciendo los especialistas en lingüística computacional y lógica matemática, incorporados a su vez por Chomsky en su esfuerzo por construir una teoría del lenguaje y de la mente. El minimalismo presenta unos desafíos y unas apuestas a la teoría del lenguaje y de la mente similares a los que ya presentó el generativismo en épocas pasadas, pero que no se ganaron. Y aunque, como ya ha sucedido en las cuatro últimas décadas, esta nueva teoría fenezca inexorablemente, no cabe dudar de que la ciencia se mueve por conjeturas y refutaciones, ni de que de las actuales conjeturas saldrán refutaciones que probablemente conseguirán resultados no desdeñables para la lingüística y la psicología del siglo que acaba de comenzar.

image_pdfCrear PDF de este artículo.

Ficha técnica

25 '
0

Compartir

También de interés.

MANUEL GUTIÉRREZ ARAGÓN. Cosas que dejé en La Habana