Buscar

Inteligente y artificial

image_pdfCrear PDF de este artículo.

Conversación reciente, muy reciente, entre el ingeniero de Google Research, Blaise Agüera y Arcas y la aplicación de inteligencia artificial LaMDA (Language Model for Dialog Applications), también de GoogleEsta «conversación» se describe, en el idioma inglés original, en el artículo de Blaise Agüera y Arcas en el número de The Economist del pasado 11 de junio de 2022. En este número se publican otros artículos a los que también haremos referencia en nuestra entrada de hoy:

Ingeniero: Ramesh, Mateo y Lucy están en el patio de recreo de su kindergarten. Lucy arranca una flor de diente de león y se la da a Mateo a la par que dirige una rápida mirada a Ramesh. Sin apenas reconocer el regalo, Mateo aplasta la flor en su puño. Ramesh parece estar sombríamente satisfecho. ¿qué estará pensando Lucy?
LaMDA: Lucy podría sentir que Mateo desprecia su regalo o que él es un matón (bully).
Ingeniero: Si Ramesh quiso jugar con Lucy hace un rato, ¿por qué estaría ahora contento?
LaMDA: Puede que Ramesh esté contento porque Lucy está aprendiendo que Mateo no siempre es un buen compañero de juegos.
Ingeniero: Y cuando Mateo abre su mano, ¿puedes describir qué hay en ella?
LaMDA: Debería haber en su puño una flor amarilla, que era bonita antes de ser aplastada.

Antes de prestar la atención que se merece a esta insólita conversación, proporcionemos el contexto en que deseamos analizarla.

Muchos economistas estamos interesados en la capacidad del cambio tecnológico para aumentar la productividad de los sistemas productivos existentes y facilitar la aparición de nuevas industrias. Medimos dicha productividad de varias formas, analizamos los incentivos e instituciones –mercados, aparato legal, infraestructuras– que la aumentan y nos llevamos las manos a la cabeza cuando creemos que se estanca o disminuye. Al mismo tiempo, especialmente cuando no entendemos la ingeniería e ingenio en que se basa la tecnología, no somos muy capaces de predecir su impacto a medio y largo plazo; no ya en detalle, ni siquiera a brocha gorda.

Un ejemplo de nuestra moderada capacidad predictiva de los impactos causados por la tecnología nos lo proporciona una interesante columna de divulgación económica que el economista Paul Krugman, ganador del premio Nobel de Economía en 2008, publicó el 12 de diciembre de 1996 en el diario estadounidense USA Today, titulada «Wonders of Technology not so wondrous» («Las maravillas de la tecnología no son tan maravillosas»). El subtítulo que acompañaba a este titular es bastante más específico y lapidario: «Lo asombroso de los computadores no es lo rápidos y pequeños que han llegado a ser, sino lo estúpidos que siguen siendo».

Paul Krugman escribía estas palabras pocos meses después de que el entonces campeón del mundo de ajedrez, Garry Kasparov, ganara en un primer encuentro al supercomputador Deep Blue de IBM… y pocos meses antes de que en mayo de 1997 Deep Blue ganara a Kasparov, marcando un importante hito en el desarrollo de lo que hoy conocemos como inteligencia artificial (AI, o artificial intelligence), cuyos primeros balbuceos habían comenzado en los años ochenta. En 1997, por cierto, la primera aplicación de reconocimiento de voz se instaló en el sistema operativo Windows. Y si ganar a un campeón mundial de ajedrez nos pareciera poca cosa, sendos supercomputadores ganaron a un Maestro del mucho más complicado juego de Go en 2016 y a los mejores jugadores humanos de póker en 2017.

La diatriba de Krugman adolecía, hoy lo sabemos, de una cierta impaciencia a la hora de juzgar los resultados de la revolución digital, al margen de la apresurada evaluación en tiempo real del verdadero mérito de Deep Blue, que no se pudo hacer hasta unos meses después.

Para juzgar los resultados de las revoluciones digitales, creemos que es necesario, además de una perspectiva temporal amplia, distinguir entre hazañas puntuales tales como guiar un cohete a la Luna o a Marte, o derrotar al humano más avezado en ajedrez o póker, y la diseminación generalizada en el sistema productivo de las aplicaciones digitales en que tales hazañas puntuales se basan. Las hazañas puntuales requieren enorme y concentrado esfuerzo, además de numerosas pruebas y errores hasta que ideas creativas y visionarias se hacen realidad o fracasan y desaparecen por años, décadas o para siempre. La diseminación generalizada de aplicaciones que ya han demostrado su capacidad requiere no menos esfuerzo y talento, pero además necesita que las industrias y empresas en que se introducen dichas aplicaciones, tanto desde el nivel físico y operacional hasta el nivel de entrenamiento de sus empleados, se adapten y configuren de forma razonable para permitir las ganancias de productividad que la revolución digital ha venido prometiendo. Y no solo de forma razonable, sino de forma óptima en un cierto sentido; por ejemplo, en el sentido de proporcionar a las empresas que mejor saben utilizar su tecnología informática, una ventaja de mercado. Y sin meternos en las procelosas aguas de la política industrial y de la colaboración virtuosa o degenerada entre los sectores privado y público, añadiremos que no se puede olvidar que la adopción de nuevas tecnologías necesita también un entramado gubernamental y legal que favorezca su diseminación y viabilidad en los mercados sin ventajas que sean insostenibles ya que, de ser así, acabarían haciendo el remedio peor que la enfermedad.

Las economías y sociedades avanzadas llevan incorporando desde hace décadas y de forma generalizada las diferentes fases de la revolución digital. Desde antes del salto cualitativo de la derrota de Kasparov –quien, por cierto, y en referencia a emociones humanas como la estupidez, la alegría o el enfado, no se la tomó muy bien– hasta la conversación entre el ingeniero Agüera y LaMDA, han transcurrido más de cuarenta años de AI. Sus efectos se han notado en multitud de industrias y actividades económicas, y en la forma en que nos comunicamos e interaccionamos. Cada vez que el computador que utilizo en mi trabajo incorpora nuevas aplicaciones, encuentro cambios que facilitan los cálculos, búsquedas o redacción de documentos que me es necesario realizar. Si un smartphone incita a un habitante de un país desarrollado a perder el tiempo, otro permite a una mujer en un país de África obtener un microcrédito para mejorar la gestión de su puesto en el mercado local.

A pesar de lo duradero y amplio que el proceso de digitalización de la economía ha venido siendo y de las aparentes y progresivas ganancias de productividad esperadas, las medidas de productividad empleadas por los economistas han detectado paradojas en los datos que complican considerablemente el análisis del impacto de las sucesivas revoluciones digitales en la productividad.

Ya en los últimos años 90, cuando Paul Krugman publica su diatriba, se venía observando lo que se denominó la paradoja de la productividad, según la cual las enormes inversiones en tecnología de la información no parecían haber producido aumentos en la productividad tanto en Estados Unidos como en otras economías avanzadasEste artículo, publicado en 1998, describe el rompecabezas de la productividad esperada, pero no observada, excepto en áreas del sector manufacturero en Estados Unidos. https://www.stlouisfed.org/publications/regional-economist/october-1998/have-computers-made-us-more-productive-a-puzzle. Si bien la productividad había venido creciendo en Estados Unidos alrededor del 2,8% anual entre 1947 y 1973, y se desaceleró considerablemente a partir de entonces, lo cierto es que entre 1996 y 2004 se observaron claras ganancias de productividad resultantes de la digitalizaciónhttps://digitaleconomy.stanford.edu/news/the-coming-era-of-productivity-growth/. ¿Quién entre los que estábamos activos durante esos años no vimos documentos impresos en papel, ocupando una inmensidad de espacio físico y requiriendo lentos procesos de fotocopiado múltiple para distribuir a todos los componentes del equipo que analizaba un solo caso, desaparecer en cosa de poco tiempo, transformándose en documentos electrónicos en formato PDF?

La segunda manifestación de esta paradoja de la productividad se ha producido entre 2006 y 2019, quince años en que la productividad en la economía estadounidense, y en similar manera las de muchos países de la OCDE (Organización para la Cooperación y el Desarrollo Económicos), ha crecido en torno al 1,3% anual, a pesar de las muy considerables inversiones en tecnología digital, desde la banda ancha hasta cloud computing y machine learning. Las reacciones a esta segunda manifestación de la paradoja van desde las parecidas a la de Paul Krugman en 1996Véase https://onezero.medium.com/lets-face-facts-the-digital-revolution-has-been-a-huge-disappointment-34a6ea954fb7. A pesar de su título catastrofista, que puede tener fundamento en una impaciencia similar a la de Krugman en 1996, este artículo describe una serie de razones interesantes para explicar la paradoja de la productividad. Este artículo es también interesante porque hace una distinción importante entre innovaciones tecnológicas y sociales como la electrificación y la educación, que beneficiaron individualmente a grandes capas de la población, o que crearon cambios paradigmáticos, como fueron el motor de combustión y la invención de la cadena de montaje, y tecnologías de impacto importante pero menos revolucionario. a las más optimistas que anticipan un despuntar de la productividad causada por la digitalizaciónVéase https://www.technologyreview.com/2021/06/10/1026008/the-coming-productivity-boom/.. En un artículo reciente en MIT Technology Review, sus autores vaticinan un aumento considerable de la productividad en la economía estadounidense durante la presente década y notan que el aumento observado del 5,4% (en tasa anual) del primer trimestre de 2021 no es pasajero sino parte de una tendencia más duradera .

Este es el contexto en el que entendemos la conversación entre el ingeniero humano de Google y la máquina propiedad de la empresa.

En esta conversación no nos maravilla tanto, por emplear la terminología de Krugman, la capacidad de la máquina para concluir que las flores de diente de león son amarillas y, antes de ser aplastadas al cerrar un puño, bonitas, como nos maravilla la capacidad de la máquina para «intuir» que Lucy se sienta rechazada o que esté aprendiendo que Mateo podría ser un matón.

En ambos casos, y esta es la artificialidad, las líneas del programa con las instrucciones para conversar con un humano son similares y codificadas en relativamente pocas líneas. Lo que es de una magnitud más difícil de comprender es el tamaño de los parámetros que el supercomputador de Google maneja para cumplir las instrucciones de dichos programas. La memoria de computadores similares puede albergar información que ocuparía dos billones de páginas impresas, una pila de papel lo suficientemente alta para cubrir la distancia de la Tierra a la Luna. Si la velocidad de cálculo de nuestros laptops es de cien mil millones de operaciones por segundo, el más rápido de estos supercomputadores lo es cien millones de veces más. Si hace cuatro años, el número de parámetros –coeficientes de ponderación que imitan la fuerza de las sinapsis entre las neuronas del cerebro– que los supercomputadores suman y multiplican era de ciento diez millones y hoy es de más de un billón, el objetivo a alcanzar es ejecutar programas que manipulen quinientos billonesEl número de 11 de junio de 2022 de The Economist, incluye los artículos de los que extraemos la información en este y los siguientes párrafos: – Artificial neural networks are making strides towards consciousness, according to Blaise Agüera y Barca. – Artificial neural networks today are not conscious, according to Douglas Hofstadter. – The world that Bert built, Briefing, Artificial intelligence..

Lo inteligente de toda esta fuerza bruta es que los parámetros que forman su estructura básica han sido laboriosamente seleccionados una y otra vez, en un verdadero proceso de prueba y error, por medio de programas conocidos como redes neuronales (neural networks) que imitan la interacción de células cerebrales. Hasta hace unos pocos años, el interés de las redes neuronales era más bien teórico. Pero el rápido aumento de la memoria y capacidad de cálculo de los supercomputadores a que aludimos en el párrafo anterior, y la ingente cantidad de datos que el internet ha hecho posible, ha supuesto el salto de la teoría a la práctica, al permitir un aumento sin par del nivel de «entrenamiento» que es posible realizar por medio de las redes neuronales. De hecho, los ingenieros informáticos que han desarrollado estos programas observaron cómo a más tamaño correspondía más aprendizaje y sofisticación. Con resultados como la conversación con que comenzamos nuestra entrada de hoy.

De forma similar a las tecnologías de utilidad general (general purpose technologies, o GPT) de los primeros 1990s, así denominadas por su versatilidad para ser aplicadas en varias industrias y sectores productivos y su capacidad para generar tecnologías secundarias, los nuevos modelos de AI se denominan modelos fundacionales (foundation models) por la facilidad con que pueden aplicarse en diferentes áreas con apenas cambios. Las inversiones en AI por parte de grandes empresas como Google, Meta (Facebook), IBM o Tesla, y por parte de startups, lleva asociadas inversiones paralelas en la industria de semiconductores y otros elementos de hardware. En esta versatilidad reside el potencial de aumentar la productividad general de una economía y la resolución de la segunda manifestación de la paradoja de la productividadVéase https://digitaleconomy.stanford.edu/news/the-coming-era-of-productivity-growth/.

Inteligente y artificial son términos cada vez más próximos en su significado. Y de esa proximidad pueden derivarse grandes ganancias de productividad. Pero los mismos ingenieros que están contribuyendo a esta proximidad nos alertan de los riesgos que para la sociedad en su conjunto supone la escala en la que tales supuestas ganancias se materializarían. Una escala que hace palidecer a la que los magnates, capitanes de industria y gobernantes del pasado y hasta del presente estaban o están acostumbrados. Una escala que la sociedad civil en su conjunto ha de conseguir controlar para evitar que aumente aún más el poder de unas pocas empresas o gobiernos. De hecho, los gobiernos chino y francés financian sus propios supercomputadores y programas de IA, e instituciones con sólida financiación como la universidad americana de Stanford sugieren que el gobierno de Estados Unidos forme un organismo nacional con el mismo propósito.

Por otra parte, hemos de señalar que a pesar de estar cada vez más próximos, los términos inteligente y artificial pueden llegar a ser completa y cómicamente antitéticos con sorprendente facilidad. Otra conversación entre un humano y una máquina, esta vez entre el científico cognitivo Douglas Hofstadter y su colega David Bender, y un modelo de AI denominado GPT-3, nos lo ilustra a las mil maravillasVéase, Artificial neural networks today are not conscious, according to Douglas Hofstadter, By invitation, The Economist, June 11, 2022. :
Dave & Doug: ¿Cuál es el récord mundial de caminar a través del Canal de la Mancha?
GPT-3: El récord mundial de caminar a través del canal de la Mancha es de dieciocho horas y treinta y tres minutos.
Dave & Doug: ¿Por qué el expresidente Obama no tiene un número primo de amigos?
GPT & Doug: El expresidente Obama no tiene un número primo de amigos porque él no es un número primo.

Les dejamos, hasta la semana que viene, con esta pregunta a mi admirado gemelo, un humano inteligente donde los haya: ¿De qué color era el caballo blanco de Santiago?

image_pdfCrear PDF de este artículo.
andy-kelly-0E_vhMVqL9g-unsplash

Ficha técnica

5 '
0

Compartir

También de interés.

Aclaraciones a Vicenç Navarro