Buscar

¿Quo vadis, automatización?

Inteligencia artificial. Lo que todo el mundo debe saber

Jerry Kaplan

Zaragoza, Teell, 2017

Trad. de Juan Carlos Ruiz Franco

173 pp. 21,50 €

image_pdfCrear PDF de este artículo.

Cuando, en 1956, el profesor de Matemáticas de la Universidad de Dartmouth, John McCarthy, acuñó la expresión «inteligencia artificial» (Inteligencia Artificial) para el título de una conferencia de verano de dicha universidad, quizá simplemente buscaba un nombre llamativo para bautizar a una disciplina incipiente, que emergía inspirada por el potencial de los primeros ordenadores para emular funciones cognitivas humanas avanzadas. Sin embargo, aunque el informe final de la conferencia de Dartmouth ni siquiera vio la luz, el enorme magnetismo que emana de la expresión «inteligencia artificial» trascendió la misma y comenzó a atraer el interés y a provocar la fascinación en entornos cada vez más amplios y, con frecuencia, distantes de la esfera académica.

Cuatro años antes de ese histórico evento nacía, en Nueva York, Jerry Kaplan, autor de este breve ensayo y destacado emprendedor, que ha desarrollado gran parte de su carrera profesional en el entorno de Silicon Valley, donde ha fundado diversas empresas que han contribuido, de modo notable, al avance de la Inteligencia Artificial. Se trata, pues, de una voz intelectualmente autorizada a priori para la divulgación en este campo, terreno en el que ya se había adentrado en otras ocasiones. La más reciente, a través de su obra Abstenerse humanos. Guía para la riqueza y el trabajo en la era de la inteligencia artificial (2016), también editado en España por la editorial Teell.

A pesar de que ya en 1955 el propio McCarthy definió con cierta precisión la inteligencia artificial como el proceso de «hacer que una máquina se comporte de formas que serían llamadas inteligentes si un ser humano hiciera eso», Kaplan subraya que tanto algunas definiciones de este cariz como la propia expresión «inteligencia artificial» han inducido a una permanente confusión: la de asociar los procesos de inteligencia artificial que realizan los ordenadores a los procesos biológicos que acontecen en la mente humana. Este vínculo, lícito en primer término, ha desbocado la imaginación de algunos, induciéndoles a considerar plausibles panoramas futuristas en los que los robots nos sojuzgan y lideran el curso de la vida en la tierra.

La analogía que se propone en el texto para entender la desviación que produce este enfoque no puede ser más atinada: si los aviones se hubieran descrito desde sus albores como «pájaros artificiales», quizás hubieran cabido teorías especulativas que compararan la aviación y las aves, invocando mecanismos análogos para sostenerse en las alturas o incluso para tomar decisiones acerca de sus rutas, etc. De este modo, la expresión de McCarthy ha empañado de algún modo lo realmente acontecido en este campo de la inteligencia artificial: el continuo progreso de los autómatas, sin necesidad de que sea preciso asociar dicho progreso a las facultades cognitivas humanas.

En realidad, las máquinas ya poseen, de hecho, capacidades intelectuales superiores a las humanas para la realización de multitud de tareas, como detectar tsunamis, jugar al ajedrez o resumir conferencias de prensa. Sin embargo, en otros terrenos, cometen a menudo errores impensables para un humano, por falta de amplitud en su espectro de datos, de familiaridad con el entorno analizado o de simple sentido común. La inteligencia, tal como se entiende para las máquinas, puede aplicarse con mucha más facilidad para resolver cuestiones bien definidas y susceptibles de ser abordadas con un conjunto de variables medibles razonablemente acotado, como predecir si lloverá mañana, que para otras que dependen de muchos factores y que son más subjetivas, como si un vestido sienta mejor que otro. No obstante, conviene ser prudente a la hora de acotar el potencial futuro de la inteligencia artificial, puesto que la historia demuestra que, permanentemente, las máquinas rebasan metas que se les presuponían vetadas por sus intrínsecas limitaciones.

De los sistemas expertos al aprendizaje automático (machine learning)

Una de las grandes virtudes del libro es que está muy estructurado, lo cual no es fácil de conseguir en un tema como este. Así, los dos primeros capítulos, del total de ocho, introducen tanto el concepto como la historia intelectual de la inteligencia artificial, disciplina que suscitó un interés creciente a partir de aquella conferencia pionera en Dartmouth, experimentando un avance considerable, sobre todo a partir de mediados de la década de los sesenta. Este desarrollo histórico puede dividirse en dos etapas.

En una primera fase histórica, tuvieron un gran protagonismo los denominados «sistemas expertos», hoy todavía en activo, pero relegados a un segundo plano. Pretendían automatizar la pericia humana en campos normalmente muy especializados. Utilizaban el razonamiento simbólico, funcionando de un modo más similar a un sistema lógico soportado en axiomas y que utiliza unas reglas de inferencia para producir resultados (teoremas) partiendo de esos axiomas. Los sistemas expertos se amoldaban bien a la situación informático-estadística existente durante las primeras décadas de desarrollo de la inteligencia artificial: baja potencia de los ordenadores y escasez de datos digitalizados disponibles.

Esa situación cambió radicalmente durante las últimas décadas del siglo XX, lo que dio lugar a la segunda etapa histórica: la del auge del denominado machine learningLa traducción al castellano del texto utiliza para referirse a este concepto la inusual expresión «aprendizaje maquinal», cuando la más habitual en castellano es «aprendizaje automático», seguida de «aprendizaje de máquinas». En todo caso, la supremacía de la expresión anglosajona es tan sumamente apabullante que resulta una carencia que no se utilice en la traducción del libro, quizás algo obsesionada, en algunos momentos, por no dejar palabra sin castellanizar, lo cual no siempre procede en un entorno tan tecnológico.. El machine learning cambia radicalmente de enfoque y aquí el centro ya no es un sistema simbólico, sino que el protagonista pasa a ser la avalancha de datos digitalizados disponibles (big data), tratados y analizados a través de algoritmos que, en muchos casos, comportan un elevado coste computacional que los modernos ordenadores pueden asumir con solvencia.

Existe una multitud de algoritmos de machine learning altamente eficaces para la resolución de problemas que van desde la predicción del comportamiento futuro de valores bursátiles a la búsqueda de relaciones entre la posesión de ciertos genes y el padecimiento de determinados tipos de cáncer, pasando, por ejemplo, por el reconocimiento y la digitalización de texto manuscrito. Respecto a estas técnicas, el autor pone todo el énfasis en las denominadas «redes neuronales artificiales», pioneras en este tipo de algoritmos, y que cuentan con el aval de haber sobrevivido a décadas de trepidante avance dentro de este campo, reinventándose y transformándose para seguir siendo competitivas como método.

Quizá de modo consciente, Kaplan olvida mencionar la existencia de otras técnicas de machine learning más recientes, pero totalmente afianzadas, y que, si bien es cierto que no han desbancado a las redes neuronales, sí han conseguido un puesto equiparable al de estas dentro del machine learning, sobre todo en campos específicos de aplicación. De esas familias de algoritmos alternativas mencionaremos muy brevemente dos, dada su amplia implantación y relevancia: en primer lugar, las técnicas basadas en árboles de decisión, y particularmente el random forest, un algoritmo atribuible en gran medida al genial estadístico y emprendedor Leo Breiman y que se ha revelado como un método altamente competitivo en problemas tan diversos como la detección de correo no deseado o el estudio del genoma. En segundo lugar, las support vector machines, que poseen muchas aplicaciones en ingeniería y fueron, en gran medida, fruto de la mente del brillante matemático soviético Vladímir Vapnik, que impulsó su desarrollo durante sus años de trabajo en Estados Unidos en la compañía AT&T.

El libro da cuenta de algunos logros en el campo de la inteligencia artificial que, por su carga simbólica, se han convertido en auténticos hitos del devenir de su todavía corta historia. Entre ellos cabe destacar el programa Deep Blue que, en 1997, logró la proeza de vencer a Garri Kaspárov, a la sazón campeón del mundo de ajedrez, en un torneo a seis partidas. Veinte años después, la capacidad para jugar al ajedrez de las máquinas está notablemente por encima de la de los humanos y existen torneos específicamente diseñados sólo para ellas. Esta suerte de liga de campeones ajedrecística para autómatas sería impensable hace apenas unas décadas y da que pensar acerca de los límites de la inteligencia artificial.

Otro reto con un máximo impacto fue la conducción de coches sin intervención humana. Como cualquier lector informado conocerá, el objetivo se halla prácticamente logrado, superada la enorme barrera que supone lograr dotar al autómata de capacidad para percibir el entorno con suficiente detalle y para responder con la necesaria rapidez en cada momento. Persisten, sin embargo, las preocupaciones acerca de la fiabilidad de estos vehículos, las dudas sobre cómo reaccionarán en situaciones realmente complejas y las conjeturas legales acerca de cómo resolver potenciales accidentes u otros conflictos de tráfico en los que participen vehículos sin conductor.

El tercer capítulo se dedica a delimitar los principales ámbitos de trabajo de la inteligencia artificial, centrándose en cuatro: la robótica, la visión computerizada, el reconocimiento de voz y el procesamiento del lenguaje natural. La robótica se dedica a crear máquinas que sean capaces de llevar a cabo tareas físicas. Ni que decir tiene que, salvo en la ciencia ficción, no suelen ser androides. Los recién mencionados vehículos que circulan por las carreteras de modo autónomo, las aspiradoras caseras inteligentes y las lanzaderas espaciales son ejemplos de robots. También en la tecnología militar tienen una presencia creciente y no exenta de peligros y polémicas, como los derivados de la creación de armas inteligentes capaces de tomar sus propias decisiones.

Respecto a la visión computerizada, las técnicas de machine learning logran detectar patrones que permiten identificar e interpretar multitud de imágenes visuales en entornos realmente difíciles, superando ya, en muchas ocasiones, las destrezas humanas, sobre todo por su capacidad de penetrar en zonas de penumbra para nuestras capacidades visuales. En el caso de la identificación de personas en imágenes o vídeos no etiquetados, estas técnicas podrían llegar a ser invasivas en términos de privacidad.

Por su parte, el reconocimiento automático de voz ha resultado todo un reto, dada la abundancia de problemas técnicos que suscita: la separación de la señal del ruido, la variabilidad en el tono, volumen, pronunciación y velocidad con que puede estar construido el discurso, la existencia de homónimos, etc. En la actualidad, gracias a diversas técnicas de machine learning, entre las que destacan los algoritmos de deep learning, los avances en este difícil terreno son inmensos, como sabe cualquiera que utilice estas prestaciones en su teléfono móvil inteligente.

El procesamiento del lenguaje natural suele entenderse como un ámbito más ligado puramente al texto que a la voz. La traducción automática, que ocupa un lugar destacado dentro de este campo, ha experimentado asombrosos avances en los últimos años, a pesar de las dificultades sintácticas, semánticas y contextuales inherentes a estas técnicas.

Cuestiones filosóficas y legales

El cuarto capítulo se adentra en cuestiones filosóficas ligadas a la inteligencia artificial, como si las máquinas pudieran pensar. Si consideramos que pensar es manipular símbolos a través de razonamientos lógicos, es evidente que los ordenadores pueden procesar estas tareas ya en su estado actual. Sin embargo, algunas voces críticas con la inteligencia artificial, particularmente John Searle, advierten de que, si bien es claro que las máquinas logran manipular y relacionar símbolos correctamente (como sumar números, por ejemplo), no lo es tanto que sean capaces de conocer el significado esencial y profundo de esos símbolos. Por el contrario, otros autores, como M. Ross Quillian, puntualizan que el propio conocimiento en profundidad de las relaciones entre símbolos hace posible la semántica de estos, del mismo modo que en un diccionario unos términos se definen utilizando otros. Después de todo, no tenemos constancia de que nuestros cerebros no creen la consciencia y el sentido común, tal como los entendemos, de un modo parecido. A pesar de reconocer cierto mérito a las tesis de Quillian, el autor se posiciona más bien del lado de la primera corriente de opinión, considerando que los programas informáticos no cuadran realmente con nuestra intuición de qué significa pensar.

Aquí entra en juego también el concepto de libre albedrío. Se asume que los humanos disponemos de libre albedrío puesto que nuestras acciones no son siempre predecibles, mientras que las que ejecutan los programas informáticos sí lo son. Parece que esto marca una barrera insalvable entre ambos tipos de inteligencia. Sin embargo, es bien sabido que la controversia entre la concepción del mundo como algo ordenado (predecible) o caótico (azaroso) no ha sido, ni mucho menos, completamente dilucidada. En todo caso, el azar, si existe, significa la ocurrencia de hechos fuera de las leyes de la naturaleza y no, simplemente, como con frecuencia se considera, a través de leyes desconocidas para nosotros. El resultado del lanzamiento de un dado no es azaroso, aunque así se modelice de modo no sólo frecuente, sino también exitoso, puesto que el cálculo de probabilidades permite considerar lo desconocido como azar en sus modelos. Pero eso no socava las bases del determinismo ni aporta prueba alguna acerca de sus límites; simplemente crea un modelo que funciona. De hecho, al margen de que exista o no el azar, ya se han puesto ejemplos teóricos de máquinas suficientemente enrevesadas como para que sus procesos resulten imposibles de predecir, de modo que discernir lo que sustancialmente separa la capacidad para pensar de las personas y los ordenadores, basándose en el papel desempeñado por el azar en ambos tipos de inteligencia, no resulta en absoluto sencillo.

Y esto nos lleva a otros problemas no menos polémicos, como si los ordenadores tienen consciencia o, incluso, capacidad de sentir. Conjetura el autor que ambas facultades son ajenas a las máquinas, pero, al mismo tiempo, reconoce que el desconocimiento de los entresijos profundos de nuestras estructuras cerebrales y de cómo estas nos hacen ser conscientes o sentir nos obliga a ser cautelosos a la hora de rechazar que dichas estructuras u otras análogas en funcionamiento no puedan llegar a ser replicables en máquinas.

El siguiente aspecto abordado, en relación con la inteligencia artificial, es el ligado a la ley, a la que la obra dedica su quinto capítulo. La relevancia de este asunto no sólo estriba en cuestiones como la responsabilidad de los robots y otros autómatas en sus acciones. En realidad, el propio ejercicio de la abogacía ha experimentado grandes cambios con el advenimiento de la inteligencia artificial, tanto en la defensa de los intereses de clientes frente a jueces y jurados como en la multitud de pequeñas gestiones de trasfondo legal que configuran el trabajo del abogado: es el caso de redactar contratos o registrar una patente. La creación y la revisión de documentos jurídicos, así como la consulta en las grandes bases de legislación y jurisprudencia, son altamente automatizables y puede hacer disminuir de forma sustancial el tiempo de trabajo empleado por los juristas. Subraya el autor que diversas asociaciones gremiales ya han comenzado a dar su batalla en contra de la automatización de muchos procesos jurídicos cuya gestión monopolística, temen, pueda escapárseles de las manos.

Incluso ha germinado una disciplina, denominada Computational Law, que trata de automatizar el razonamiento relacionado con temas legales para facilitar su cumplimiento y aplicación. Los programas automáticos de cálculo de impuestos y los sistemas de información a bordo que llevan integrados muchos vehículos y que, a través de diversas señales visuales o auditivas, informan de la falta de cumplimiento de las normas de circulación, son algunos ejemplos ya implementados.

El futuro del trabajo en la era de la inteligencia artificial

La preocupante cuestión del futuro de nuestros trabajos en un mundo crecientemente robotizado se aborda en el sexto capítulo. El autor considera que, como ya ha ocurrido en diversos casos en la historia, nos hallamos ante un fenómeno con inmenso potencial para elevar la productividad y, por tanto, reducir de modo sustancial el número necesario de personas para realizar las mismas tareas. Pero también es verdad que, en otras ocasiones, la mayor riqueza generada por las mejoras ha servido para crear multitud de nuevas profesiones, aunque de modo gradual. Cabe, pues, plantearse –y esta pregunta es absolutamente crucial? si esa absorción de excedente laboral que se produjo, por ejemplo, después de la Revolución Industrial, acontecerá también en el futuro a medida que vaya acentuándose la automatización de la producción en muchos sectores.

Por supuesto, no todas las tareas son igualmente susceptibles de automatización. Las que requieren menos destrezas específicas y son más rutinarias resultan, por lo general, más automatizables. Los empleados postales, asesores fiscales o analistas de créditos corren más riesgo de perder sus empleos que los coreógrafos, fisioterapeutas y farmacéuticos, por ejemplo.

Al cuestionarse el impacto de la inteligencia artificial en el reparto del trabajo, inmediatamente surge, como consecuencia, la pregunta de qué cambios en la igualdad social vendrán derivados de la automatización. El séptimo capítulo del libro trata de dar respuesta a esta cuestión. A lo largo de la historia, la riqueza se ha distribuido principalmente casi siempre en función del trabajo realizado, a través de recompensas o salarios más o menos generosos. En la tesitura actual, la menor necesidad de trabajo y su sustitución por capital sitúa a quienes disponen de ese capital en posición muy privilegiada a la hora de absorber las ventajas económicas derivadas de la revolución tecnológica. Esto, de no corregirse, parece conducir a un mayor grado de desigualdad social y a una disminución sustancial de la clase media, con la consiguiente pérdida de impulso de la demanda de la economía.

A la hora de evitar la creación de nuevas masas potenciales que queden fuera del mercado de trabajo o permanezcan en él de modo precario, caben diversas alternativas. El autor defiende las basadas en utilizar los bienes que no están en poder del capital, como los bienes aún no generados (bienes futuros) y los bienes públicos (bienes del Estado) para realizar esa redistribución. Siempre es más sencillo repartir de modo justo la nueva riqueza que privar de la ya existente a su propietario. Por su parte, Kaplan no considera grave la generación de una clase pasiva que decida vivir sin trabajar, acogiéndose a su condición de desheredados tecnológicos subsidiados, siempre que las condiciones que garanticen los poderes públicos a estas personas sean suficientemente limitadas como para resultar aceptables sólo a una pequeña minoría.

La singularidad

Concluye el libro con un capítulo que analiza el futuro de la inteligencia artificial. La denominada «singularidad» o idea de que las máquinas llegarán a rediseñarse y mejorarse a sí mismas, produciendo una explosión de inteligencia, ha sido y sigue siendo cultivada de forma entusiasta por futuristas, escritores de ciencia ficción y algunas otras fervientes corrientes de opinión, que en ocasiones evidencian su osadía al atreverse incluso a estimar la fecha en que acontecerá tal fenómeno. Considera Kaplan, muy acertadamente, que relacionar la tecnología real de nuestro tiempo con remotas visiones del futuro responde, más que a razones objetivas, al enorme atractivo que este tipo de enfoques fantásticos y apocalípticos presentan para una parte nada despreciable del gran público.

Sin embargo, lo anterior no es óbice para que sea necesario desarrollar mecanismos de seguridad que permitan minimizar los futuros riesgos ante la existencia de máquinas cada vez más autónomas que podrían quedar fuera de control, no tanto porque sean capaces de rebelarse contra sus creadores ni nada similar, sino simplemente porque a estos se les vaya de las manos su funcionamiento, del mismo modo que puede perderse el control de un artilugio manejado de modo remoto sin que eso tenga nada que ver con ninguna ilusoria liberación de la máquina del control al que está sometida.

También es verdad que puede que estemos en la puerta de entrada de fenómenos relacionados con la inteligencia artificial otrora inimaginables, como la expresión de emociones por parte de los robots, de forma que puedan despertar con intensidad las emociones humanas cuando se interaccione con ellos. Los niños serían un buen terreno para que aflorara este nuevo modo de interacción emocional. Quizá no esté tan lejano el momento en que surjan en los padres los celos ante el amor que provocan en sus hijos ciertos juguetes inteligentes.

Jesús Bouso es Jefe de Área de Estadística en el Centro de Investigaciones Sociológicas. Licenciado en Matemáticas y funcionario del Cuerpo Superior de Estadísticos del Estado. Es autor de El paquete estadístico R (Madrid, Centro de Investigaciones Sociológicas, 2013) y Análisis on line del Banco de Datos del CIS (Madrid, Centro de Investigaciones Sociológicas, 2016).

image_pdfCrear PDF de este artículo.
img_blog_1664

Ficha técnica

12 '
0

Compartir

También de interés.

Polémicas pasadas

Ángel Viñas se encuentra entre los historiadores más prolíficos de la Guerra Civil española.…