¿Emoción artificial?
¿ Emoción artificial? DEPUÑOY LETRACerrando el año, gran parte de las conversa-ciones son sobre los impactos que ha tenido lainteligencia artificial (IA) sobre nuestras vidas yel que tendrá en el futuro. La IA es, en resumen, una tecnología quepermite a las máquinas imitar habilidades hu-manas como aprender, razonar, resolver proble-mas o tomar decisiones. Aunque la IA existedesde 1950, su reciente masificación se debe ados tendencias.
Por una parte, se lograronenormes reducciones de costos de almacena-miento y aumentos en la velocidad de procesa-miento de datos y, por otra, hubo hitos deinnovación tecnológica, tales como la creaciónde un modelo que permite a las máquinas anali-zar todas las palabras de un texto al mismotiempo, en lugar de hacerlo palabra por palabracomo antes. Esto les dio la capacidad de identi-ficar patrones complejos y contextos de unapalabra o frase, reduciendo significati-vamente sus errores. Pero, más que “imitar” a los huma-nos, en las conversaciones sobre la IAes común escuchar que esta “piensa” y“comprende”, acciones intrínsecamentehumanas.
Estas analogías son muyútiles para entender lo que hace latecnología, pero ¿ cuán humana puedellegar a ser o llegará a ser la IA? Enentrevistas en diversos medios de comunicación, dos académicos internacionales que visitaronnuestro país recientemente aportaron algunasreflexiones al respecto.
Martin Hilbert, académico de la Universidadde Davis California que investiga el papel de ladigitalización y del uso de algoritmos en el desa-rrollo de sistemas sociales complejos, compartióque hay estudios que demuestran que la inteli-gencia artificial puede ser más simpática que loshumanos respondiendo a pacientes, por ejemplo. Pero advirtió que las máquinas nunca podrántener empatía, sino que solo podrán fingirla. Recalcó que jamás tendrán emociones, y que, aligual que un psicópata, pueden dar la impresiónde tenerlas. Así, Hilbert aboga por asumir que estastecnologías son una extensión de la mente, porlo que su correcto uso descansa críticamente enel conocimiento previo de cómo funciona nuestrapropia mente. En este contexto, propone nosolamente enfatizar el autoconocimiento en laenseñanza, sino que derechamente limitar queniños usen IA.
Por su parte, Thomas Sargent, Premio Nobelde Economía 2011, relató que, al analizar pre-guntas que les había solicitado a sus estudiantescon antelación a una clase que iba a dictar, podía distinguir muy fácilmente las genuinas delas generadas por IA.
Los alumnos claramenteno tenían conciencia de lo evidente que resultabala suplantación de sus mentes por la IA, y que suprofesor sabría qué preguntas con niveles másaltos de sofisticación que los correspondientes asu nivel de formación no podían ser auténticas. Uno se pregunta, sin embargo, si es que lasnuevas versiones de los modelos que vendránlograrán emularnos mejor.
Pero resulta que ya en“MÁS QUE IMITAR A LOS HUMANOS, EN LASCONVERSACIONES SOBRE LAIAES COMÚNESCUCHAR QUE ESTA PIENSA Y COMPRENDE, ACCIONES INTRÍNSECAMENTE HUMANAS”. 1970 un profesor de robótica japonés descubrióque existe un “valle inquietante”, un fenómenopsicológico que consiste en que un robot que separece demasiado a un humano nos repulsa, envez de fascinarnos. Aunque aún no entendemoscompletamente este fenómeno, parece vinculadoa nuestra evolución como especie, y a los meca-nismos inconscientes que desarrollamos paraidentificar y confiar en otros humanos.
Y es quecomo especie sobrevivimos gracias a que, duran-te los más de 50 millones de años de evolucióndesde los primeros primates sobre la Tierra, nuestro cerebro ha perfeccionado un complejosistema de procesamiento inconsciente que nospermite, automáticamente, confiar, o no, enotros.
Las investigaciones demuestran, además, que entre los atributos que nos fijamos paraconfiar en alguien están la integridad y la calidez. ¿Será posible que, en unas pocas décadas, loshumanos logremos emular a la perfección enmáquinas las habilidades para expresar e identi-ficar estos atributos, y que la evolución generó ennosotros en millones de años? No lo sé, peromientras avanzamos hacia este futuro incierto, preparar a las nuevas generaciones y a nuestrasorganizaciones para usar la IA con propósito yética, y evitar sus riesgos, es una resolución deaño basada en una preocupación para nadaartificial. ¡Felices fiestas!. CATALINA MERTZ