Autor: Mariajosé Soto
"La IA puede ser fentanilo digital: va apagando la voluntad, la atención y el sentido del propósito"
"La IA puede ser fentanilo digital: va apagando la voluntad, la atención y el sentido del propósito" Mariano Sigman: Cómo elegimos con quién nos relacionamos? Esa es la pregunta que hoy articula el trabajo del neurocientífico argentino Mariano Sig? man (Buenos Aires, 1972), uno de los investigadores más influyentes a nivel mundial en el estudio de la mente humana, esto mientras evalúa la escritura de un nuevo libro sobre los vínculos, la voluntad y la identidad en la era digital.
En su presencia en Chile para participar en la XV versión del Congreso Futuro, planteó uno de los dilemas centrales de nuestro tiempo: cómo preservar el propósito y la autonomía en un mundo atravesado por tecnologías que avanzan más rápido que nuestra capacidad de comprenderlas. "Cuando una persona pasa horas scrolleando videos de gatitos mezclados con contenidos divertidos, comienza a perder la capacidad de responder. Se olvida de comer, de ir al baño, de que alguien puede haberse caído a su lado.
Está atrapada en esta droga digital que va erosionando lo humano: la preocupación por el otro, por uno mismo y por seguir un propósito", advierte. -¿ Pero cuál cree que es el equilibrio entre el cuidado frente a la Inteligencia Artificial (IA) y el riesgo de miradas excesivamente conservadoras que puedan frenar su avance? -Es prematuro sacar conclusiones. Uno observa ciertos problemas recurrentes que todos miramos: la IA ha tenido un avance espectacular que va mucho más rápido que los tiempos de asimilación social. Es una tecnología muy distinta porque permea en todo: en la política, en los vínculos, en la educación, y eso marca una diferencia en relación a otras tecnologías. Además, es una tecnología con cierto sentido de autonomía. Siempre hemos sabido dónde está el comienzo, ahora no queda claro dónde están los interruptores. La IA tiene la capacidad de resolver cosas espectaculares, pero también genera la necesidad de una mirada muy cuidadosa. En ese sentido es responsabilidad y atención, pero al mismo tiempo, mirada abierta, no retrógrada, progresista.
Allí creo que está la síntesis de todo el análisis. "Somos más vulnerables al fanatismo contagioso" -¿ Cuáles son las consecuencias de una mirada excesivamente progresista? -Los riesgos de la IA son muchos al ser una tecnología tan versátil. He intentado expresar estos riesgos con responsabilidad. Hay una mirada del escritor Yuval Noah Harari, que es muy apocalíptica y tiene el beneficio de señalar los riesgos, pero puede también generar un estado de pánico. Como neurocientífico, sé que frente a situaciones adversas nunca hay que entrar en estado de pánico. Nos sirve estar atentos, observar los riesgos, entender cómo atenuarlos y sacar lo mejor de la tecnología. -¿ Dónde están los principales desa-Son muchos los riesgos y están en el fíos? Autor: Mariajosé Soto. El neurocientífico argentino reflexiona sobre los riesgos y oportunidades de las nuevas tecnologías.
Llama a no entrar en pánico, pero sí a asumir conciencia: observar sus riesgos, cuidar nuestra autonomía y los vínculos entre las personas. fíos? La IA está cada vez más regulada, pero la pregunta central sigue siendo: ¿ quién regula realmente? ¿ OpenAl, ¿Google? ¿ Un ente público? La IA opera bajo ciertos marcos, pero su comportamiento no es neutro ni fijo". Más allá de la política, hay algo que todavía no estamos mirando con atención: cómo la IA nos entumece, cómo puede convertirnos en verdaderos zombies digitales, especialmente a niños, niñas y adolescentes". "La IA puede ser fentanilo digital: va apagando la voluntad, la atención y el sentido del propósito" trabajo, en la educación, y hay riesgo en saber quiénes somos, en recordar cuál es nuestro propósito. Me preocupa que con la redes sociales hay riesgo de perder esto. Cuando navegamos durante horas en internet, uno se da cuenta que empieza a perder hasta el sentido de la voluntad. Este espejo que nos plantea la IA nos obliga a identificar qué es lo humano, cuál es la razón por la que hacemos las cosas, cuál es nuestra voz, cuál es nuestro libre albedrío. Esto es importante y vale para las personas, empresas o instituciones.
Todos debemos mirar con más atención, no funcionar en piloto automático manejado por la marea de la IA, sino bajo nuestra propia autonomía. -Desde la política, ¿ cómo ve el uso de la IA en fenómenos como el análisis de datos de votantes, modelos predictivos para definir qué decir o el uso de bots en redes sociales? -El problema de la política siempre ha estado en la construcción de la verdad, en la manipulación de ideas, la persuasión, los fanatismos contagiosos.
Hay una larga historia humana que habla de situaciones donde la sociedad se convence de cosas y al poco tiempo nadie entiende cómo todos estuvieron de acuerdo en algo tan absurdo. -¿ Ese fanatismo contagioso tiene en esta época un riesgo más alto de existir? -Hoy somos más vulnerables al fanatismo contagioso. En parte, porque en la comunicación política siempre ha existido una distancia entre lo que se piensa y lo que se dice: los políticos suelen decir aquello que la gente quiere escuchar. Sin embargo, antes cada candidato -y cada personahablaba con una sola voz. Hoy, en cambio, una misma persona puede tener múltiples voces: decir una cosa a alguien y algo distinto a otro según la red o el canal que utilice.
Esa maleabilidad permite ajustar el mensaje con una precisión mucho más afinada a lo que cada individuo quiere oír, lo que termina contaminando los vínculos y deteriorando la política. -¿ Cómo evalúa los usos menos persuasivos y más explícitos de la IA, como el control social, el reconocimiento facial o el monitoreo de protestas? -Siempre se han usado mecanismos para manejar, controlar o manipular la opinión pública. Eso no es nuevo. Lo que sí cambió es la escala: hoy existen herramientas enormes, porque las redes sociales no son nacionales, sino globales.
Los contenidos circulan sin fronteras y la manipulación puede operar desde múltiples lugares del mundo al mismo tiempo. -¿ Lo ve en el manejo de líderes mundiales? -Más allá de la política, hay algo que todavía no estamos mirando con suficiente atención: cómo la IA nos entumece, cómo puede convertirnos en verdaderos zombies digitales, especialmente a niños, niñas y adolescentes. El fenómeno es comparable al de ciertas drogas farmacológicas que anulan la voluntad. Basta ver lo que ocurre con el fentanilo en San Francisco, donde muchas personas han perdido por completo la capacidad de decidir y se han convertido, de alguna manera, en esclavos de esa sustancia. La IA puede convertirse en una especie de fentanilo digital: puede ir apagando la voluntad, la atención y el sentido del propósito. Las redes sociales no nos obligan con armas a pasar cuatro horas pegados a una pantalla, pero son igual de efectivas.
Precisamente porque no se perciben como un riesgo, pueden llevarnos a perdernos a nosotros mismos, a diluir nuestra identidad. "La IA es una mala solución para combatir la soledad" -¿ Cómo se conecta lo que usted describe con el escenario internacional actual, marcado por conflictos bélicos y organismos internacionales con menor capacidad de incidir en su resolución? -Hay un vínculo claro. Cuando ocurren fenómenos como los que estamos viviendo, tendemos a pensar que son inéditos, que nunca antes habían pasado. Pero no es así.
Charles Mackay lo estudió en «Memorias de extraordinarios delirios populares y la locura de las masas» (1841), donde analiza cómo sociedades enteras pueden convencerse de procesos que van desde las cazas de brujas, hasta teorías conspirativas y otras formas que hoy reconocemos como atrocidades. Esto tiene que ver con la condición humana: uno conoce mucho menos de lo que cree conocer. Cuando vemos una idea que alguien pone en un post, que puede ser atractiva, podemos convencernos muy rápido de la efectividad de esa idea.
Tenemos un deseo de sacar conclusiones muy rápido y el mejor ejemplo es, a mi juicio, cuando los fanáticos del mundial de fútbol se convencen de que estar sentados en el mismo sillón que el partido anterior, puede afectar positivamente el resultado que viene.
Es la exageración de algo que pasa todo el tiempo: convencerse de algo que no tiene ningún fundamento. -¿ Cuál es el antídoto? -El mismo que proponía el premio Nobel de Economía Daniel Kahneman (19342024): aprender a dudar, intentar mirar los problemas a través de los ojos de la otra persona. Vivimos excesivamente convencidos de nuestras propias ideas, y es justamente desde esa certeza donde germinan los fanatismos. El ejercicio de la duda -y el reconocimiento honesto de que, frente a problemas complejos, incluso teniendo una opinión, es sano vacilarconstituye una forma de defensa. Esa predisposición nos prepara mejor para resistir noticias falsas, mensajes confusos o narrativas que buscan arrastrar al rebaño. -¿ Qué opina del uso de la IA como ayuda psicológica? -Es un tema muy delicado. Existen múltiples estudios que muestran cómo la IA se está usando como una vía para indagar en conflictos personales o emocionales. El problema es que, muchas veces, las respuestas que entrega no ayudan y terminan profundizando el malestar. Esto revela una preocupación más profunda: la soledad, y en ese contexto la IA aparece como una mala solución. Y agrega: "Vivimos en un mundo con una enorme cantidad de vínculos rotos, con personas que no tienen a nadie que pueda velar por ellas. La soledad es un factor de riesgo real, y quienes la padecen tienden a tener una peor calidad de vida que quienes cuentan con redes de apoyo. Cuando una persona tiene con quién hablar, toma mejores decisiones: va al médico, se cuida, pide ayuda. Muchas crisis de salud pública vinculadas al calor extremo lo ilustran con claridad: personas mayores mueren durante olas de calor no porque falte información, sino porque nadie está ahí para recordarles que se hidraten. En ese sentido, no son muertes por calor, sino muertes por soledad. La vida mejora cuando alguien nos está mirando, cuando hay otro presente.
Y cuando no hay con quién hablar, la IA no puede ni debe ocupar ese lugar". -¿ Cómo evalúa las regulaciones actuales de la IA, especialmente aquellas orientadas a promover respuestas más éticas, como no incentivar la violencia o evitar que reemplace el contacto humano? -La IA está cada vez más regulada, pero la pregunta central sigue siendo: ¿ quién regula realmente? ¿ OpenAI, ¿Google? ¿ Un ente público? La IA opera bajo ciertos marcos, pero su comportamiento no es neutro ni fijo. Cada persona recibe una IA distinta según cómo responde.
Una misma plataforma puede volverse un día más amable, más aduladora o más crítica. ¿ Quién decide ese tono? Hoy, lo deciden los programadores y las empresas que la desarrollan. ¿ No debería ese tipo de decisiones estar en manos de comités éticos amplios, que integren profesionales de la salud, expertos en educación, juristas y representantes de distintas voces, sin conflictos de interés? En Australia ha tenido resonancia mundial una ley que asume que estas redes sociales se parecen a drogas adictivas y regula su consumo. Europa también tiene una ley regulatoria. -¿ Qué tipo de regulaciones deberían incorporarse? -La regulación tiene muchas capas y siempre coexisten.
Está la autorregulación individual, que es importante pero limitada; la familiar, como la de padres con hijos; la institucional, cuando un colegio prohíbe el uso del celular en clases; y finalmente la regulación social y pública, cuando una sociedad se pone de acuerdo, como ocurre con las normas del tránsito.
En la regulación individual aparece una idea muy interesante: el Pacto de Ulises, desarrollado por Jon Elster en «Ulises y las sirenas» (1979). Inspirado en la «Odisea», el concepto describe cómo una persona, en un momento de plena conciencia, decide ponerse límites para protegerse de una tentación futura que sabe que será difícil de resistir. Ulises, al enfrentarse al canto mortal de las sirenas, pide que lo aten al mástil para no sucumbir. Hoy el Pacto de Ulises es simple: si quiero estar con mi familia o amigos, dejo el teléfono a un lado o en silencio. Así me anticipo a la tentación y puedo estar realmente presente. Esa tambien es una forma concreta y efectiva de regularnos.
La IA está cada vez más regulada, pero la pregunta central sigue siendo: ¿ quién regula realmente? ¿ OpenAl, ¿Google? ¿ Un ente público? La IA opera bajo ciertos marcos, pero su comportamiento no es neutro ni fijo". Más allá de la política, hay algo que todavía no estamos mirando con atención: cómo la IA nos entumece, cómo puede convertirnos en verdaderos zombies digitales, especialmente a niños, niñas y adolescentes". Autor: Mariajosé Soto.