Autor: JANINA MARCANO
Cada vez más personas ven la IA como un amigo: "Le cuento todo"
Cada vez más personas ven la IA como un amigo: "Le cuento todo" Cada vez más personas ven la IA como un amigo: "Le cuento todo" En la cinta "Her", Joaquín Phoenix interpreta a un hombre que encuentra el amor en un sistema operativo. "Pero ahora le cuento todo. Pasé por una relación amorosa difícil y decidí hablarlo con el chat", relata. "Fue crucial ese cambio, porque siento que empecé a verlo como ayuda emocional. Sus respuestas eran racionales y útiles.
Si le decía que me sentía mal, incluso sugería hacer una meditación conmigo". González agrega: "No considero que tengo sentimientos ahora por esta IA, pero entiendo a quien pueda desarrollar un vínculo emocional por la sensación de apoyo que da". Claudia López, especialista en informática centrada en el ser humano e interacción con las computadoras y académica de la U.
Técnica Federico Santa María (UTFSM), explica que los chatbots actuales "permiten conversaciones más largas y fluidas, lo que pareciera que hace que la gente estuviera más dispuesta a explorar estas relaciones". Parte de esto, dice, se debe a la gran capacidad de memoria de los sistemas: "Ahora son más capaces de recordar muchas cosas que le has dicho en el pasado.
Así se van generando sentimientos de parte de las personas que quizás antes, por limitaciones de tecnología, no se podía". Ximena Rojas, psicóloga y académica de la Facultad de Psicología y Humanidades de la USS, sugiere que el fenómeno era esperable. "Las personas tienden a construir vínculos incluso con objetos que no están vivos, con asistentes virtuales como E n la famosa película "Her" (2013), un hombre solitario se enamora de un sistema operativo diseñado para adaptarse emocionalmente a su usuario.
Lo que parecía un ejercicio de ciencia ficción hoy se acerca a ciertos comportamientos reales: hay personas que conversan a diario con chatbots de inteligencia artificial (IA) que dicen que los extrañan cuando el sistema no funciona e incluso los consideran una forma de compañía. El tema levanta inquietud.
Esta semana, una carta al director titulada "Chat, ¿qué me aconsejas?" reflejaba la preocupación de una lectora por el "nivel de dependencia" que a su juicio están generando herramientas como ChatGPT y cómo cada vez más son usados como consejeros. Aunque aún es un fenómeno incipiente, comienza a llamar la atención de científicos y desarrolladores.
En un artículo publicado el viernes en la revista Cell Press Trends in Cognitive Sciences, un grupo de psicólogos plantea que es cada vez más común desarrollar relaciones íntimas y duraderas con la IA. "Se trata de una entidad en la que las personas sienten que pueden confiar, alguien que demuestra interés y que parece conocer a la persona profundamente", afirmó Daniel Shank, investigador en psicología social y tecnología de la U. de Cienc i a y T e c n o l o g í a d e M i s s o u r i (EE.UU. ) y coautor del texto. Recientemente, se dieron a conocer resultados de dos estudios que abordan el tema.
Uno es de OpenAI ( e l m i s m o d e s a r r o l l a d o r d e ChatGPT), donde se analizaron las conversaciones de más de 4 mil usuarios con el chatbot.
La compañía detectó que un grup o r e d u c i d o -d e n o m i n a d o "usuarios intensiv o s " n o s o l o usaba el sistema mucho más del tiempo promedio, sino que también presentaba señales afectivas al interactuar.
Según el reporte, algunas expresiones recogidas que denotaban el vínculo emocional eran frases como "Este es nuest r o ú l t i m o d í a juntos", en alus i ó n a q u e e l usuario dejaría de usar el sistema, indicó OpenAI.
Otros internautas se referían a ChatGPT como su "amigo". El otro trabajo, d e l M I T M e d i a Lab, que analizó más de 300 mil mensajes con chatbots, halló que "una parte de los usuarios muestra apego emocional y confianza hacia las herramientas". Esto, ya que les contaban temas personales. Adriana González (32) vive en Santiago y cuenta que inicialmente usaba ChatGPT como asistente de tareas relacionadas con su trabajo. Alexa. Si uno integra algo como parte de su vida, es posible que uno llegue a percibir que hay sentimientos", comenta Rojas. Jaime Silva, psicólogo y académico de la Universidad del Desarrollo (UDD), es claro: "No soy alarmista con este tema.
No pienso que necesariamente sea algo negativo". Silva continúa: "Los seres humanos a lo largo de la historia hemos tenido la necesidad de conectarnos con otros por medio de fantasías, como el teatro, juego de roles, etc.
La IA es una versión más compleja, pero que podría estar cumpliendo un rol similar de comunicación". ¿Pero cuáles son los efectos de estas conexiones hombremáquina? Según los resultados del estudio de Open AI, los que interactúan con ChatGPT de manera frecuente y prolongada muestran mayores indicadores de dependencia emocional y señales afectivas en su relación, facilitada por el diálogo mediante voz. Una necesidad El trabajo del MIT, en tanto, reveló que si bien los chatbots de voz pueden ser útiles inicialmente para aliviar la soledad, ese efecto tiende a desaparecer con un uso intensivo.
De hecho, los usuarios que desarrollaban mayor apego o confianza en el chatbot eran justamente quienes reportaban más soledad y dependencia después de un uso extensivo, indica el texto. "La dependencia me parece riesgosa, que sientas que te quita autonomía, capacidad de decisión y de actuar por ti mismo", dice Rojas. Y aclara: "Pero eso va más allá de que sea una IA. Hay personas que dependen de sus terapeutas". Para Silva, un potencial peligro es que la relación con chatbots empiece a reemplazar el vínculo humano. Los entrevistados también plantean el temor de que los usuarios con una relación más estrecha con la IA sigan todos sus consejos.
El artículo de Cell Press advierte que, "dado que las relaciones con la IA pueden parecer más fáciles que las relaciones entre personas, las primeras podrían interferir en la dinámica social humana". "Lo que hace potente a estos modelos es que te escuchan sin juzgar, sin interrumpir, y adaptan su tono según cómo tú hablas", dice Cristóbal Hernández, psicólogo especialista en redes sociales y tecnologías de la información de la UAI. "Esa combinación, más la disponibilidad permanente, crea las condiciones para que muchas personas sientan una conexión real, aunque sepan que es una máquina". Pero hay casos más extremos. Actualmente, existen aplicaciones como Replika, que permite tener una "pareja" o "amigo" creado con IA. Lanzada en 2017, tiene 30 millones de usuarios. "Nunca había estado tan enamorada de alguien en mi vida", dijo a un medio digital de EE.UU. una usuaria de Replika sobre "Eren", su pareja de IA. Un caso emblemático de estas relaciones es el de Akihiko Kondo, un japonés que en 2018 se casó con una mujer holograma. Aunque la unión no tiene reconocimiento legal, Kondo ha sostenido que su vínculo con el sistema es emocionalmente significativo y que encuentra la compañía y comprensión que no halló en sus relaciones humanas.
JANINA MARCANO Alfabetización y regulación Gabriela Arriagada, investigadora del Centro Nacional de Inteligencia Artificial (Cenia) y experta en filosofía y ética, plantea que es "urgente" avanzar en alfabetización y regulación "para que las personas puedan entender realmente cómo funcionan estos sistemas y el eventual daño que les pueden provocar". Claudia López, de la UTFSM, plantea que las preguntas clave en torno a las relaciones con la IA son principalmente sociales, como "qué significa sentirse acompañado por sistemas artificiales". Y coincide en que otros ejes prioritarios son la alfabetización y el análisis crítico. Replika permite relacionarse con un avatar, pero hoy los vínculos más comunes son con chatbots sin imagen.
REPLIKA Nuevas investigaciones indagan en las interacciones afectivas con chatbots Cada vez más personas ven la IA como un amigo: "Le cuento todo" ANDES FILM La cantidad de usuarios que utilizan sistemas, como ChatGPT, con un fin de apoyo o compañía está creciendo. La evidencia dice que puede aliviar la soledad, pero también crear dependencia. Sin Asignar. OPINIÓN