Daniela Alegría: “Nos dirigimos hacía un mundo de personas más aisladas”
Daniela Alegría: “Nos dirigimos hacía un mundo de personas más aisladas” Filósofa Daniela Alegría: "Nos dirigimos hacía un mundo de personas más aisladas" Muriel Alarcón MO puede un robot cuidar de la misma manera que lo haría una amiga? La filósofa Daniela Alegría, doctora en Filosofía por la Universidad Complutense de Madrid y la Pontificia Universidad Católica de Chile, lleva tiempo obsesionada con esta y otras preguntas. Experta en ética del cuidado, Alegría ha encontrado en la llegada masiva de la inteligencia artificial un terreno fértil para replantear las relaciones humanas en un mundo cada vez más digitalizado.
Aunque con frecuencia responde con más preguntas que certezas, su voz se ha vuelto recurrente en foros, publicaciones y eventos académicos para abordar cómo se redefinirá el cuidado con máquinas ocupando roles tradicionalmente humanos. "Podemos proteger a un hijo de un daño pero solo si nos preocupamos realmente por él.
Es decir, si somos sensibles y conscientes de sus necesidades particulares, sabremos de sus necesidades particulares, sabremos de sus necesidades particulares, sabremos La académica reflexiona sobre cómo la ética del cuidado puede ayudar a cultivar la humanidad en un planeta cada vez más digitalizado. cuándo y cómo cuidar de él", dice Alegría desde el Tavelli en el Drugstore de Providencia. "Entonces, uno podría pensar: si tengo un robot, ¿también voy a esperar algo así de él? ¿ Le voy a dar un nombre? ¿ Voy a esperar que me entienda? Uno empieza a pensar cómo va a ser ese tipo de relación en el futuro". Asus 36 años, Alegría es académica en la Universidad Alberto Hurtado, directora del diplomado "Cuidados con Perspectiva de Género" en la misma casa de estudios y coautora, junto a la abogada Lieta Vivaldi, del libro "Reflexiones feministas sobre los cuidados" de LOM Ediciones.
El mismo que fue presentado meses atrás por la expresidenta Michelle Bachelet. "Con Lieta nos preocupamos de hacer un libro que analizara los cuidados de distintas perspectivas", dice Alegría de un volumen que reúne ensayos donde se abordan los cuidados desde disciplinas filosóficas, jurídicas y políticas, y también desde testimonios de cuidadoras, profesionales de la salud, activistas de movimientos sociales y la salud, activistas de movimientos sociales y la salud, activistas de movimientos sociales y z 1S 1] E3 3 2 ES 5 feministas.
La investigación de Alegría en ética del cuidado está marcada por la teoría desarrollada en los ochenta por la psicóloga estadounidense Carol Gilligan, pionera en estudios de género en la Universidad de Harvard, conocida por su crítica al modelo de desarrollo moral de Lawrence Kohlberg. Gilligan propone una perspectiva basada en la ética del cuidado, que resalta la importancia de la empatía, las relaciones y la responsabilidad en la toma de decisiones morales.
Durante su doctorado, Alegría se planteó una pregunta radical: ¿ Es posible ser imparcial con nuestros seres queridos? En ese cuestionamiento la teoría de Gilligan cobró especial relevancia. "La ética del cuidado viene a criticar los sistemas éticos dominantes; es una ética a la que leimporta la identidad y los proyectos de vida del otro", afirma. Hoy, Alegría lleva su investigación a nuevas fronteras al explorar de manera teórica los "robots cuidadores". "Generalmente pensamos en el cuidado como algo circunscrito a nuestro núcleo cercano: nuestros familiares y amigos.
Pero, ¿y si expandimos esa idea? Me interesa entender qué ocurre cuando el cuidado se desplaza hacia lo tecnológico. ¿Y si entendemos el cuidado como una responsabilidad que abarca a las personas, los animales no humanos, la democracia y el mundo en general?", plantea. mundo en general?", plantea. mundo en general?", plantea. mundo en general?", plantea. mundo en general?", plantea. "Muchos jóvenes que interactúan con chatbots presentan altos niveles de depresió" --+¿ Por qué es tan importante mirar el. Daniela Alegría: “Nos dirigimos hacía un mundo de personas más aisladas” mundo desde los cuidados? --El cuidado transforma la manera en que entendemos el mundo. Vivimos en sociedades competitivas, obsesionadas con el éxito, que promueven la idea de un sujeto aislado e independiente. Pero el cuidado nos recuerda algo fundamental: somos vulnerables e interdependientes porque dependemos unos de otros para vivir en comunidad. Todos hemos sido cuidados, estamos cuidando o cuidaremos a alguien en el futuro.
El cuidado no es un concepto nuevo, pero hoy cobra una nueva relevancia como una forma de entender nuestra interconexión. --¿ Por qué es fundamental abordar el cuidado desde una perspectiva de género? --Históricamente, las mujeres han asumido la mayor parte de las labores de cuidado de los niños, los enfermos y a adultos mayores, frecuentemente a costa de sus propios proyectos de vida. Resulta imprescindible analizar el cuidado desde una perspectiva de género, o desde lo que podríamos llamar un cuidado feminista. Este enfoque visibiliza cómo las mujeres han estado desproporcionadamente cargadas con estas responsabilidades y plantea la necesidad de redistribuirlas equitativamente.
El feminismo propone que el cuidado no solo debe ser compartido entre hombres y mujeres, sino que también respaldado por el Estado, las comunidades y el mercado, es decir, debe ser una responsabilidad colectiva. --Ud. investiga a los robots cuidadores. En un mundo donde las relaciones con robots son cada vez más comunes, ¿qué nos diferencia fundamentalmente de ellos? --Nuestra agencia moral. Los seres humanos somos responsables de nuestras acciones y de las decisiones que tomamos. Me parece difícil que podamos delegar en los robots esta capacidad de responsabilidad moral.
Pareciera ser que los robots están simplemente ejecutando algoritmos programados pero que no entienden realmente lo que están haciendo. --¿ Qué opina sobre que cada vez más personas recurran a ChatGPT u otros chatbots para asistencia psicológica? --Es un fenómeno muy llamativo. Por un lado, se podría argumentar que estas herramientas ofrecen una solución parcial ante la escasez de doctores, psicólogos y psiquiatras. En países como Estados Unidos, por ejemplo, pueden ser útiles para brindar apoyo inicial a jóvenes en crisis o a personas que necesitan ayuda inmediata y no tienen acceso a profesionales de la salud mental. Sin embargo, también hemos observado que estos chatbots presentan problemas significativos.
No cuentan con la capacidad de empatía ni con el juicio humano necesario para manejar situaciones complejas, lo que puede generar riesgos. --+¿ Por qué cree que los jóvenes recurren cada vez más alos chatbots? ¿ Qué los atrae de estas interacciones? --Por la soledad. Muchos adolescentes y también adultos se sienten incomprendidos o desconectados de quienes los rodean, dos o desconectados de quienes los rodean, y los chatbots parecen ofrecer un refugio.
En Character Al, donde los usuarios pueden interactuar con personajes históricos o ficticios, ya hemos visto casos trágicos, como el de un adolescente de 14 años en EEUU que se quitó la vida tras una interacción con uno de ellos. Esto está relacionado con la adicción que generan en jóvenes aislados.
Aunque dicen querer pasar solo un par de horas al día en estas plataformas, terminan invirtiendo ocho horas o más, incluso durante la noche o fuera del colegio. --¿ Cómo explica que un ser humano sienta amistad o amor por un chatbot si no hay un vínculo recíproco? --Uno puede enamorarse de alguien sin que haya reciprocidad. Aquí podría ocurrir lo mismo. Vemos que muchos jóvenes que interactúan con estos chatbots presentan altos niveles de depresión y desarrollan interacciones compulsivas con ellos. Pasan mucho tiempo ahí, desarrollando un fuerte apego y dependencia emocional. Además, e bastante angustiados, con altos niveles de ansiedad.
Quizás esto también tenga relación con la pandemia: muchos jóvenes seacostumbraron al aislamiento y ainteractuar solo a través de redes sociales o internet, y ahora les cuesta mucho más integrarse al mundo. --¿ Lo más perjudicial de desarrollar relaciones irreales? --No hay conflictos, puntos de encuentro ni un equilibrio entre las partes. Es solo una interacción unidireccional programada para decir lo que quieres escuchar. Puede ser muy dañino. Estas interacciones también están vinculadas al fenómeno de las conexiones parasociales, donde las personas desarrollan la ilusión de un vínculo emocional con celebridades, influencers o, en este caso, chatbots. Estas conexiones unilaterales no reemplazan las relaciones reales y agravan la sensación de aislamiento, creando un ciclo difícil de romper. to, creando un ciclo difícil de romper. to, creando un ciclo difícil de romper. Preguntarle todo al chat --En algunos países se está prohibiendo el uso de los celulares hasta los 14 años. ¿Qué le parece esa medida? --Me parece bien. Yo tuve acceso a internet cuando ya era más grande. Cuando era niña jugaba con mis vecinos, tenía mucha interacción: pelear, jugar, reír, etc., cosas que ayudan mucho en el desarrollo. Hoy vemos a los jóvenes jugar en internet sin saber quién está del otro lado. No hay un vínculo real, solo juegan con alguien más. Por ejemplo, cuando yo quiero consultar algo, llamo a mi mamá y le pregunto: "Mamá, ¿cómo era la receta?" Ellos no, buscan un tutorial. Viven de otra manera. Si tengo un problema, llamo a mi marido o a mi mejor amiga y les pregunto: "¿ Qué hago?" Ellos, en cambio, le preguntan al chat. Eso es problemático y tiene consecuencias tanto para ellos como para la sociedad en general --+¿ Qué es lo más perjudicial? --Que nos dirigimos hacia un mundo de personas más aisladas. Por eso me interesa tanto la ética del cuidado.
No deberíamos ser individuos aislados, sino personas interdependientes, que necesitan y mantieinterdependientes, que necesitan y mantieMe parece difícil que podamos delegar en los robots esta capacidad de responsabilidad moral". No somos realmente conscientes de todos los problemas que la lA trae. Confiamos demasiado en sus beneficios, pero de una manera muy simplista". nen contacto con los demás, que se ayudan entre sí.
Es una nueva manera de entender el mundo, pasando de un sujeto aislado, independiente y autónomo a una visión más conectada y comunitaria. --Hoy parece cundir un llamado a abrazar las nuevas tecnologías por distintas razones, entre ellas la eficiencia. En ese contexto, ¿cómo podemos volvernos más humanos? --Volviendo a interactuar con los demás. También siendo escépticos, porque veo, por ejemplo, que muchos colegas están muy entusiasmados con la inteligencia artificial y quieren digitalizarlo todo. Sin embargo, también debemos considerar los problemas y darnos cuenta de que, en realidad, esta es una herramienta útil en ciertos momentos, pero no para todo. Hay universidades que la integran en sus pruebas. Yo diría que hay que incorporarla, pero con una medida justa. --¿ Cuál sería esa justa medida? ¿ Qué no deberíamos olvidar en la integración? --Pensar por nosotros mismos. No se trata solo de leer una respuesta y asumir que es correcta. Si vamos a usar este tipo de herramientas, debemos preguntarnos: ¿ lo que nos dice es cierto? Si no conozco un concepto, lo investigo, lo contrasto, etc. Se trata de ampliar nuestra perspectiva.
Puede que me ofrezca un punto de vista que no conocía y que me resulte útil o no, pero no debemos quedarnos cegados por la inteligencia artificial. --¿ Cómo cree que nos relacionamos hoy con la 14? ¿ Cuál es su diagnóstico? --No somos realmente conscientes de todos los problemas que la IA trae. Confiamos demasiado en sus beneficios, pero de una manera muy simplista. Escucho mucho sobre la idea de que debemos dotar a los robots de buenos principios éticos y evitar sesgos, pero la filosofía moral no se reduce a eso; es mucho más amplia. Por ejemplo, la ética del cuidado ni siquiera se basa en principios fijos. Me parece llamativo que, si una persona camina por la calle y ve a un niño ahogándose, percibe exactamente eso: un niño en peligro. En cambio, una lA podría ver simplemente un cuerpo que se hunde. Son cosas distintas. Una persona actuará y pensará de otra manera. Tiendo a pensar que la moralidad es mucho más rica y compleja de lo que la conciben quienes desarrollan IA. La ética no se reduce solo a principios. --¿ Qué hay en la amplitud? --La deliberación moral. En una situación, hay distintos elementos relevantes, como el contexto, quién es la otra persona y cuál es mi relación con ella. Por ejemplo, si veo a un niño ahogándose en el mar, tal vez no sé nadar y, si entro al agua, podríamos morir ambos. O quizá pueda llamar a alguien que sí pueda rescatarlo. Cada situación implica evaluar distintos factores. Un robot con lA no tiene esa capacidad de deliberación moral; está programado para actuar de una manera específica. En cambio, nosotros podemos identificar más elementos relevantes y considerar más alternativas..