Autor: V.B.V.
El 21% de los latinoamericanos habla con chats de inteligencia artificial cuando se siente triste
El 21% de los latinoamericanos habla con chats de inteligencia artificial cuando se siente triste veces compartir el dolor o la causa del A decaimiento hace que esa carga sea menos pesada, ya que al sociabilizar el malestar es posible verlo desde un ángulo distinto al propio y, quizás, encontrar una solución.
Pese a ello, quizás porque cada vez es mayor el tiempo que se vive en internet, el 21% de los latinoamericanos admitió que le confía sus pesares a un chatbot de inteligencia artificial (IA), lo cual puede ser peligroso, indicaron especialistas. La empresa global de ciberseguridad y privacidad digital Kaspersky encuestó durante noviembre a 3.000 personas de Chile, Argentina, China, Alemania, India, Indonesia, Italia, Malasia, México, Arabia Saudita, Sudáfrica, España, Turquía, Reino Unido y Emiratos Árabes. Al centrar los resultados en Latinoamérica, el 21% afirmó que utiliza herramientas de IA cuando se siente triste o decaído.
La firma indicó que los usuarios "buscan hablar y sentirse escuchados", por lo que recurren al mundo digital "para expresar cómo se sienten, percibiéndolas como un entorno 'seguro' por su disponibilidad inmediata, la rapidez de sus respuestas y la ausencia de juicios o reacciones emocionales". Sin embargo, estas características de aparente "familiaridad" son las que "pueden llevar a compartir información personal con mayor confianza de la que se tendría en otros espacios", señaló el fabricante de antivirus, en referencia a los amigos o la familia.
Entre los jóvenes, a nivel global, la generación Z y los millennials lideran esta tendencia: 35% afirmó acudir a estas herramientas en momentos de malestar emocional, frente al 19% de las personas de 55 años o más, lo cual "refleja un cambio en la forma en que las nuevas generaciones gestionan sus emociones, en la que cada vez involucran más a las plataformas digitales", subrayó la compañía. Desde la misma llamaron a estar atento al "tratamiento de datos.
Esto implica que la información compartida, incluidas conversaciones sobre estados de ánimo o situaciones personales, puede almacenarse y analizarse para distintos fines, como la mejora de servicios o la personalización de experiencias para los usuarios". Por esto, además de no compartir datos de identidad ni bancarios, la firma aconsejó revisar la política de privacidad del sistema antes de iniciar una conversación. "ADULADORES" La investigadora de la Facultad de Ingeniería de la Universidad Católica (UC), Jocelyn Dunstan, advirtió que "los modelos como ChatGPT (o Gemini) no siempre tienen la razón, es necesario estar alerta y poder aplicar criterio a la hora de leer una respuesta.
El negocio de estos servicios es interactuar la mayor cantidad de tiempo posible, por lo que es rentable hacer la inteligencia artificial y otros sistemas, aduladores y cercanos". Pueden llevar a compartir información personal con mayor confianza que otros espacios. KASPERSKY FIRMA DE CIBERSEGURIDAD 3.000 PERSONAS fueron encuestadas en 15 países sobre la gestión de emociones en internet. 35% de la generación Z (nacidos entre mediados de los 90 y 2010) dijo usar IA. Autor: V.B.V.. Estos sistemas responden de inmediato, pero podrían almacenar datos para luego ofrecer servicios pagados o facilitar estafas. Pueden llevar a compartir información personal con mayor confianza que otros espacios. KASPERSKY FIRMA DE CIBERSEGURIDAD 3.000 PERSONAS fueron encuestadas en 15 países sobre la gestión de emociones en internet. 35% de la generación Z (nacidos entre mediados de los 90 y 2010) dijo usar IA. La soledad de la vida moderna lleva a que lo más cercano sean las aplicaciones en el celular.