Aconsejan evitar usar la IA para temas de salud mental
Aconsejan evitar usar la IA para temas de salud mental Sistemas se basan en estadísticas, no en la historia del paciente. Aconsejan evitar usar la IA para temas de salud mental ChatGPT y Gemini han tomado medidas frente a este tipo de conversaciones.
La Organización Mundial de la Salud (OMS) alertó a mediados del año pasado que "casi una de cada seis personas a escala mundial afirma sentirse sola", malestar que se da con mayor frecuencia "entre adolescentes y adultos jóvenes", una situación de la que Chile no es ajena, en un país donde abunda la oferta de departamentos de un ambiente o con un dormitorio Esto lleva a tener pocos espacios de conversación y para la intimidad, por lo que muchos recurren a chatbots de inteligencia artificial (IA) como Gemini o ChatGPT para expresar lo que no pueden decir en voz alta.
La psicóloga del Centro de Salud de la Universidad de Santiago (USACh), Isabel Puga, señaló que estos sistemas no reemplazan a la atención personalizada con un profesional de la salud mental, porque "cuando dos personas interactúan, se produce una sincronía donde el clínico no solamente escucha palabras, sino que 'resuena' con el estado emocional del otro". "Esta capacidad de sintonía permite que el paciente se sienta validado, algo que un algoritmo no puede experimentar ni transmitir de forma genuina", destacó la académica, pese a los intentos de las plataformas mencionadas anteriormente, que ahora identifican palabras relacionadas con autolesiones o suicidio.
Ambas responden con un leve consuelo y señalan el número de Salud Responde, 600 360 77 77, opción 1 para hablar con psicólogos las 24 horas del día, junto a la Línea de Prevención del Suicidio, del Ministerio de Salud: *4141. Puga destacó que "la IA trabaja con promedios y patrones generales.
Sin embargo, el sufrimiento humano es siempre singular y está anclado a una historia personal, familiar y social", porque "un profesional no sólo entrega una solución ya que, también, puede ayudar a construir un sentido para su vivencia.
La IA puede procesar información, pero no puede testimoniar el dolor ni comprender el peso de una biografía". 21% DE PERSONAS en Latinoamérica abre una IA cuando está triste, advirtió Kaspersky este año. 35% SON GEN Z o millennials, sostuvo la firma de seguridad, es decir, los que crecieron con internet..