Estudio advierte sobre los riesgos de usar IA para consejos médicos
Estudio advierte sobre los riesgos de usar IA para consejos médicos M.
CORDANO Y EFE Los modelos de lenguaje de gran tamaño (LLM) basados en inteligencia artificial (IA) suponen un riesgo para quienes buscan asesoramiento en temas de salud, porque tienden a dar información inexacta e inconsistente, concluye un estudio del Oxford Internet Institute publicado en Nature Medicine. En el último tiempo, diversos proveedores de salud a nivel mundial han propuesto los LLM como potenciales herramientas para realizar evaluaciones de salud preliminares y gestionar afecciones antes de acudir a un médico.
Para testar esta capacidad, los autores evaluaron si estos podían ayudar a los ciudadanos a identificar con precisión problemas como un resfriado, anemia o cálculos biliares, y a decidir si debían ir a SNOMMOCEVITAERC / KIPEERF su médico o a un hospital. El ensayo sumó casi 1.300 participantes: mientras un grupo usó un LLM para asistir sus decisiones, otro utilizó fuentes de información tradicionales, como consultar en internet o confiar en su propio juicio. El estudio reveló que quienes usaron la IA no tomaron mejores decisiones que el resto. Tras repasar las interacciones entre humanos y LLM, el equipo descubrió fallos importantes en la comunicación en ambas direcciones: a menudo los participantes daban poca información o entregaban datos incompletos al modelo. A su vez, los LLM generaban información engañosa o errónea, con recomendaciones que mezclaban consejos buenos y malos. Así, se concluyó que los chatbots de IA actuales no están listos para ser implementados en la atención directa al paciente. “Lo que hacen es producir información, pero no tienen la capacidad de necesariamente evaluar la validez de las fuentes”, advierte Cynthia Zavala, directora de la Escuela de Medicina de la U. Andrés Bello. “La preocupación por temas de salud habitualmente surge de una manifestación física o psíquica real.
Si esta ya despierta la suficiente inquietud como para consultar, lo mejor es hacerlo con alguien que va a poder evaluar de manera integral, que va a poder contrapreguntar las cosas relevantes para hacer diferencias diagnósticas.
En una conversación con un LLM puede haber preguntas, pero el sistema no te examina”, agrega.. Quienes la utilizan para decidir la gravedad de una afección no toman mejores decisiones que quienes recurren a internet o confían en su propio juicio, concluye. Investigación de la U. de Oxford: Los hallazgos resaltan la dificultad de construir sistemas que apoyen a las personas “en áreas sensibles y de alto riesgo como la salud”, dijo la investigadora Rebecca Payne.