Tanto los niños como los adolescentes deben participar en el diseño de la IA
Estudio de la U. De Cambridge (Reino Unido) pone foco en este grupo etario: Cada vez los jóvenes emplean más los chatbots, como Chat GPT, por ejemplo. Sin embargo, estas herramientas pueden entregarles información errada o potencialmente perjudicial. El llamado es a incorporar sus voces en la creación de estos sistemas y fortalecer la educación digital. ANNA NADOR Niños y adolescentes utilizan la inteligencia artificial en la cotidianidad, pero hay riesgos en su uso, sobre todo al emplear chatbots. Así lo establece una nueva investigación de Nomisha Kurian, académica de la U. De Cambridge (Reino Unido), quien propone vías para mejorar la seguridad de estas herramientas. “Los niños interactúan con chatbots cada vez con más frecuencia.
La organización estadounidense Common Sense Media descubrió que el 50% de los estudiantes de entre 12 y 18 años afirma haber utilizado Chat GPT para el colegio, pero solo el 26% de los padres dice saber que su hijo lo ha hecho. Así que los niños suelen interactuar con chatbots de formas en las que los adultos no somos conscientes”, dice Kurian a “El Mercurio”. Esta también es una realidad nacional.
La Séptima Radiografía Digital de Niños, Niñas y Adolescentes —realizada por Claro VTR junto a la consultora Criteria— mostró que la mitad de los estudiantes chilenos usa la IA para sus tareas, y también empiezan a utilizarla para entretenerse. “Los jóvenes hoy día utilizan Chat GPT o cualquier otra aplicación de IA para generar sus propios contenidos, para ayudarse en las tareas, para preguntar cosas. Hacen una utilización similar a la que hacen los adultos”, señala puede ser un aliado increíble paralos niños cuando se diseña teniendo en cuenta sus necesidades. Un ejemplo de una TA de este tipo es Pinwheel GPT", dice Kurian. El chatbot, con versión gratuita y pagada, está disponible en diversos idiomas incluyendo español y los padres pueden monitorear el uso de sus hijos. Ana María Castillo, codirectora del Núcleo de Inteligencia Artificial y Sociedad de la U. De Chile y académica de la U.
Internacional de Cataluña (España). El problema, explica Kurian, es que los grandes modelos de lenguaje, que están detrás del funcionamiento de los chatbots, tienen una “brecha de empatía”. Es decir, aunque cuentan con notables capacidades lingúísticas, pueden manejar mal los aspectos abstractos, emocionales e impredecibles de la conversación. Al mismo tiempo, los niños tienden a confiar en un chatbot como si fuera un amigo, dice. Estos factores llevan a riesgos en la interacción. “La herramienta puede equivocarse, sobretodo considerando que los niños aún se están desarrollando lingúísticamente y a menudo utilizan frases ISTOCK inusuales o ambiguas. Si el sistema da un resultado confuso o frustrante, el niño puede tener menos resiliencia para enfrentarse a ello que un adulto”, explica.
Asimismo, “cuando se trata de situaciones delicadas —teniendo en cuenta que los niños suelen ser más propensos que los adultos a confiarles a estos sistemas información personal—, podría producir una respuesta que no es apropiada”, añade. En su estudio alude a una investigación en la cual los autores pusieron a prueba el chatbot “My Al” de la aplicación Snapchat, pretendiendo ser adolescentes. La herramienta les entregó consejos sobre cómo ocultar alcohol y drogas, entre otras sugerencias potencialmente perjudiciales. Si bien la empresa respondió implementando medidas de seguridad, la idea es ser proactivos, considera Kurian.
En ese sentido, recomienda que los desarrolladores de software incluyan las necesidades de los niños (el lenguaje que utilizan, sus preferencias, lo que quieren obtener de la tecnología y lo que les ayuda a sentirse seguros) en todo el ciclo de diseño de estos sistemas y que desde la política pública la alfabetización enl A se convierta en una parte fundamental del currículum, desde los cinco o seis años. Mientras que los padres deberían tener conversaciones sobre el uso que le dan sus hijos a esta tecnología, explicándoles los riesgos, entre otros ejes. Con ella coincide Castillo: “Es clave la inclusión de las voces de los jóvenes y de las organizaciones representantes de la infancia en el diseño de la LA. Se requiere que todas las tecnologías tengan en su base la defensa y la protección de la infancia y los derechos de los niños y jóvenes”.