“Los datos con los que entrenamos la Inteligencia Artificial traen los sesgos de las personas que toman decisiones”
“Los datos con los que entrenamos la Inteligencia Artificial traen los sesgos de las personas que toman decisiones” El parlamentario radical es el autor del primer proyecto de ley en la materia y que se fusionó con el presentado por el Ejecutivo.
PATRICIA REY on algo de pudor, pero también C con cierto orgullo, el diputado Tomás Lagomarsino (Partido Radical) contó cómo le fue en Buenos Aires, donde asistió como uno de los invitados especiales a una cumbre regional de parlamentarios sobre Inteligencia Artificial, para abordar los desafíos que deben enfrentar los países ante los cada vez mayores usos de la TA y su constante evolución.
Lagomarsino ingresó en abril de 2023 la iniciativa que busca regular la materia en Chile y que ahora se fusionó con la que presentó el Ejecutivo en mayo de este año, y que se discute en la comisión de Ciencia y Tecnología. "En Chile buscamos regular y los demás países de América Latina nos están observando porque estamos a la vanguardia en la materia, buscando resguardar las garantías constitucionales, pero sin desincentivar la inversión, la innovación ni el avance de esta tecnología.
Me sentí un poco rock star, jaja, no lo digo por ser petulante". Usted habla de "establecer un área de soberanía digital para los sistemas de inteligencia artificial" en Chile. ¿Qué significa? "Los usos de sistemas de inteligencia artificial en internet son inabordables. Están disponibles y cualquiera puede utilizarlos como guste.
El proyecto busca regular las aplicaciones que hacen entidades en territorio chileno (Estado, empresas, personas). Hay gente que dice que no se pueden regular los sistemas de IA, porque están en la nube, pero, por ejemplo, sí se puede regular cuando los bancos utilizan IA para decidir si se otorga o no un crédito a una persona; o sistemas de IA empleados en el ámbito médico o dispositivos médicos, como los que se usan para informar mamografías, que hay un plan piloto en Chile". LalA puede abarcar muchos campos, ¿cómo se pueden resguardar los derechos y establecer deberes bajo una sola ley? "Este proyecto tiene complejidades porque hay tantos usos de IA como hay personas tomando decisiones. Es lógico personas tomando decisiones.
Es lógico Diputado Tomás Lagomarsino explica la categoría IA "de riesgo alto" "Los datos con los que entrenamos la Inteligencia Artificial traen los sesgos de las personas que toman decisiones" de las personas que toman decisiones" de las personas que toman decisiones" que todavía no pueden ser aplicados en todo ello porque las TA todavía están en desarrollo, pero en la medida que hay avances significativos, se puede utilizar un sistema de IA en todo lugar donde hoy existe una persona tomando una decisión". ¿Qué significa lA de riesgo inaceptable e lA de alto riesgo, según el proyecto de ley? "Según el estándar europeo, en que se basó nuestro proyecto de ley, hay una pirámide de riesgo inaceptable, alto riesgo y bajo o mínimo riesgo. Por ejemplo, en la comisión de Ciencias recibimosa un emprendedor chileno que tiene "Los usos de sistemas de inteligencia artificial en internet son inabordables", dice Lagomarsino. Lagomarsino. MOISÉS MUÑOZ un sistema de IA que permite clasificar nueces según su calidad.
Ese es un uso de IA que no requiere regulación, es de mínimo riesgo, no debemos regularlo porque el mismo mercado hará que los agricultores adquieran esta IA de acuerdo a su efectividad". ¿Cuál sería de alto riesgo? "Un ejemplo de alto riesgo, cercano a mí, por mi profesión de médico, son los utilizados en el sector salud, porque las decisiones que toman los sistemas de IA se basan en los datos con los cuales son entrenados.
Un ejemplo: en Corea del Sur, un hospital está desarrollando un piloto para que mediante los datos clínicos de pacientes hospitalizados se pueda pronosticar su evolución y esto facilita el trabajo del personal médico, pero los datos con los cuales se entrena este sistema de IA son de pacientes coreanos, ese sistema con esos datos no podría ser aplicable a población chilena.
El Estado debe garantizar que los datos con los que son entrenados los sistemas de TA no lleven a decisiones riesgosas o discriminatorias". Se comenta mucho de los sesgos humanos que pueden aprender las máquinas. "Los datos con los que entrenamos la TA traen los sesgos de las personas que toman decisiones, por ejemplo, un sistema de IA que selecciona personas para postular a créditos hipotecarios o de consumo, podría llevar a discriminaciones por género u otras razones que pueden ser arbitrarias. Otro caso descubierto en Gran Bretaña fueron los sesgos de raza, género, situación socioeconómica, que utilizaba el sistema de IA de una universidad para seleccionar el ingreso de estudiantes.
Ya hay estudios que revelan los sesgos en distintas áreas que tienen las personas y que están utilizando sistemas de IA en distintas áreas". ¿Qué se puede hacer ante esto? "Nosotros hemos creado mecanismos de resguardo para que esos sesgos sean contenidos y resguardados en un Estado de derecho y con garantías constitucionales. Eso mismo se tiene que hacer con los sistemas de TA". ¿Cómo se aborda la protección de datos personales? "La IA requiere una regulación independiente a la de protección de datos personales. El proyecto de IA no puede ver la luz antes de la modificación a la ley de protección de datos personales, en un requisito sine qua non. La IA trasciende por sobre los datos personales, que son datos que no deberían ser públicos y es importante resguardarlos.
En la IA es importante resguardar que sea alimentada correctamente con datos públicos para que tomen buenas decisiones". ¿Cuáles son las posibles transgresiones a los derechos fundamentales de las personas por la lA? "Todo lo que es libertad de expresión, derecho a no ser discriminado, derecho a la honra, sobre todo a través de las deepfakes (video, imagen o audio generado por TA que imita la apariencia y el sonido de una persona), la propiedad intelectual que los sistemas de TA pueden replicar". ¿A propósito de las deepfakes, cómo las aborda el proyecto? "Lo hace desde la transparencia, que las aplicaciones de IA estampen un membrete, marca de agua u otro elemento que permita identificar que el material fue producido mediante sistemas de IA. Este es un desafío mundial"..