Autor: Propuesta parlamentaria. El senador
“Deepfakes”: La amenaza de no poder detectar lo real de lo falso
“Deepfakes”: La amenaza de no poder detectar lo real de lo falso Karim Bianchi presentó una moción para sancionar con cárcel y multas a quienes generen este tipo de material. marcelo González cabezasInquietud y temor respecto de sus consecuencias han generado los denominados “deepfakes”, que son videos, imágenes o audios generados por medio de la Inteligencia Artificial (IA) que imitan la apariencia y la voz de una persona con tal precisión que pueden engañar tanto a las humanos como a los propios algoritmos.
Hasta hace poco parecía ciencia ficción, pero que ahora es real y puede ser hecho con facilidad, dado que, por ejemplo, en la red social “X” está disponible una función que permite crear “deepfakes”. Motivado por la posibilidade de que a partir de estas “imitaciones” se produzcan fraudes, engaños, timos, robos, noticias falsas y otros perjuicios, es que el senador independiente Karim Bianchi presentó una moción que busca sancionar a quienes en nuestro país generen y difundan imágenes privadas creadas con IA.
Tal iniciativa fue derivada a la Comisión de Constitución de la Cámara Alta, y plantea penas de reclusión menor (de 61 días hasta cinco años de cárcel) y multas económicas de hasta 500 Unidades Tributarias Mensuales ($33.714.500 de acuerdo al precio de a UTM en enero) para quienes resulten responsables.
El parlamentario de la Región Magallanes cree que “los deepfakes pueden ser utilizados con fines maliciosos, como difundir desinformación, cometer fraudes financieros yPROTEGIENDO CELEBRIDADESLas medidas que prepara YouTubeYouTube quiere poner fin a las reproducciones de celebridades, y lo hará mediante herramientas que identificarán las “deepfakes”. La plataforma de Google ha dado el primer paso al respecto, y anunció que está colaborando con la Creative Artist Agency para desarrollar una herramienta capaz de identificar estas representaciones sin autorización de personascomo cantantes, actores y deportistas, los cuales contarían con acceso al programa. Aún no hay una fecha concreta para que opere, pero sería en los primeros meses de este año. Entre las diferentes posibilidades planteadas están tanto un identificador de voces como uno destinado a analizar el parecido de sus rostros con el de figuras que se han generado mediante IA.
“Lo que se debe hacer es educar a la gente para que dude de todo lo que venga de una pantalla, e incluso dude de familiares y amigos pues todo puede ser falso”. JuLio RoJasEscritor y usuario de IA“Esto obliga a nuestra legislación a estar en constante perfeccionamiento.... Sólo se necesita de un click y de mala intención para perjudicar a muchos”. KaRim BianchiSenador independienterealizar ciberespionaje. Este y otros avances de la tecnología obligan a nuestra legislación a estar en constante perfeccionamiento, dado que antes era inimaginable que sucedieran este tipo de hechos, que hoy son posibilidades. Sólo se necesita de un click y de mala intención para perjudicar a muchos”. El senador advirtió además sobre las graves consecuencias que podría traer el mal uso de las herramientas digitales. “Un video editado en el que aparezcan presidentes declarando la guerra suena una barbaridad, pero hoy ello es posible y puede afectar relaciones diplomáticas y causar gravísimos daños.
Y otros videos menos graves pueden afectar a la honra y a la dignidad de las personas”. El guionista y escritor Julio Rojas se ha especializado enIA, al punto de que está terminando una novela basada en esta tecnología y ha reconocido que es usuario de ella en sus múltiples labores.
Y, desde su experiencia, analizó la nueva realidad que ha surgido por los “deepfakes”. “Hay una conjunción feroz, una especie de confluencia de elementos que hacen muy difícil que esto pueda pasar sin consecuencias Hasta ahora la realidad era la que nos proveían los sentidos, porque somos una especie que sobrevivió gracias a la habilidad de reconocer lo verdadero de lo falso, lo venenoso de lo sano y lo peligroso de lo seguro a través de los sentidos En un momento esa percepción original orgánica fue reemplazada por pantallas que representaban la realidad como mediadores, como una tecnologíade expansión de la realidad que permitía ver lo que sucedía en otras partes”, señaló el creador del popular podcast “Caso 63”. Según Rojas, “hoy con la IA generativa y a través de nuevos modelos, como el último Grok, un chatbot de X que casi no tiene censura, es posible generar imágenes muy realistas.
Y como la tecnología es exponencial, ello hace que cada vez sea más difícil detectar distintos tipos de engaños”. “De hecho, las aplicaciones surgidas a fines de 2023 han evolucionado mucho, por lo que al habar de ellas ya quedamos obsoletos Por eso se configura un escenario muy complejo, pues no es factible detectar lo real de lo que no lo es, y eso destruye la ciencia, la evidencia y la lógica Por primera vez en la historia se rompe el tejido de larealidad, y así no vamos a poder comprender qué pasa”. El creador precisó que “hay que apuntar a la regulación y a la autorregulación, pero la tecnología va más rápido Una buena opción es establecer validadores de realidad en una esquina de la pantalla, donde aparezca un código escaneable con el celular que indique que lo mostrado es verdadero o falso”. El escritor nacional puntualizó que “el problema es que esto no es regulado por una sola entidad, y además millones de personas pueden crear deepfakesdesde sus casas Lo que se debe hacer es educar a la gente para que dude de todo lo que venga de una pantalla, e incluso dude de familiares y amigos pues todo puede ser falso. Así, se va a tener que validar de nuevo el encuentro cara a cara”.. Tecnología.
Los videos, imágenes o audios generados con IA imitan con tal precisión la apariencia y la voz de una persona que pueden engañar a humanos y máquinas. rivada de la IA que pueden generar grandes daños. / GENTILEZA