El auge de los “Brain rot” y los riesgos de consumir videos falsos
El auge de los “Brain rot” y los riesgos de consumir videos falsos Macarena Saavedra Ledezma cronicaOmercurioantofagasta. cl esde un militar chileno D transmitiendo en vivo durante la Guerra del pacífico, el nacimiento de Jesús retratado por María, el papa Francisco convirtiendo el agua en vino junto a Jesús, hasta supuestos periodistas entrevistando a transeúntes sobre las próximas elecciones presidenciales esparte de losvideos generados con Inteligencia Artificial (A) que abundan en redessociales como Tiktoko Instagram. Setrata de un universo de imágenes aleatorias y surrealistasfalsas queinundan las redes mostrando una serie de personajesosituaciones catastróficas que, a pesar de ser generadas conIA, pueden llegara confundir y convencer a usuarios incautos.
Uno de los fenómenos que es posible encontrar en plataformascomo Tiktok es el denominado "brain rot", término que hace referencia al deterioro mental o intelectual relacionado al consumo excesivo de contenidos poco estimulantes y triviales en redes sociales. Asimismo, se relaciona con la sensación de fatiga mental y con el consumo de videos que señalan a personajes como tralalero tralala'", "balerina capuccina", "bombardiro crocodilo" uotros. Igualmente, es posible caer en estafas debido al "Deepfake", en el cual falsos influencers o incluso personas del espectáculo son editadas para promocionar productos de belleza, sitios de inversión hasta páginas de apuestas.
Para Claudio Álvarez, profesordela Facultad de Ingeniería y Ciencias Aplicadas, dela Universidad de los Andes, el avance dela inteligencia artificial se está acelerando en múltiples direcciones. "Ya es posible generar clips realistas desde texto, yse espera que en pocosaños sea común ver películas enteras generadas por 1A, incluso con actores "resucitados" digitalmente o completamente sintéticos", declaró el profesor dela UAndes. "A medida que estas tecnologías se masifican, el gran desafio no será solo técnico, sino también ético: cómo garantizar un uso responsable, transparente y justo de estas herramientas, en un mundo donde loartificial y lo humano son cada vez más difíciles de distinguir", agregó. Os 2123305 2123305 2123305 ESTAIMAGEN DE LOS PRESIDENTES TRUMP Y PUTIN CENANDO SE GENERÓ MEDIANTE INTELIGENCIA ARTIFICIAL. El auge de los "Brain rot" y los riesgos de consumir videos falsos SOCIEDAD.
Aunque en principio solo están hechos para entretener, expertos hablan de cómo los "brain rot" inciden en nuestras cabezas y cómo también se usan en comunicación política con fines menos inocuos. ¿Queson las "Deep fakes"? eSetrata de un recurso generado mediantelaA, el cual muestra una imagen, un video o un audioen el que si imita la apariencia y voz original dela persona, de tal forma que se puede engañar alos consumidores de plataformas como Tiktok. Es posible que los deepfake sean utilizados para la entretención, sin embargo también se hallevadoa un mal uso de esto para fraudes, extorsionese incluso, pornografía.
Respecto a este último, cabe recordar el caso presentado en Antofagastatras la denuncia de apoderadas del colegio San Esteban por utilización de Deepfake con estudiantes de segundo medio. ¿Cómo reconocer videos falsos? e Para Alberto Pedro LópezHermida, director de la Escuela de Periodismo U. Finis Terrae, el saber que el contenido de un video es falso puede ser complejo a primeravista. "Indudablemente es y será cada vezmás dificil.
Hay ciertos movimientos y facciones que quedan bastante en evidencia cuando sonfalsos". A pesar de ello, da cuenta de que es fundamental dudar cuando el contenido "parezca asombroso, desconcertante, revelador, siempre buscar otra fuente que me entregue esa misma información". información". Riesgos que implica la A + Algunos riesgos del mal uso de la inteligencia artificial se relacionan con la mala manipulación de imágenes. Es posible que la comunidad, consumidora de videos de entretenimiento falso, caiga en estafas o en desinformación. El director de la Escuela de Periodismo U. Finis Terrae, Alberto Pedro López, da cuenta que ya existen efectos negativos. "Hay investigaciones que registran efectos adversos en el uso excesivo de la 1A, como pérdida de la noción de la realidad. Además, el uso indiscriminado y mal intencionado de la lA genera burbujas de desinformación que, sumado ala lógica delos algoritmos". gica delos algoritmos"..