Congreso Futuro 2025 hizo reflexionar sobre el vínculo entre lo humano y la tecnología
Congreso Futuro 2025 hizo reflexionar sobre el vínculo entre lo humano y la tecnología F ueron seis días de charlas y presentaciones a cargo de 122 expositores, nacionales y extranjeros --el mayor número en las 14 ediciones del evento--, en torno a una pregunta simple pero profunda: "¿ Qué humanidad queremos ser?". Congreso Futuro 2025 cerró cargado de hitos y con una serie de reflexiones sobre diversas dimensiones del ser humano y su relación con temáticas como la inteligencia artificial, la filosofía, la computación cuántica y los temas medioambientales.
Un holograma de Violeta Parra cantando "Gracias a la Vida" a dúo con su nieta Javiera Parra en la jornada inaugural, pasando por la presencia de un Nobel de Física para hablar de lo cuántico, hasta la 1ª Cumbre de Filósof@s el día viernes --que concentró la mayor cantidad de público asistente, obligando a habilitar salas anexas en el Centro Cultural Ceina, en Santiago--, marcaron un programa que también incluyó encuentros en todas las regiones del país, de forma presencial o a través de streaming.
El evento, organizado por la comisión Desafíos del Futuro del Senado y la Fundación Encuentros del Futuro (FEF), también potenció la participación de la gente con diversas actividades, como una feria inmersiva y una exposición de arte y robótica. A continuación, un repaso a siete charlas en las que científicos e intelectuales abordaron el vínculo entre la tecnología y lo humano.
Congreso Futuro 2025 hizo reflexionar sobre el vínculo entre lo humano y la tecnología 14ª EDICIÓN DEL MAYOR EVENTO DE DIFUSIÓN CIENTÍFICA Y CONOCIMIENTO DE CHILE: SIGUE EN i 2 "Es difícil entender o discernir hacia dónde va la inteligencia artificial y qué tan buena sea", fue una de las frases que sentenció Jocelyn Maclure, filósofo canadiense y especialista en IA durante su charla, en la que hizo un llamado de atención sobre los peligros de depender en exceso de esta tecnología, sin el necesario control. "Tenemos que estar muy preocupados sobre la IA.
No porque se está acercando a la inteligencia a nivel humano ni porque la va a superar, sino porque está creando riesgos existenciales". Parte de estos riesgos derivan del modo de funcionamiento de estos sistemas, que tienen limitaciones. "Trabajan con algoritmos que tratan de aprender y generar información a partir de conjuntos de datos", explicó.
Pero cuando se usa frente a problemas de la vida real, no es capaz de responder a lo impredecible. "No agregan el razonamiento lógico o lo que conocemos como sentido común", como lo hace el cerebro.
De allí que Maclure planteó que el uso de la IA debe enfocarse en ser un complemento en lugar de reemplazar la inteligencia humana: "La inteligencia humana es un fenómeno biológico; es multimodal, con muchas capacidades y facultades, y no todas ellas pueden ser adquiridas por el sistema de IA". El problema, a su juicio, es que "la IA ahora está muy presente, es ubicua". La usamos para decisiones importantes, en ámbitos tan diversos como la salud, el trabajo, la educación o a nivel político. "No estoy preocupado porque la IA nos controle; sí me preocupa que el sistema que actualmente usamos plantea muchas preguntas éticas importantes y, tal vez, no deberíamos utilizarla tanto hasta que hayamos encontrado el marco adecuado para ello". Para Maclure, la solución es generar mecanismos de control. "Hay que avanzar hacia regulaciones más fuertes para quienes están desarrollando sistemas de IA y para quienes los usan", con el fin de establecer cuándo es apropiado usar la IA y cuándo no, con el fin de sacarle partido. "Ver cómo integramos estas herramientas, con sus ventajas y limitaciones". El filósofo canadiense Jocelyn Maclure, académico de la Universidad McGill. "Estamos en un mundo en el que no sabemos lo que es un hecho verdadero y lo que es un hecho inventado", señaló Bruno Patiño, periodista y ejecutivo de medios francés, en su exposición titulada "Cómo la tecnología y la información redefinen la democracia". Reconocido por su trabajo en medios de comunicación y sus análisis sobre el impacto de la tecnología digital, Patiño planteó que estamos entrando en una "era de la ficción", en la que la frontera entre realidad y ficción se diluye. Como ejemplo, mencionó imágenes generadas por inteligencia artificial que circulan en redes sociales y que, aunque ficticias, son percibidas como reales.
Esto ocurre, según el periodista, en un contexto de saturación de contenidos en plataformas como Netflix, YouTube e Instagram. "Estamos abrumados por los contenidos que nos ofrecen. ¡Es fantástico! Pero delegamos nuestras decisiones para saber a quién y qué escuchar, qué mirar, qué leer. ¿Y a quién delegamos las decisiones? A los algoritmos y a los asistentes personales con IA", señaló. Esto, advirtió, crea un entretejido entre el hombre y la máquina que tiene el poder de cambiar la percepción de las personas sobre el mundo.
En este escenario, subrayó la importancia de regular la tecnología, proponiendo tres pilares: la responsabilidad algorítmica, la transparencia en los sistemas de inteligencia artificial y el control sobre los modelos de negocio. "Sin actos políticos o leyes de defensa del espacio público, nosotros vamos a ser únicamente objetos de la economía de los datos", concluyó, advirtiendo sobre la necesidad de actuar para proteger tanto la democracia como la libertad individual. El inicio de la era de la ficción Bruno Patiño también es autor de varios libros que examinan la transformación digital y sus efectos en la sociedad. Más de mil millones de personas en el planeta sufren de algún problema de salud mental, como deterioro cognitivo y demencia en adultos mayores, y depresión en jóvenes.
Frente a esta realidad, el neurocientífico estadounidense Adam Gazzaley, conocido por su investigación en el campo de la neurociencia cognitiva y por su trabajo en el desarrollo de tecnologías que mejoran la función cerebral, compartió su visión sobre cómo las experiencias digitales personalizadas podrían marcar el inicio de una nueva era en la llamada medicina experiencial. "Estamos en medio de una crisis no solo externa, sino también interna: una crisis de la mente", enfatizó Gazzaley al inicio de su charla, en la que cuestionó el uso de fármacos y moléculas químicas para el tratamiento de trastornos mentales. "Es hora de adoptar un nuevo paradigma basado en la experiencia humana", precisó.
A su juicio, la medicina experiencial recurre a vivencias, actividades y experiencias prácticas, como el arte, los videojuegos o la realidad virtual, por ejemplo, que tienen el potencial de actuar como herramientas terapéuticas al estimular la función y plasticidad del cerebro. Esto puede favorecer el proceso de aprendizaje, así como la prevención o tratamientos a nivel de salud.
De hecho, ya se recurre a sistemas que usan tecnología como sensores y algoritmos de inteligencia artificial para adaptar en tiempo real las experiencias digitales a las necesidades del usuario, con el fin de mejorar la atención, reducir el estrés o promover el bienestar general. "Podemos usar la tecnología digital para dar estas experiencias basadas en la naturaleza y ver su efecto en el ánimo o en el sueño", citó como ejemplo.
Experiencias digitales como herramientas terapéuticas El neurocientífico Adam Gazzaley, fundador de Neuroscape y académico de la U. de California en San Francisco. "¿Qué humanidad queremos ser?" fue la pregunta que guió este año cada una de las charlas, y que motivaron análisis sobre los cambios del hombre frente al avance tecnológico y sus desafíos éticos, sociales y culturales. J. MARCANO, C. GONZÁLEZ y M.
HERNÁNDEZ Un llamado al uso ético de tecnologías como la inteligencia artificial es el que hizo la ingeniera y tecnóloga suiza Monique Morrow, quien es reconocida por su trabajo en ciberseguridad y tecnología inclusiva, así como por promover la ética y la diversidad en la industria tecnológica.
Temas que abordó en su presentación, en la cual destacó tres acciones claves para que instituciones y empresas prioricen el vínculo entre tecnología e inclusión en el país: invertir en infraestructura digital, promover la libertad y habilidades digitales, y establecer marcos éticos y de gobernanza de la inteligencia artificial. "¿Cuántos de ustedes creen que el futuro es brillante?", preguntó a los asistentes, para luego abordar que ante el avance de las nuevas tecnologías, uno de los principales desafíos es la ética y su uso en un mundo digital, que cada día evoluciona y se hace parte de las vidas de miles de cibernautas. El primer llamado de la presidenta y cofundadora de The Humanized Internet fue a un uso responsable de estas herramientas digitales. Otra de sus preocupaciones es la brecha de desigualdad que a nivel global separa a quienes tienen acceso a las herramientas digitales y quienes no. "El desafío es cómo vamos a acortar estas desigualdades", comentó. Para Morrow, el llamado a la acción pasa por tener claro que es clave invertir, priorizar y crear un futuro con una tecnología inclusiva que empodere y garantice habilidades digitales para todos. Hacia una sociedad más inclusiva, ética y diversa Monique Morrow es presidenta de Humanized Internet, ONG enfocada en acortar las brechas de acceso digital. Cómo incorporar la IA con sus ventajas y limitaciones.
Congreso Futuro 2025 hizo reflexionar sobre el vínculo entre lo humano y la tecnología Markus Gabriel, filósofo y profesor en la Universidad de Bonn, habló sobre la relevancia de pensar en la inteligencia artificial con una mirada ética y destacó la necesidad de crear sistemas éticos, más allá de las regulaciones. "¿Cómo podemos proteger la humanidad contra la superinteligencia?", se cuestionó durante la presentación y aseveró que la clave está en "una inteligencia artificial ética en vez de esta idea muy europea de regulación". La clave de su enfoque es desarrollar una IA que, mediante la recopilación de grandes datos, pueda analizar juicios morales y promover un progreso ético global. En ese sentido, el filósofo identificó tres "olas" de la ética de la IA.
La primera, relacionada con el miedo a la superinteligencia, que ejemplificó con los escenarios de películas como "Terminator" o "The Matrix". La segunda ola, en la que la IA genera "sesgos digitales" y distorsiona la verdad. De hecho, Gabriel consideró que este problema ya está afectando nuestras democracias: "Los sistemas de IA producen patrañas políticas", lamentó. La tercera ola, dijo, aborda los costos planetarios de la IA, especialmente por su alto consumo de electricidad y agua.
Y concluyó con la necesidad de generar proyectos que promuevan la paz, como el proyecto de "bots Gandhi", basados en el principio de no violencia y respeto universal, para garantizar un futuro más ético y justo. "Debemos desarrollar sistemas de inteligencia artificial y nuevas redes sociales que mejoren nuestra ética transcultural", concluyó. Un llamado a priorizar el desarrollo con valores éticos Markus Gabriel fue uno de los últimos expositores del Congreso Futuro.
A partir de su experiencia como escritor, empresario y crítico cultural, el británico Andrew Keen abordó los desafíos y el impacto de la tecnología digital en la sociedad. "Estamos en el umbral de lo que los expertos llaman AGI: inteligencia artificial general. Estamos creando máquinas que son tan inteligentes como nosotros, que reflejan lo que somos. ¿Deberíamos estar nerviosos o emocionados ante este gran viaje que estamos emprendiendo colectivamente como seres humanos?", planteó. Frente a un futuro donde la IA transformará la tecnología, pero también la identidad humana, Keen advierte que "como humanos nos gusta la familiaridad, lo conocido.
Por eso, la mayoría de nosotros somos temerosos de esta era de la tecnología, porque puede cambiar las relaciones con los demás y con nosotros mismos". "Muchos oradores aquí han hablado de IA, bioética, tecnología, humanidad... Estamos en una era donde se nos promete que vamos a vivir para siempre; en la que nos estamos fusionando con las máquinas, con robots cada vez más sofisticados... Estas nuevas tecnologías son un espejo de lo que somos", advierte y plantea el desafío ético de cómo evitar que nos fusionemos con ellas. A su juicio, en un futuro donde la inteligencia artificial será cada vez más sofisticada, el llamado es a mantener la humanidad en el centro de nuestras decisiones tecnológicas.
Mantener la humanidad en el centro de las decisiones Andrew Keen, escritor, empresario y crítico cultural británico. "La humanidad se enfrenta a un reto fundamental, que es si será capaz de liderar la inteligencia artificial o ser víctima del automatismo tecnológico", advirtió el filósofo español José María Lasalle en su charla "Desafíos éticos de la civilización artificial", donde reflexionó sobre los riesgos y oportunidades de la inteligencia artificial. Según Lasalle, es esencial que la sociedad no solo regule la IA, sino que desarrolle un diseño ético que guíe su evolución.
Y aconsejó "empoderarnos sobre ella, siendo capaces de hacer las cosas que la tecnología nos puede ayudar a hacer mejor, pero para eso no debemos desaprender lo que ya sabemos". Lasalle dijo que todo esto implica preservar las capacidades "para ser humanos con pensamiento crítico, con reflexión y con capacidad para emprender algo fundamental en todo lo que tiene que ver con la existencia humana, que es la capacidad de imaginar, no solo la capacidad de crear". El experto argumentó que, si bien la IA puede reemplazar tareas humanas y automatizar procesos, los seres humanos deben "encontrar claves para generar una nueva alteridad con las máquinas (... ), y eso implica una educación en la búsqueda de la sabiduría". Y concluye que "a las máquinas se les puede atribuir el conocimiento", pero "el ser humano tiene que ser capaz de liderar en su relación con la IA y eso implica un cambio educativo radical". Redefinir la relación entre la tecnología y el ser humano José María Lasalle es doctor en Derecho y filósofo, conocido por su trabajo en la ética de la tecnología. Congreso Futuro 2025 hizo reflexionar... VIENE DE i 1.