Autor: Laurence Devillers,
Las humanidades frente...
Las humanidades frente... 5 2 0 2 O R U T U F O S E R G N O C A Z E L I T N E GRenata Salecl: “Es necesariodejar de ver los problemas de la sociedad principalmente a través del prisma de la tecnología”Lidiar con la IA y la digitalización no significa en absoluto dar la espalda a las nuevas tecnologías, ni abrazar el escepticismo total o crear pánico ante el hecho de que los robots, por ejemplo, pronto se apoderarán del mundo.
Ante todo, es necesario dejar de ver los problemas de la sociedad principalmente a través del prisma de la tecnología y no percibir la tecnología de la IA como una solución para estos problemas, sino más bien como algo que está afectando a la sociedad y a la subjetividad de maneras que no pueden comprenderse fácilmente sin la ayuda de las humanidades y las ciencias sociales. Las humanidades pueden, por ejemplo, ayudar a explicar por qué el público japonés tiene una actitud mucho más positiva hacia los robots que el estadounidense. Al mirar este fenómeno, uno necesita tener en cuenta que la industriaRenata Salecl, filósofay socióloga. cinematográfica estadounidense ha retratado, durante décadas, a los robots de forma claramente negativa, como máquinas peligrosas para los humanos. Mientras que el manga japonés muestra lo contrario: retrata a los robots como encantadores, como amigos y ayudantes de las personas. Muchos sentimientos negativos hacia los robots hoy están relacionados con la suposición de que la robotización está quitando puestos de trabajo a las personas. Esta creencia está especialmente extendida en Estados Unidos, mientras que los europeos y asiáticos tienen una visión más positiva de la automatización. La paradoja es que Estados Unidos produce muchos menos robots que otros países. Hace unos años, una encuesta mostraba que tenía una media de 10 robots por cada 1.000 trabajadores, frente a unos 30 en Alemania y Japón y más de 60 en Corea del Sur. En su libro “La automatización y el futuro del trabajo”, Aaron Benanav cuestiona la idea de que la automatización ha sido la principal responsable de la disminución de la necesidad de mano de obra.
Él señala que, si bien la productividad, en general, ha aumentado espectacularmente en las últimas décadas, también ha habido una tendencia de las sociedades a recuperarse de las crisis económicas sin un aumento de la necesidad de nuevos puestos de trabajo.
Incluso antes de la gran expansión de la automatización, las sociedades ya se enfrentaban a una menor necesidad de mano de obra y al problema de que las ganancias cada vez más vayan hacia las manos de unos pocos. Por supuesto, la automatización agravará estos problemas. Kate Darling, investigadora del MIT, señala en su libro “The New Breed: How to Think About Robots” (la nueva raza: cómo pensar sobre robots) que la gente tiende a percibir los robots de forma antropomórfica. Es interesante ver cómo la mayoría de la gente da nombres a robots que aspiran el polvo, cortan el césped o limpian piscinas. Darling defiende que la gente no piense en los robots como algo parecido a ellos mismos, sino como nuevos animales. Por ejemplo, los dueños de animales son responsables de los daños que causan, y a los animales peligrosos para el ser humano se les mata. Darling insiste en que las nuevas tecnologías deben beneficiar a la humanidad, no dañarla. Cuando algo sale mal con una nueva tecnología, debemos castigar a quien la utiliza y a quien la diseñó. Las humanidades pueden ayudarnos a comprender cómo vemos las nuevas tecnologías según las fantasías que creamos con ayuda del cine y la literatura. Y también pueden ayudarnos a comprender las dimensiones éticas de la responsabilidad ante las nuevas tecnologías.
Renata Salecl es una filósofa y socióloga eslovena, experta en teoría crítica, psicoanálisis y derecho y autora de libros como “Pasión por la ignorancia”, “Angustia”, “La tiranía de la elección” y “El placer de la transgresión”, en los que reflexiona sobre cómo las estructuras sociales afectan a la subjetividad humana. Es investigadora en el Instituto de Criminología de la Facultad de Derecho de la Universidad de Ljubljana y es profesora en el Birkbeck College de la Universidad de Londres.
S A V I R N Á I B A FVIENE DE E 1Laurence Devillers: “Debemosconstruir urgentemente un mundo en el que humanistas y científicos trabajen juntos para aprovechar al máximo estas herramientas”La competencia entre los gigantes digitales en torno a la IA generativa se ha intensificado desde la aparición de Chat GPT, marcada por una sobrecarga de revelaciones espectaculares e inversiones colosales que ascienden a miles de millones de dólares. La desregulación iniciada por Trump y Musk está empezando a influir en todo el sector tecnológico estadounidense, incluidos actores como Meta. Elon Musk ha expresado a menudo su creencia transhumanista de que las tecnologías avanzadas, como la IA, la neurotecnología y los implantes cerebrales, pueden y deben utilizarse para trascender los límites naturales de la humanidad. Limitar las discusiones a consideraciones éticas sin comprender las realidades técnicas y políticas o dejarse seducir por visiones idealizadas de un futuro tecnológico arriesga socavar el desarrollo de una visión abarcadora del futuro. En este contexto, el papel de los humanistas es promover un debate informado colaborando con expertos en tecnociencia y economistas para evitar la deriva ideológica.
Hay dos cuestiones fundamentales: en primer lugar, la falta de transparencia que permite a ciertos actores promover representaciones exageradas o poco realistas de la IA, tales como la “inteligencia general artificial”; y en segundo lugar, la legitimidad de las investigaciones éticas sobre la IA si no proceden de expertos tecnohumanistas. Las IA generativas, entrenadas con nuestros datos, imitan los comportamientos humanos. Sin una comprensión de los mecanismos subyacentes, es difícil para los humanistas evaluar los peligros o beneficios de una tecnología tan compleja. La IA puede ser entrenada en contenidos violentos, manipuladores o engañosos, lo que puede llevarla a reproducir esas mismas tendencias, sin ninguna intención de hacerlo. Debemos construir urgentemente un mundo en el que humanistas y científicos trabajen juntos para aprovechar al máximo estas herramientas de IA y mejorar la inteligencia humana. Estas herramientas tienen el potencial de convertirse en aliados inestimables, ya sea para agudizar nuestra conciencia ecológica o para hacer avanzar los conocimientos médicos.
La bioética no ha sofocado las innovaciones en medicina, así que ¿ por qué debería la ética obstaculizar las innovaciones en IA?Doctora en Ciencias, profesora de inteligencia artificial y ética en la Universidad de París-Sorbona y en el Centro Nacional de Investigación Científica, la francesa Laurence Devillers trabaja en proyectos relacionados con la interacciones sociales y afectivas entre humanos y robots y con la implementación de principios éticos en desarrollo de nuevas tecnologías.
Es autora, entre otros libros, de “Des robots et des hommes: Mythes, fantasmes et réalité” (los robots y los humanos: mitos, fantasmas y realidad). 5 2 0 2 O R U T U F O S E R G N O C A Z E L I T N E G5 2 0 2 O R U T U F O S E R G N O C A Z E L I T N E GYuk Hui, filósofo de la tecnología. No hay humano al que proteger, lo que se pide proteger es el concepto histórico de lo humano. No hay humano sin tecnología, puesto que el humano como especie es un ser técnico: sin tecnología, ni siquiera es capaz de sobrevivir. La forma en que se plantea la pregunta contiene la reminiscencia de la antigua figura de la máquina como esclava. Proteger “lo humano” es, en efecto, evitar una revuelta de robots o un levantamiento de esclavos, un escenario familiar tanto en los manuales de historia como en la ciencia ficción. La tecnología que es constitutiva de lo que llamamos humano está dando lugar a la sensación de un gran peligro. Sin embargo, la raíz de este peligro no es la inteligencia artificial en sí, sino el efecto disruptivo de su aplicación. Estos efectos son deliberadamente manipulados y amplificados por la industria, especialmente la de Silicon Valley, y son reproducidos por los “Silicon Valleys” de todo el mundo. De ahí también las opiniones polares entre Le Cun y Hinton, que en su día fueron colaboradores.
El hecho es que las máquinas no se están rebelando contra el ser humano, sino que se ha capitalizado su efecto disruptivo, es decir, se ha utilizado para generar ganancias; también es un acto de autodestrucción. ChatGPT es una aplicación impresionante, pero su efecto perturbador supera con creces su valor práctico. Hay un problema más fundamental detrás de la inteligencia artificial, a saber, el complejo académico-industrial, que se expresa en el deseo de velocidad y escala, subrayado por la visión apocalíptica que acabamos de mencionar. Responder a ella demanda un cambio de la agenda del desarrollo tecnológico para ir más allá de la actual visión apocalíptica y del complejo académico-industrial. En su lugar, deberíamos investigar en la cultura protésica, es decir, entender la IA como nuestra prótesis, que permite florecer a humanos y no humanos. Esto puede traducirse en el diseño concreto y en el uso de herramientas, que pueden beneficiar a las comunidades locales y ofrecer diferentes visiones más allá de la oposición abstracta de aceleración o desaceleración. Significa reconocer el límite de la inteligencia artificial y darle un lugar adecuado: esto es lo que pueden ofrecer las humanidades, no solas, sino junto con científicos e ingenieros.
Nacido en China, con estudios de ingeniería informática y de filosofía en Hong Kong y Londres, y profesor en la Universidad Erasmo de Róterdam, Yuk Hui es autor de ensayos como “Fragmentar el futuro”, “Recursividad y contingencia”, y “La pregunta por la técnica en China”, en los que se pregunta por los límites entre naturaleza y tecnología, máquina y organismo, propugna una diversificación a las aproximaciones a la cuestión tecnológica de acuerdo con las diversas culturas y cosmovisiones que constituyen a la humanidad. palanca que active la capacidad de la cultura para hacernos sabios dentro de una civilización tecnológica donde las máquinas irán acumulando el conocimiento necesario para gestionar la complejidad que los seres humanos estamos desarrollando a raíz de la revolución digital. Las humanidades pueden hacerlo todo. No olvidemos que el problema más grave que acompaña la introducción generalizada de la IA y el impacto social que tiene sobre nuestras sociedades es la deshumanización que provoca en ellas. Precisamente las humanidades son el único contrapeso posible a este impacto.
Aunque cuando hablo de las humanidades lo hago en un sentido muy amplio porque, en realidad, habría que hablar de la cultura y la potencia inmensa que esta tiene para ayudar al ser humano a preservar su autenticidad.
Las humanidades pueden dotar a la humanidad de la sabiduría que necesita para no ser víctima del poder que los seres humanos estamos poniendo en manos de las máquinas a través de la IA y de un complejo industrial-tecnológico que pugna por la hegemonía frente al poder político democrático. Para ello, debemos empoderar a la sociedad con un poder crítico y emancipatorio que encuentre en las humanidades laJosé María Lassalle, doctor en Derecho, es un filósofo y expolítico español. Fue ministro de Cultura en su país entre 2011 y 2016, durante el gobierno de Mariano Rajoy. Ha sido profesor en distintas universidades, como las de Cantabria y Carlos III de Madrid. Escribe regularmente artículos de opinión en los diarios La Vanguardia y El País y también participa en televisión.
Es autor de los ensayos “Liberales”, “Contra el populismo”, “Ciberleviatán” y “El liberalismo herido”. Uno de los mayores desafíos de la humanidad es encontrar la manera de gobernar y domesticar la IA y otras tecnologías digitales. Esto no se debe a que nos estemos acercando rápidamente a la inteligencia artificial general o a la superinteligencia artificial. Los mejores algoritmos de IA aún carecen de varias capacidades que muestran los humanos. Es más bien porque los sistemas de IA más avanzados que existen en la actualidad tienen el potencial de dañarnos y de transformarnos de formas que impiden el florecimiento humano. Esto no es tecno-catastrofismo. La IA puede acelerar descubrimientos científicos cruciales y mejorar la atención médica. Pero también difundir discursos tóxicos en la esfera pública, desvalijar las creaciones protegidas por derechos de autor de los artistas y tomar decisiones judiciales o médicas sesgadas y opacas. El uso inmoderado de programas de IA generativa por parte de estudiantes y profesionales puede dar lugar a un agotamiento cognitivo. La interacción constante con agentes artificiales conversacionales antropomorfizados en nuestra vida privada puede llevarnos a perder de vista el hecho de que estamos confiando en algoritmos estadísticos entrenados para la predicción de la siguiente palabra. Los grandes modelos lingüísticos no son dispositivos de rastreo de la verdad y no comprenden el significado de los datos que procesan. Los desarrolladores de IA y los directores generales de lasempresas tecnológicas no suelen tener formación en humanidades y ciencias sociales. No tienen ni idea de si puede ser bueno para una persona en duelo interactuar con una réplica digital de su ser querido. Esta es una tarea para éticos y psicólogos. La IA se ha vuelto omnipresente. Toma decisiones de alto riesgo, recomienda los contenidos a los que estamos expuestos en línea y se hace pasar por agentes humanos. Hará falta un nuevo tipo de sabiduría individual y colectiva para ponerla en el lugar que le corresponde. El peligro no es que la IA superinteligente tome el control, sino que haga más difícil alcanzar el doble objetivo de llevar una buena vida y crear una sociedad justa. Lograr esta nueva sabiduría requiere la contribución de filósofos, artistas, humanistas y científicos sociales. Jocelyn Maclure es un filósofo canadiense, profesor de filosofía y responsable de la Cátedra Jarislowsky de Naturaleza Humana y Tecnología en la Universidad McGill. Es el actual presidente de la Comisión de Ética en Ciencia y Tecnología de Quebec, además de miembro de la Royal Society de Canadá. Es autor de libros como “Laicidad y libertad de conciencia” y de diversos textos sobre justicia, razón pública, deliberación y pluralismo en relación con la inteligencia artificial.
O R U T U F O S E R G N O C A Z E L I T N E G5 2 0 2 O R U T U F O S E R G N O C A Z E L I T N E GJosé María Lassalle, filósofo y expolítico. Jocelyn Maclure, filó-sofo canadiense.
José María Lassalle: “Debemos empoderar a la sociedad con un poder crítico y emancipatorio”Jocelyn Maclure: “Los grandes modelos lingüísticos no son dispositivos de rastreo de la verdad y no comprenden el significado de los datos que procesan”Yuk Hui: “Hay un problema más fundamental detrás de la inteligencia artificial, a saber, el complejo académico-industrial”. Laurence Devillers, Yuk Hui, filósofo de la te A F Renata Salecl, Jocelyn Maclure, José María Lassalle,