MARTIN HILBERT: "Con la IA automatizamos el negocio de pensar"
MARTIN HILBERT: "Con la IA automatizamos el negocio de pensar" `` Hoy se reemplaza a los intelectuales. Incluso en los oficios mejor pagados, como la programación". `` Las redes sociales fueron, como dicen aquí en California, el primer contacto con la IA. Y ahora estamos, con la generación de conocimiento, en el segundo contacto". `` Si le decimos a la máquina `llévanos a Roma'. Bueno, la máquina encuentra la mejor manera.
Pero ojalá que le hayas avisado que quieres llegar a Roma vivo". P ara que un niño o niña aprenda a identificar un auto, no le decimos que es algo que tiene cuatro ruedas y cuatro puertas. "Le muestro un par de autos, un par de motos y un par de bicis y ahí el niño mismo clasifica qué es un auto, qué es una moto o qué sé yo". Lo mismo hace hoy la inteligencia artificial (IA), se la entrena, con datos, y a partir de ahí resuelve o aprende sola, explica el alemán Martin Hilbert, experto en IA. Es lo que se llama machine learning o aprendizaje automático. La revolución se produjo entre 2019 y 2022.
Dos años antes, en 2017, ocho investigadores de Google escribieron el artículo "Attention Is All You Need" --todo lo que necesitas es atención--, en el que propusieron el modelo o arquitectura computacional que llevó a la IA desde el niño al que se le pretende enseñar a pensar dándole reglas (las cuatro ruedas del auto) al niño que aprende solo a partir de los autos, motos y bicis que vio. Claro que en el caso de las máquinas, o de las redes neuronales artificiales, no bastan un par de datos, se necesitan muchos, miles de millones, para entrenarlas.
Los datos, el bigdata, ya existían; faltaba este nuevo enfoque, el de hacer que la IA le pusiera atención a esa información, para dar el salto que nos trajo en 2023 a la IA Generativa, esa que aprende y crea nuevo contenido; o sea, ChatGTP, Bard, Dall-e, entre otros servicios. "Estas máquinas, con muchos datos, clasifican por sí mismas o crean su propia inteligencia", explica Hilbert. "Ni sabemos cómo funciona eso". "Con este mecanismo explotó el número de parámetros. Se hicieron redes neuronales cada vez más grandes.
Tan grandes que hoy tienen 100 billones de parámetros, o sea, más de 12 mil parámetros por ser humano vivo. ¿Cuántos parámetros necesitas para describirte? Yo, por ejemplo, no sé, puedo decirte qué género tengo, qué carácter tengo, qué hice hoy en la mañana, cuál es mi personalidad. No necesito 12 mil parámetros para describirme. Estos sistemas son muy, muy complejos.
Lidian con muchos datos y usan este mecanismo de atención, que se desarrolló en los últimos cinco años, para explotarlo". Orgullo sapiens Hilbert es doctor en economía, ciencias sociales y comunicación, creador del Programa Sociedad de la Información de la Cepal, y profesor de la Universidad de California.
Y, también, uno de los invitados al Congreso Futuro 2024, que comienza mañana en el Ceina (ver ficha). Recuerda que en 2019, cuando también estuvo en el congreso, y habló de IA, lo que vemos hoy no existía. Y ahora los nuevos modelos pasaron la prueba de Turing, el padre de la computación: "En los años 50 él se preguntaba cómo podemos saber si una inteligencia artificial es de verdad inteligente.
Y dijo, `mire, si, separado por una cortina, conversas con alguien, por texto, y no sabes si es persona o computador, ahí tienes que conceder que es inteligente'. Esa prueba la pasamos". --¿ Lo sorprende? "Siempre pensé que íbamos a pasar la prueba de Turing en algún momento. Pero no sabía que lo íbamos a hacer cuando yo estuviera vivo. Me sorprendió y me asustó que lo lográramos el año 2023. Doy charlas hace años en el tema de IA, y a mí me sorprendió. Estos sistemas realmente son inteligentes". --¿ Nos cambiará? "Bueno, en términos prácticos, dicen que en los próximos dos o tres años el 50% de los trabajos van a ser severamente redefinidos. Y ya lo vemos hoy. Los Large language model (LLM), los modelos de lenguaje grande, como el ChatGPT, aunque ni siquiera es el mejor, lo de Google, el Gemini, es lo mejor; bueno, los LLM redefinen muchos trabajos. Lo interesante es que las revoluciones tecnológicas anteriores reemplazaron los músculos, a los trabajadores de cuello azul (blue collar, obreros, trabajadores manuales), y los ejecutivos, los intelectuales, se enriquecieron. Hoy se reemplaza a los intelectuales. Incluso en los oficios mejor pagados, como la programación; esta tecnología sabe escribir código mejor que la mayoría de mis estudiantes aquí en la U. de California.
Se hicieron pruebas en GitHub, que es básicamente nuestro Wikipedia para programadores, en donde tenían LLM, se llaman copilot, copiloto, y gracias a eso programadores profesionales aumentaron su productividad en 50%, comparados con los que no usaron esa asistencia. ¡50%! Es decir, si antes hacías tu trabajo en una semana, ahora lo haces en dos días y medio y los otros dos días y medio te vas a la playa. Claro que, para los programadores, la pregunta es si van a quedar 50% sin trabajo o si vamos a tener muchos más programadores y vamos a programar mucho más. Tú viste que aquí en Hollywood, en California, los actores y guionistas estuvieron en huelga porque incluso ellos están siendo afectados profundamente. Y eso es trabajo intelectual, creativo. Nosotros siempre pensamos que el humano es el único ser creativo. No, esta inteligencia realmente es creativa". --¿ Y van a echar a la mitad de la gente o a contratar al doble? "No lo sabemos. Ahora, normalmente, cuando pasa algo así, siempre inventamos cosas nuevas. Estamos automatizando el negocio de pensar y no sabemos qué pasa después de eso. Esto toca bastante en el orgullo al Homo sapiens. Porque nosotros, como especie, nos distinguimos del Homo habilis y lo reemplazamos porque, supuestamente, somos la especie que piensa. Y ahora automatizamos el negocio de pensar. Entonces la pregunta es qué queda para nosotros". Alinear a las máquinas A estas nuevas IA les damos los datos y la meta, y ellas resuelven el puzle. Por ejemplo, cómo manejar un auto. "Los "Lo primero es que hay que sonar la campana de alarma para llamar la atención sobre lo lejos que hemos llegado", afirma Hilbert.
AP ENTREVISTA Invitado al Congreso Futuro 2024 MARTIN HILBERT: "Con la IA automatizamos el negocio de pensar" humanos nos enorgullecemos porque resolvemos el rompecabezas, pero ahora la IA sabe manejar mejor y lo aprendió por sí misma. Entonces, insisto, estamos automatizando la producción de conocimiento, la búsqueda de la mejor manera de hacer las cosas", dice Hilbert. "En el futuro ya no será una tarea de los humanos. Aunque, si somos sinceros, son muy pocos entre nosotros quienes realmente encuentran nuevos métodos para hacer las cosas. Henry Ford, Einstein, Marie Curie. Una vez que alguien encuentra algo nuevo, como Edison, lo ponemos en un pedestal y le damos las gracias al señor Edison por enseñarnos cómo hacer una luz eléctrica.
La IA, básicamente, es una `comodificación' de este proceso, de encontrar cómo hacer las cosas". --¿ Y qué hacemos nosotros? "A los humanos nos queda la tares de avisarle a la IA dónde estamos y dónde queremos ir, darle la meta. En términos técnicos se llama reward function, la `función de utilidad' que le damos para aprender. Es súper importante. Si le decimos `llévanos a Roma', la máquina encuentra la mejor manera. Y hay muchos caminos que llevan a Roma. Pero ojalá que le hayas avisado que quieres llegar vivo. O que el viaje sea energéticamente eficiente. Eso s e l l a m a ` a l i n e a miento de la IA', o sea, cómo nos aseguramos de que la IA se alinea con nuestros valores humanos.
Tal vez no sepa que quieres llegar vivo". --¿ Es lo que ha pasado hasta ahora, tal vez, con YouTube, que solo le hemos d i c h o " q u e r e m o s que la gente vea videos"? "El algoritmo de recomendación de YouTube se llama Watch Time Maximization Algorithm (algoritmo de maximización del tiempo de visualización). ¿Adivina hacia qué optimiza, cuál es su meta?". --¿ Cuál? "Hacerte adicto.
Ahí nos olvidamos de avisar a la máquina que, bueno, `maximiza el tiempo de ver, pero no mates a nuestros hijos', que están tan adictos que pasan horas ahí. `No dañes a los niños', nos olvidamos de decirle eso. En EE.UU. hay muchos juicios.
Sin intención, simplemente estas compañías dieron metas a la IA de maximizar la atención y eso tuvo muchos efectos negativos, sea adicción, ansiedad o polarización en la sociedad, porque habíamos olvidado especificar en la función de utilidad. Es como que olvidé avisar a la máquina que quiero llegar a Roma vivo.
Entonces, cuidado con eso". --¿ Esos olvidos, como en el caso de YouTube, tienen que ver con las metas de los dueños de Google, que, claro, busca max i m i z a r g a n a n c i a s ¿ Hay que discutir a ese nivel el asunto, a nivel social y de las democracias? "Claro. Ahora, eso ya lo sabíamos hace tiempo. Esta discusión ya la tuvimos. Las redes sociales fueron, como dicen aquí en California, el primer contacto con la IA. Y ahora estamos, con la generación de conocimiento, en el segundo contacto. Y en el primero nos fue pésimo. Ok, también mejoramos, qué sé yo, algunos procesos, está todo bien. Las cinco empresas más grandes, más valoradas, se autodenominan como empresas de IA: Google, Facebook, Amazon. Todo esto es fantástico, mucha gente lo usa. O Netflix, Uber, Spotify. Ellos rigen el mundo. Ellos reemplazaron a Hollywood, la radio, a Falabella. Realmente revolucionaron el mundo. Pero había muchos efectos negativos que no fueron bien controlados". --Me contó que usted es parte, como experto, en varios juicios. "Sí, hay muchos juicios. En Estados Unidos lo hacen así. Ellos primero liberan al genio de la botella, hacen mucha innovación, pero también hay algunos muertos. Y después ven si con las litigaciones pueden llevar parte del genio de vuelta a la botella. Ahora, cuando sacan la herramienta judicial, la sacan de verdad. Y parece que ahora lo están haciendo. Hay 33 estados donde 50 fiscales estatales, y estos no es broma, hacen juicios a estas empresas, a YouTube, que es Google; Instagram, que es Facebook o Meta; a TikTok y a Snapchat. Lo hacen a partir de que distritos escolares y más de 2.200 familias demandaron a estas empresas en nombre de sus hijos, muchos de ellos lamentablemente fallecidos. Hay historias de suicidio y de anorexia. También muchas veces se producen muertes debido a desafíos de TikTok, o porque, a través de las recomendaciones del algoritmo, consiguen sustancias a las que no deberían llegar. Estos juicios apuntan a la responsabilidad del algoritmo. Si u n m e d i o e s c r i t o, por ejemplo, difama a alguien, tiene una responsabilidad.
En las redes sociales, ¿quién tiene la responsabilidad? ¿ Pueden tenerla los algoritmos? ¿ Tienen responsabilidad en la muerte de esos niños? ¿ Quién le da la meta al algoritmo? ¿ Qué meta le dieron? ¿ Maximizar ganancias, o hacerlo bajo la condición de que no haya daños? Entonces, ¿estas compañías se tienen que hacer responsables o no de lo que hacen los algoritmos?". --Si hasta ahora son estas grandes empresas las que defininen las metas, ¿habría que preguntarse, considerando el bien común, quién debería definir esos parámetros? ¿ Basta con juicios? "Las leyes ya existen.
En Chile tienen esta nueva ley de neuroderechos, que es interesantísima, porque, dice, si ese niño de 9 años que recién cenó con su familia y diez minutos después lo encuentran muerto porque quiso hacer un video de TikTok para qué sé yo cuál desafío, bueno, eso no fue resultado del libre albedrío. ¿La IA violó el libre albedrío de ese niño de 9 años al recomendarle esos videos? Estas tecnologías se llaman tecnologías persuasivas. Facebook solamente obtiene beneficios cuando uno hace clic. Si solo miras Facebook, no gana. Debe motivar a realizar una acción que no tenías planeada. La ley de neuroderechos (promovida por Guido Girardi aprobada en 2021, como reforma constitucional), yo creo que aplica ahí. Y hay muchas otras leyes.
Se necesitan a los cuatro poderes, al Poder Judicial, al Legislativo, al Ejecutivo --por ejemplo, una autoridad estatal que audite algoritmos, tal como existe un servicio de salud--, y al pueblo". --Sin tener que ser un experto, ¿qué tendría que saber un ciudadano para ser un factor de control sobre la IA? "Lo primero es que hay que sonar la campana de alarma para llamar la atención sobre lo lejos que hemos llegado. Segundo, la IA misma no tiene voluntad y, como cualquier tecnología, es normativamente neutral, se puede usar para lo bueno y para lo malo. Entonces mi invitación es: jueguen con ella, úsenla para ver de qué se trata y para entrenarla. Mientras más gente buena la use, mejor va a resultar. Tenemos que entrenarla igual que se entrena a los hijos. Si más gente de bien usa la IA, tenemos más posibilidades de dirigirla en la dirección correcta. Porque, repito, la tecnología es normativamente neutral; le tenemos que dar una meta. Eso es lo importante.
Por eso el tema de mi conferencia es `IAhora qué hacemos'". SANTIAGO DE CHILE, DOMINGO 14 DE ENERO DE 2024 CONGRESO FUTURO Del 15 al 20 de enero en el Ceina (Instituto Nacional: Arturo Prat 33, metro U. de Chile, Santiago). Martin Hilbert dictará la conferencia "El bien y el mal en el uso de IA: ¿ quién se hace responsable?", el jueves 18 a las 10:30 horas. Las entradas son gratuitas y se pueden conseguir en: www.puntoticket.com. Más información en: 2024. congresofuturo. cl/ Martin Hilbert es profesor de la Universidad de California.
CARLA DEANNEMANN Experto en inteligencia artificial y en su impacto en la sociedad, advierte que los algoritmos dieron un salto en los últimos dos o tres años que era previsible, sí, pero no que se concretaría estando él vivo. "Doy charlas hace años en el tema de IA, y a mí me sorprendió. Estos sistemas realmente son inteligentes". De eso hablará en el encuentro que comienza mañana en el Ceina. JUAN RODRÍGUEZ MEDINA.