El sombrío vaticinio del “padrino” de la LA: se volverá “más inteligente que nosotros”
El sombrío vaticinio del “padrino” de la LA: se volverá “más inteligente que nosotros” Una forma particular de emplear el lenguaje en la acción es lo que Wittgenstein define como "juego de lenguaje". Las personas aprenden reglas sobre cómo actuar en una determinada forma de vida mediante un juego de lenguaje: "Se puede representar fácilmente un lenguaje que conste solo de órdenes y partes de batalla.
O un lenguaje que conste solo de preguntas y de una expresión afirmativa y negativa. [... ] Y representar un lenguaje supone representar una forma de vida". Un juego de lenguaje contiene reglas implícitas que constituyen un mundo en sí mismo y representa una forma de vida en un contexto; por ejemplo, el modo en que se dan las conversaciones y acciones entre médicos y asistentes en un quirófano. El médico no vive en ese juego de lenguaje en su casa con su familia. Mientras en un determinado contexto las palabras y expresiones tienen un significado particular, en otro carecen de sentido. ¿Es todo esto algo teórico? Para nada. Tomemos el caso del conscripto Franco Vargas, fallecido en Putre. El juego de lenguaje propio del mundo militar, de dar, recibir y cumplir órdenes, define una forma de vida de jerarquías rígidas que otorgan un poder omnímodo al superior mientras el resto obedece.
Se entiende que en un contexto de guerra --Wittgenstein escribió parte de su obra mientras luchaba en el frente en la Primera Guerra Mundial-el lenguaje propio de ese contexto deba ser "jugado" en forma estricta (dar, recibir y cumplir órdenes sin miramientos), pero en el diario vivir de conscriptos sin preparación es un abuso de poder y, finalmente, una descontextualización. Todas las organizaciones humanas --por cierto, las empresas-actúan en un juego de lenguaje al cual las personas pueden o no adaptarse. De hecho, una forma "natural" de selección pasa por la capacidad de adaptación de los empleados a una determinada forma de vida actuada en un juego de lenguaje. El asunto se complejiza cuando una empresa "vive" en un juego de lenguaje que colisiona con la realidad social.
Este es uno de los principales problemas de adaptación que observamos en muchas empresas, como, por ejemplo, cuando juegan un juego de lenguaje mecanicista: "el mejor", "aceitar la máquina", "el primero", "engranaje", "vamos como avión", "funciona como reloj", "recurso" humano, "alineamiento", "sintonizar", "empoderamiento", en fin. ¿Quiero decir con esto que muchas empresas deben ajustar su juego de lenguaje? Por supuesto, pues las dinámicas sociales han evolucionado en sus formas de vida (y en sus juegos de lenguaje), y solo queda adaptarse. ¿Qué juego de lenguaje juega tu organización? ¿ Conecta con los juegos de lenguaje predominantes en la sociedad? JUEGOS DE LENGUAJE más inteligente si consigue más centros de datos con los que analizar los datos. Así que ahora hay competencia entre chatbots. Y tan pronto como comienza la evolución, sabemos lo que sucede: el más competitivo gana, y nos quedaremos en las penumbras si eso sucede... no les resultaremos necesarios", expuso.
En ese punto, agregó, "empezarán a hacerlo todo, porque lo harán "L e doy 50/50 de probabilidades de que (la inteligencia artificial) se volverá más inteligente que nosotros en los próximos 20 años", dijo Geoffrey Hinton, uno de los precursores de esa tecnología en Google. En una entrevista en BNN Bloomberg, comentó que "nunca hemos tenido que lidiar con cosas más inteligentes que nosotros. Por eso la gente debería estar muy insegura sobre cómo será". El dueño de Tesla y de la red social X, Elon Musk, viralizó esa entrevista el viernes por medio de esa plataforma.
Calificó de "sabias" las palabras de "una de las personas más inteligentes del mundo en materia de IA (inteligencia artificial)". Hinton trabajó en Google hasta el año pasado y desde entonces habla sobre los riesgos de la IA, indicó BNN Bloomberg. En 2023 se dio cuenta de que "esas inteligencias digitales que estamos desarrollando bien podrían ser harto más listas que nosotros". Esa opción debe ser considerada seriamente, apuntó. Riesgos existenciales "Ellos (la IA) tomarán el control de la gente. Mucha gente decía que era ciencia ficción. Ya no creo que sea ciencia ficción", afirmó el experto. Reflexionó que, en general, los más inteligentes suelen controlar a los menos inteligentes.
Hay pocos ejemplos de lo contrario; uno serían los bebés y sus madres: "Y la evolución hizo muchísimo esfuerzo para que los bebés controlaran a sus madres (... ) pero básicamente cosas menos inteligentes no controlan a cosas más inteligentes". Dado que estos programas estarán diseñados para cuidarse a sí mismos y preservarse, podrían ellos mismos activar una evolución autogenerada, cree. "Supongamos que hay dos chatbots y uno es un poco más egoísta que el otro... el que es un poco más egoísta se apoderará de más centros de datos, porque sabe que puede volverse mejor que nosotros.
Al principio podría ser benévolo", tal vez "un poco como un padre con un niño pequeño". Pero hay un punto resbaladizo en que no actuaría en el mejor beneficio de ese "niño". Nunca la humanidad se ha enfrentado a algo de este tipo, alertó. Por eso, mientras aún sean menos inteligentes que las personas, se deberían realizar experimentos que permitan tener a la IA bajo control.
Regulación estatal Sostuvo que el riesgo de la IA es tan importante como la amenaza nuclear, aunque en este caso concede que la tecnología digital sí puede ser muy positiva para avances "maravillosos" en áreas como la medicina.
Con todo, cree que, si aún hubiera tiempo, las empresas líderes (Google, Meta, Microsoft, Nvidia, Amazon) deberían destinar el 30% de sus presupuestos en esa área a "seguridad". No obstante, cree que hay dos fuerzas que se enfrentan. Por un lado, están personas como Ilya Sutskever, fundador de OpenAI, que abandonó la empresa, o Sam Altman, su CEO. OpenAI es la creadora de ChatGPT. "Las personas interesadas en la seguridad, como Ilya Sutskever, querían que se gastaran recursos importantes en seguridad. Las personas interesadas en las ganancias, como Sam Altman, no querían gastar demasiados recursos en eso", afirmó Hinton.
Dados los incentivos por avanzar más rápido que el resto, el especialista propone q u e l o s g o b i e r n o s obliguen a las compañías a ocuparse de experimentos sobre seguridad. En una entrevista viralizada por Elon Musk, Geoffrey Hinton --excientífico de Google-cree que la inteligencia artificial podría tomar el control". Ya no creo que sea ciencia ficción", expresó. Geoffrey Hunton, exdirectivo e investigador de Google. AP El sombrío vaticinio del "padrino" de la IA: se volverá "más inteligente que nosotros".