Martin Hilbert habla de la importancia de conocer nuestra mente antes de usar inteligencia artificial
Martin Hilbert habla de la importancia de conocer nuestra mente antes de usar inteligencia artificial Participó en el Inacap de Renca en un conversatorio organizado por Congreso Futuro.
CAMILA FIGUEROA Es investigador de la Universidad de California Davis artin Hilbert habla de la importancia e conocer nuestra mente antes de usar inteligencia artificial usar inteligencia artificial == == cia artificial siempre será más audaz y simpática que el ser humano -si es que fue programada para tener esas características y nada sacamos con insistir en lo contrario. En la Universidad de Washington, en Seattle, por ejemplo, los investigadores demostraron la utilidad de la inteligencia artificial para elaborar respuestas más empáticas en grupos de apoyo de salud mental.
De hecho, en el estudio publicado el año pasado en la revista "Nature" los científicos comprobaron que quienes utilizaron la herramienta de retroalimentación antes de responderle a otra persona que pedía un consejo, aumentaron 19,6% su empatía en la conversación en comparación a los que respondieron o aconsejaron a otros sin la asesoría de una inteligencia artificial. Además, ese aumento de la empatía en las conversaciones aumentó 38,9% en quienes se identificaban como personas con dificultades para apoyar a otros. "Hay varios estudios de ese tipo. Las máquinas con inteligencia artificial pueden ser más simpáticas que cualquier humano, pero jamás tendrán empatía. Solo pueden fingirla. Hay una palabra para definir eso y es sicópata.
Una persona que actúa la empatía puede ser muy peligrosa y debemos estar conscientes, en este caso, que las máquinas no sienten empatía, pero la fingen", asegura Martin Hilbert, doctor en economía y ciencias sociales e investigador de la Universidad de California Davis, en Estados Unidos. Hilbert dio una charla este viernes en el Inacap de Renca, en la que participaron escolares y universitarios.
Su misión fue hablar sobre el evento de divulgación científica Congreso Futuro, que se realizará entre el 13 y el 18 de enero del próximo año en el Centro Cultural Ceina de Santiago; y que reflexionará en torno a la pregunta ¿ qué humanidad queremos ser? : tecnología que utiliza inteligendijeran qué pensaban dijeran qué pensaban Martin Hilbert trabaja en la University of California Davis. Recuperar el control "En mis clases, por ejemplo, es obligatorio usar chat GPT u otra herramienta de chat que tenga inteligencia artificial. Pero lo hago porque enseño cosas que hace tres años no hacía. Hace tres años la tarea era resumir un estudio y que me dijeran qué pensaban sobre eso. Ahora no, para qué. Eso lo hace el chat GPT en dos segundos.
Ocupa tu mente en otras cosas, en aprender otras cosas y no en resumir. ¿Cuáles son esas otras cosas? ¿ En cuál tarea ocuparme? esa es una gran pregunta", le respondió Hilbert a una estudiante que preguntó sobre si era bueno o no que la inteligencia artificial resolviera cosas que antes las hacíamos con nuestro cerebro. Para Hilbert la tecnología que utiliza inteligencia artificial es una extensión de la mente.
Por eso, asegura, es complejo que alguien pretenda sacarle beneficios a algo que es una extensión de una parte de su cuerpo 2) "Hace tres años la tarea era resumir un estudio y que me sobre eso. Ahora no, para qué.
Eso lo hace el chat GPT en dos segundos" Martin Hilbert Martin Hilbert que ni siquiera conoce o que la tiene en una etapa de pleno desarrollo, como es el caso de los niños. "Estas tecnologías con inteligencia artificial son peligrosas porque son justamente extensiones de la mente. Por lo tanto, para usarlas bien debes conocer tu mente para identificar qué es una extensión y qué no. La idea es que no se apodere de tu voluntad", describe el investigador.
Si esas personas conocieran realmente quiénes son, relata Hilbert, serían capaces de dejar el celular de lado e irse a dormir porque son conscientes de la capacidad que tienen las redes sociales para atraparlos y que pueden engañarlos hasta el punto de hacerlos perder el control sobre sus decisiones. "Yo medito todos los días para evitar lo anterior.
No estoy hablando de algo religioso, sino del acto de conocerse, reflexionar sobre quién eres para saber si en tus decisiones está actuando efectivamente tu mente o está influyendo lo que ahora conocemos como la extensión de nuestras mentes", menciona. ELISA VERDEJO Sacarle provecho La inteligencia artificial en la tecnología, asegura Hilbert, ha logrado beneficios en varias áreas, entre ellas, las teorías de conspiración. En un estudio recientemente publicado, describe, los investigadores trabajaron con 2.190 personas que creían en una noticia falsa. Tras ponerlas a conversar tres veces con un chat GPT4, aclara, el 20% logró dejar de creer en la teoría conspirativa y mantuvo su nuevo pensamiento por más de tres meses. En resumen, menciona el investigador, el chat GPT-4 ayudó a que personas que insistentemente creían en cosas sin sustento, cambiaran su opinión. En otro estudio, dice, le entregaron una versión del chat GPT a 758 personas para que mejoraran su calidad en el trabajo. El 17% de los trabajadores que estaban muy bien calificados, destaca, mejoró en 17% su desempeño. Pero quienes estaban mal calificados, enfatiza, mejoraron en 439%. O sea, la inteligencia artificial ayudó a rendir mejor en el trabajo a quienes ya rendían, pero benefició mucho más alos mal calificados..