Autor: IVÁN SILVA I.
Cómo Wikipedia se está adaptando al auge de herramientas tipo ChatGPT
LA ENCICLOPEDIA VIRTUAL FUE FUNDADA EN 2001.
En su versión en español, diariamente se crean más de 400 artículos, PARA MANTENERSE VIGENTE: Con la explosión de textos generados con inteligencia artificial, los editores de esta enciclopedia online han debido redoblar sus esfuerzos para sortear la desinformación o los Cómo Wikipedia se está adaptando al auge de herramientas tipo ChatGPT PARA MANTENERSE VIGENTE:contenidos con fines promocionales.
La enciclopedia libre más grande del mundo, Wikipedia, que registra más de 16.000 millones de visitas al mes, enfrenta hoy nuevos retos debido a la proliferación de textos generados con herramientas de inteligencia artificial (IA). Sin embargo, “más que tratarse de un escenario en que Wikipedia y sistemas de IA en base a modelos de lenguaje, como ChatGPT, compitan por acaparar las búsquedas de información de los usuarios en internet de forma fácil, rápida y efectiva, en realidad podríamos estar ante un esquema de retroalimentación mutua o colaboración indirecta; o bien, al menos, de dependencia respecto de las fuentes de información”, dice Romina Garrido, subdirectora de GobLab, el laboratorio de innovación pública de la Escuela de Gobierno de la U. Adolfo Ibáñez.
En este sentido, el cofundador de la enciclopedia virtual, Jimmy Wales, ha reconocido que la inteligencia artificial es una oportunidad, aunque también la ve como una amenaza, y ha manifestado que en ocasiones utilizan ChatGPT para corroborar la veracidad de las aportaciones, pero no estarían conformes con los resultados obtenidos, al menos por ahora. “Algo que podría cambiar con las constantes actualizaciones y especialmente con el lanzamiento de ChatGPT 5 o GPT Next, que se espera para fines de año o inicios de 2025”, añade Garrido. REFORZAR LOS CONTROLESLos más de 265.000 voluntarios activos de Wikipedia en el mundo han tenido que reforzar su control para evitar la presencia de desinformación o contenidos promocionales en la enciclopedia virtual.
“Los editores deben seguir los principios fundamentales de Wikipedia, como la verificación y la referencia a fuentes confiables, y si bien pueden utilizar la IA para mejorar la redacción o reorganizar información, no deben confiar en ella como una fuente de información, ya que herramientas como ChatGPT no son fuentes primarias o verificables; por tanto, no siempre podemos ver de dónde o cómo se construye el conte-nido que nos ofrecen”, advierte Patricia Díaz Rubio, directora ejecutiva de Wikimedia Chile.
“Para integrar la información generada por IA de manera ética explica Díaz Rubio, los editores deben revisar cualquier contenido que haya sido creado con esta herramienta, asegurarse de que esté respaldado por fuentes fidedignas y evitar el uso directo de texto generado sin modificaciones sustanciales y sin realizar una verificación independiente, tal como lo harían con cualquier otra fuente de contenido”. Otro factor a tener en cuenta es el alcance de los chatbots de IA, dado que si las personas prefieren obtener respuestas resumidas por ChatGPT o Google Gemini, por ejemplo, la cantidad de visitas a Wikipedia podría bajar.
“La instantaneidad es algo a lo que las nuevas tecnologías nos tienen muy acostumbrados, y eso puede afectar la forma en que buscamos contenido de calidad, que siemprerequerirá un poco más de esfuerzo de nuestra parte”, comenta la directora ejecutiva de Wikimedia Chile. ENFOQUE HUMANOLeslie Pérez, directora del Diplomado en Inteligencia Artificial de la U. Católica de Valparaíso, cree que “es importante sensibilizar a las personas sobre la importancia de proyectos como Wikipedia, de forma tal que no pierda soporte económico ni de los voluntarios que componen la comunidad.
No me cabe duda que todos estos puntos están siendo desarrollados dentro de las estrategias del proyecto”. Wikipedia ha estado explorando la monetización de APIs mediante Wikimedia Enterprise, permitiendo a empresas tecnológicas acceder rápidamente a actualizaciones de artículos.
“También está considerando una mayor integración de la IA en sus procesos internos, como la detec-ción de errores y la guía para nuevos colaboradores, y viendo cómo hacer que su contenido sea más útil, tanto para humanos como para máquinas”, señala Alonso Astroza, subdirector de Alianzas con Empresas del Instituto Data Science de la U. del Desarrollo.
A eso se suman los esfuerzos de la Fundación Wikimedia, desde donde se está trabajando en nuevas herramientas automatizadas, como Citation Needed, que ayuden a mejorar el contenido de los artículos o a identificar lo que faltaría en el sitio. Pero lo que no hay que olvidar coinciden los expertos es el enfoque humano.
“La capacidad humana para evaluar, verificar y editar contenido con una perspectiva ética sigue siendo invaluable”, subraya Astroza, quien considera que los avances legislativos en materia de contenidos generados por inteligencia artificial podrían proporcionar un marco que ayude a proteger la integridad de Wikipedia..