Estrategia/Intergeneracional/Inteligencia artificial para los editores
Este resumen estrategico fue publicado en abril de 2025 y fue hecho por Chris Albon y Leila Zia de la fundacion Wikimedia. Tambien esta disponible en Figshare y Wikimedia Commons.
Resumen ejecutivo
La comunidad de voluntarios es el elemento más importante y único del éxito detrás de Wikipedia: un ejemplo destacado de gobernanza del conocimiento enciclopédico en todo el mundo. Durante más de una década, la comunidad y la Fundación Wikimedia (WMF) han desarrollado y utilizado inteligencia artificial (IA) para impulsar bots, productos y funciones.[1] Las fuerzas duales de los avances recientes en IA y los crecientes desafíos de moderar un ecosistema de conocimiento complejo nos motivaron a desarrollar una estrategia para aprovechar aún más el potencial de la IA y mitigar sus riesgos en los proyectos. Esta estrategia se centra en utilizar la IA para mejorar el trabajo de los editores en áreas donde la IA puede tener el mayor impacto en los proyectos: automatizando tareas rutinarias y repetitivas que no requieren juicio humano ni discusiones, incorporando y orientando a nuevos editores, liberando tiempo para que los editores se concentren en el conocimiento enciclopédico local y especializado en todos los idiomas, y priorizando la salvaguardia de la integridad del conocimiento, todo mientras se preserva la agencia humana. Al apoyar de manera significativa y deliberada el trabajo de los editores con IA en estas áreas, esta estrategia pretende mantener y mejorar la posición de Wikipedia como una fuente confiable de conocimiento, impulsada por la comunidad para las generaciones venideras.
Alcance
Esta estrategia establecerá una dirección general para el desarrollo, el alojamiento y el uso de la IA en productos, infraestructura e investigación en la WMF, al servicio directo de los editores de los proyectos de Wikimedia. Además, nos centramos en los proyectos de Wikimedia que se consideran importantes para compartir el conocimiento enciclopédico.
Al adoptar el alcance anterior, nos gustaría destacar explícitamente lo siguiente fuera del alcance de esta estrategia: 1) La promoción de la IA por parte de WMF, así como lo que los afiliados y voluntarios decidan hacer con la IA; 2) El trabajo de IA que WMF pueda realizar fuera de los proyectos de Wikimedia y las plataformas tecnológicas que WMF posee; 3) Recomendaciones estratégicas con respecto a cómo WMF interactúa con las empresas tecnológicas que utilizan el contenido de Wikimedia para crear su propia IA; 4) El uso de la IA por parte de WMF para aplicaciones que son internas a la organización.
Horizonte
Esta estrategia tiene como objetivo orientar el trabajo de la organización entre el 1 de julio de 2025 y el 30 de junio de 2028 dentro del ámbito que especificamos anteriormente.
Actualización de la cadencia
El ámbito de la investigación y el desarrollo en IA es muy dinámico. Recomendamos revisar esta estrategia anualmente para considerar las actualizaciones. Si se producen avances o cambios importantes, revisaremos esta estrategia fuera del ciclo anual.
Objetivo
La IA ofrece oportunidades para muchos aspectos de la experiencia de Wikipedia. Con esta estrategia, recomendamos que, en particular, desarrollemos e implementemos tecnologías basadas en IA para:
- Incorporación de nuevos editores.
- Motivar a los editores actuales para que sigan contribuyendo al trabajo enciclopédico reduciendo su carga de trabajo y apoyándolos para que contribuyan en áreas en las que están en una posición privilegiada para hacerlo.
- Reforzar la posición de Wikipedia como la fuente de conocimiento enciclopédico más fiable en más idiomas.
- Establecer a la Fundación como líder en el desarrollo y uso de la IA con un enfoque centrado en el ser humano, priorizando las herramientas que empoderan a los editores en lugar de reemplazarlos, protegen los valores de la comunidad y aumentan el acceso al conocimiento.
Preguntas clave
- ¿Qué estrategias podría adoptar WMF para aplicar la IA en el ámbito de la edición (generación y moderación de contenido)? ¿Y cuáles son las ventajas y desventajas de elegir cada una de esas estrategias?
- ¿Cuál de las estrategias deberíamos seguir?
- Con esta estrategia, ¿cómo se alinearán nuestro desarrollo, alojamiento y uso de la IA con nuestros valores fundamentales?
- Con esta estrategia, ¿cómo interactuarán los humanos con la IA?
- Con esta estrategia, ¿cómo deberíamos aplicar la IA a la generación de contenido? ¿Cómo deberíamos aplicarla a la moderación de contenido? ¿Cómo deberíamos priorizar el uso de la IA entre mejorar la calidad del contenido existente y generar nuevas contribuciones?
- Con esta estrategia, ¿qué inversiones serán necesarias para alcanzar el éxito? ¿Qué inversiones deberían modificarse o suspenderse?
Situación actual
A medida que internet evoluciona y aumenta el uso de la IA, prevemos que el ecosistema del conocimiento se verá cada vez más contaminado por contenido de baja calidad, información errónea y desinformación. Confiamos en que la gente seguirá valorando el conocimiento verificable y de alta calidad, y que continuará buscando la verdad. Apostamos a que preferirán confiar en personas reales como árbitros del conocimiento. Creemos que Wikipedia, creada por voluntarios humanos, puede ser ese pilar de la verdad al que la gente recurrirá, ya sea a través de los proyectos de Wikimedia o mediante su reutilización por terceros.
El modelo de generación de conocimiento colectivo de Wikipedia ha demostrado su capacidad para crear conocimiento enciclopédico verificable y neutral. La comunidad wikipedista y la WMF han utilizado durante mucho tiempo la IA para apoyar el trabajo de los voluntarios, manteniendo el papel del humano como centro. Hoy en día usamos la IA para apoyar a los editores a detectar vandalismo en todos los sitios de Wikipedia, traducir contenido para los lectores, predecir la calidad de los artículos, cuantificar la legibilidad de los artículos, sugerir ediciones a los voluntarios y más allá. Hemos hecho esto siguiendo los valores de Wikipedia en torno a la gobernanza comunitaria, la transparencia, el apoyo a los derechos humanos, el código abierto y otros. Dicho esto, hemos aplicado la IA de manera modesta a la experiencia de edición cuando surgieron oportunidades o tecnología. Sin embargo, no hemos emprendido un esfuerzo concertado para mejorar la experiencia de edición de los voluntarios con IA, ya que hemos decidido no priorizarlo por encima de otras oportunidades.
Los avances recientes en IA han dado lugar a nuevas posibilidades en la creación y el consumo de contenido. Los modelos de lenguaje grande (LLMs) capaces de resumir y generar texto en lenguaje natural los hacen particularmente adecuados para el enfoque de Wikipedia en el conocimiento escrito. El potencial a largo plazo de estas tecnologías para crear experiencias de usuario escalables y de alta calidad es significativo y merece una consideración cuidadosa. Al mismo tiempo, estas mismas tecnologías representan riesgos para los proyectos de Wikimedia y los flujos de trabajo de los editores. Por ejemplo, muchas personas y gobiernos en todo el mundo ahora pueden, en cuestión de minutos, generar miles de artículos similares a los de Wikipedia que, a primera vista, pueden parecer legítimos, y podrían ser engaños difíciles de detectar en Wikipedia. Mientras que generar nuevo contenido se ha vuelto extremadamente barato y accesible, la verificación del contenido sigue siendo lenta y costosa. Sin embargo, la verificabilidad es la columna vertebral del trabajo enciclopédico. Los editores necesitan un apoyo significativo por parte de la WMF para aprovechar lo mejor que la IA puede ofrecer a los proyectos frente a estas oportunidades y desafíos.
Posibles soluciones
Al desarrollar esta estrategia, exploramos diversas opciones y consideramos múltiples ventajas y desventajas. Nuestro objetivo era determinar la mejor manera de integrar la IA en nuestro trabajo, respetando nuestros valores y garantizando que los editores y las comunidades sigan siendo el eje central del proyecto.
Primero exploramos la opción de apoyar a los editores con IA de manera incidental. Esta es la opción de statu quo que más se asemeja a cómo actualmente realizamos investigación, desarrollo de productos y funciones. Invertimos algunos recursos en IA, pero no muchos. Seguir este camino significa que no responderemos a un internet en cambio[2] poniendo en peligro los proyectos. Como se compartió anteriormente, dado que los avances recientes en IA han facilitado la generación de contenido, y dado que el costo de la verificabilidad sigue siendo alto para los editores, estos estarán en riesgo significativo de sobrecarga y agotamiento. Mantener el statu quo corre el riesgo de dejar la experiencia del usuario de Wikipedia por detrás de las expectativas de los usuarios modernos de internet y aún más con la próxima generación. Si bien Wikipedia como plataforma ha evolucionado tradicionalmente a un ritmo más lento, el panorama general de internet continúa avanzando rápidamente, estableciendo nuevos estándares de usabilidad, diseño móvil primero, interactividad y accesibilidad. Sin adaptarse a estas expectativas, corremos el riesgo de alienar tanto a los usuarios actuales como a los futuros y de disminuir el valor y la relevancia de Wikipedia.
La segunda estrategia posible sería invertir en la generación de conocimiento con IA por encima de la generación de conocimiento humano. Los avances en IA dejan claro que en los próximos años habrá intentos crecientes de utilizar IA para la creación o curación de conocimiento mediante la síntesis directa de fuentes primarias, secundarias y terciarias. Esta estrategia tiene atractivos evidentes para las empresas, como eficiencia y escalabilidad. Pero también tiene desventajas, como supervisión humana limitada, vulnerabilidad a sesgos, alucinaciones, potencial de difusión de desinformación y mala información, contexto local limitado, labor humana invisible significativa,[3] y capacidad limitada para manejar temas matizados. Adoptar esta estrategia conlleva un riesgo adicional y más importante. Dado que los voluntarios son el elemento central y único del éxito de los proyectos de Wikimedia, esta estrategia puede desalentar a los voluntarios existentes, poniendo en peligro los proyectos.
Las estrategias mencionadas anteriormente no nos permitirán alcanzar nuestros objetivos para una Wikipedia multigeneracional. Por lo tanto, recomendamos una tercera estrategia: «Invertir de forma significativa y específica en el apoyo a los editores mediante IA». Mientras las empresas se alejan del conocimiento creado por humanos, debemos potenciar el trabajo colectivo de los editores y utilizar la IA para ayudarlos. Los humanos apoyados por la IA serán más eficaces en la generación de conocimiento que los humanos o la IA por sí solos. Además, proponemos utilizar la IA en áreas donde esta se encuentra en una posición privilegiada para apoyar a los editores y promover los objetivos del Movimiento Wikimedia. Este enfoque específico es importante porque nos permite lograr el mayor impacto posible dentro de las limitaciones de nuestro presupuesto y recursos.
Estrategia priorizada y compensaciones
Nuestra estrategia prioritaria consiste en invertir en IA para apoyar a los editores en áreas donde la IA puede ofrecer una ventaja única sobre otras tecnologías para resolver problemas de gran impacto y para priorizar la autonomía de los editores en la interacción con la IA. Más concretamente, recomendamos invertir en IA para apoyar a los editores de la siguiente manera:
Priorizar los flujos de trabajo asistidos por IA en apoyo de moderadores y patrulleros. Los avances recientes en IA, particularmente la IA generativa, han facilitado significativamente la generación de contenido, lo que introduce un riesgo importante para los editores y los proyectos, ya que la validación del contenido sigue siendo costosa. Miles de engaños difíciles de detectar en Wikipedia y otras formas de desinformación y mala información pueden producirse en minutos.[4] Por lo tanto, debemos priorizar el uso de IA para apoyar la integridad del conocimiento y aumentar la capacidad de los moderadores para mantener la calidad de Wikipedia. Sobrecargar a los editores con la tarea de gestionar un flujo masivo de contenido asistido por IA implica riesgo de agotamiento y compromete la calidad y existencia de Wikipedia. Este enfoque en los flujos de trabajo para moderadores y patrulleros asegura que Wikipedia siga siendo una fuente confiable, permitiendo a los editores realizar su trabajo de manera efectiva.
Crea más tiempo para la edición, el juicio humano, el debate y la búsqueda de consenso. Los editores invierten una cantidad considerable de tiempo antes de poder editar Wikipedia. Parte de este tiempo se dedica a buscar la información que necesitan para editar, debatir o tomar decisiones. La IA destaca en tareas como la recuperación de información, la traducción y la detección de patrones. Al automatizar estas tareas repetitivas, la IA libera tiempo para que los editores se centren en áreas del trabajo enciclopédico que requieren experiencia humana: edición, debates, búsqueda de consenso y toma de decisiones en situaciones complejas donde hay mucho en juego y el impacto es significativo.
Crea más tiempo para que los editores compartan perspectivas o contexto local sobre un tema. Los editores de lenguas menos representadas se enfrentan a la presión de crear más contenido en sus lenguas locales. Automatizar la traducción y adaptación de temas comunes[5] permite a los editores enriquecer el conocimiento enciclopédico con conocimientos culturales y locales y matices que los modelos de IA no pueden proporcionar. Esto permite a los editores invertir más tiempo en crear contenido que fortalezca a Wikipedia como una enciclopedia diversa y global.
Involucrar a las nuevas generaciones de editores con mentoría guiada, flujos de trabajo y asistencia. Los editores impulsan la curación y la gobernanza del conocimiento. Para que los proyectos sean multigeneracionales, los nuevos editores deben encontrar flujos de trabajo de edición que se ajusten a sus expectativas y deben encontrar formas efectivas de obtener ayuda. La IA ofrece oportunidades para generar valiosos tipos de ediciones sugeridas que tengan sentido para una nueva generación. Y la IA generativa en particular ofrece una solución prometedora para la mentoría y la guía automatizadas de los recién llegados. La IA puede brindar apoyo personalizado, desde recuperar información y comprender políticas hasta brindar retroalimentación sobre las ediciones, ayudando a los recién llegados a sentirse seguros y capaces.
Cómo implementaremos esta estrategia
Nuestra implementación de esta estrategia se ve moldeada por la visión de la WMF, la misión, los principios rectores, la política de privacidad, la política de derechos humanos, la Estrategia del Movimiento 2030 y los pilares multigeneracionales. A continuación, destacamos los principios fundamentales extraídos o informados por estas fuentes que deben definir cómo implementamos esta estrategia.
- Adoptamos un enfoque centrado en el ser humano. Empoderamos e involucramos a las personas, y priorizamos su capacidad de acción.
- Priorizamos el uso de tecnologías de IA de código abierto o ponderaciones abiertas, y desarrollamos únicamente IA de código abierto.[6]
- El uso de la IA permitirá a los editores centrarse más en lo que quieren lograr, y no en cómo conseguirlo técnicamente.
- Nos coordinamos con las entidades afiliadas a Wikimedia e invertimos en la red distribuida de personas, instituciones y organizaciones que contribuyen a esta estrategia.
- Nosotras priorizamos la transparencia.
- Damos prioridad al multilingüismo de maneras sutiles.
- Continuamos ofreciendo un espacio donde los seres humanos pueden compartir la suma de todo el conocimiento enciclopédico sin temor a la persecución o la censura.
Ventajas y desventajas
Para llegar a la estrategia priorizada mencionada anteriormente, tuvimos que tomar decisiones y hacer concesiones. Compartiremos más detalles al respecto más adelante. Cabe señalar que la implementación de esta estrategia requerirá más decisiones y concesiones por parte nuestra y de otros responsables de la toma de decisiones en WMF. Actualmente, incluimos un borrador de las decisiones de implementación en el Apéndice.
Generación de contenido vs. integridad del contenido. Nuestros recursos son limitados y no podemos apoyar significativamente a los editores con IA tanto en la generación de contenido como en la integridad del contenido al mismo tiempo. Tomamos la decisión de priorizar primero el uso de IA para apoyar a los editores en garantizar la integridad del contenido. Al hacerlo, queremos asegurar que los moderadores y patrulleros estén adecuadamente respaldados ante cualquier aumento de contenido nuevo en los proyectos. Nuestra lógica es que el nuevo conocimiento enciclopédico solo puede añadirse a Wikipedia a un ritmo definido por la capacidad de los editores existentes para moderar ese contenido. Si invertimos fuertemente en la generación de nuevo contenido antes de la moderación, el contenido nuevo abrumará la capacidad de los editores para moderarlo. Este equilibrio podría cambiar con el tiempo a medida que cambien las necesidades de moderación frente al nuevo contenido.
Modelos de código abierto vs. modelos de pesos abiertos.[7] Nos comprometemos a construir modelos de código abierto para IA. Sin embargo, debemos reconocer que nuestros recursos son demasiado limitados para desarrollar nuestro propio modelo fundamental de código abierto, lo que requeriría miles de nuevos servidores[8] y cientos de miles de horas de trabajo de ingenieros e investigadores en aprendizaje automático. Por esta razón, hemos decidido utilizar modelos de pesos abiertos cuando sea necesario para construir funciones que apoyen a los editores. Esperamos que en el futuro se lancen modelos fundamentales de código abierto capaces de competir en evaluaciones de mejores prácticas.
Usar la IA en muchos lugares vs. usar la IA para áreas de impacto específicas. Nuestros recursos, incluso considerando los recursos colectivos de la comunidad y el ecosistema de conocimiento libre más amplio, no son suficientes (es decir, experiencia, fondos para infraestructura, etc.) para planificar, desarrollar, ajustar y usar la IA para una miríada de aplicaciones diferentes sin un enfoque definido. Mediante esta estrategia, hemos optado por limitar las aplicaciones de impacto centrándonos en cuatro áreas principales. Reconocemos que existe gran expectación y entusiasmo en torno a la IA. Anticipamos que se nos pedirá que apliquemos la IA a cada vez más aplicaciones, lo que puede generar fricción al equilibrar las nuevas propuestas con nuestro enfoque específico. Esta tensión puede generar frustración entre quienes abogan por otras áreas de impacto y puede requerir que revisemos periódicamente nuestras prioridades. También puede ralentizar el trabajo en esta estrategia, ya que es posible que necesitemos revisar periódicamente nuestras prioridades.
Agradecimientos
Este informe estratégico ha sido posible gracias a las contribuciones y aportaciones de numerosas personas que colaboraron con nosotros entre junio de 2024 y febrero de 2025. A continuación, reconocemos y agradecemos a estas personas su colaboración.
A lo largo del proceso, Selena Deckelmann y Marshall Miller nos apoyaron de diversas maneras, incluyendo redefinir el alcance del trabajo para enfocarse específicamente en los editores, así como proporcionando retroalimentación extensa, particularmente en las primeras etapas de la estrategia. Nadee Gunasena se asoció con Selena y con nosotros para crear espacios y oportunidades para interactuar y recopilar aportes de diferentes grupos. Miriam Redi proporcionó retroalimentación frecuente en las primeras etapas de nuestro pensamiento y trabajo. Estas conversaciones tuvieron diversas dimensiones: desde la importancia de priorizar “abierto y gratuito” hasta priorizar una simbiosis sostenible entre Wikipedia e IA generativa. También nos gustaría agradecer a Isaac Johnson por apoyarnos desde el principio para llegar a una comprensión más matizada de la IA generativa para Wikipedia y el multilingüismo; y por proponer el marco de usar IA donde esta está en una posición más única (comparado con otras soluciones sociales o técnicas que pueden no escalar) para apoyar a los editores (por ejemplo, Mentoría).
En julio-agosto de 2024, tuvimos algunas sesiones con el liderazgo senior de la WMF para conocer sus perspectivas y prioridades. Estas sesiones fueron importantes para nosotros porque queríamos lograr alineación organizacional sobre la estrategia que estábamos desarrollando, y alinearnos con el liderazgo era un aspecto importante de ello. Agradecemos (en orden alfabético por apellido) a Lane Becker, Nadee Gunasena, Maryana Iskander, Stephen LaPorte, Lisa Seitz Gruwell, Amy Tsay, Denny Vrandečić y Yael Weissburg por involucrarse profundamente con nuestras preguntas y compartir sus pensamientos y perspectivas de manera abierta.
En agosto, durante Wikimania 2024, organizamos una sesión con algunos afiliados y voluntarios. Agradecemos a quienes participaron en la conversación, compartiendo sus perspectivas y aportando valiosos comentarios. Una de las conclusiones de la sesión fue que varios afiliados deseaban tener claridad sobre cómo implementar la estrategia de IA. Inspirándonos en esas conversaciones, dedicamos una subsección de este informe estratégico a este tema.
Por último, nos gustaría agradecer a Pablo Aragón, Adam Baso, Suman Cherukuwada, Rita Ho, Caroline Myrick y Santhosh Thottingal sus preguntas, comentarios y aportaciones que contribuyeron a mejorar este trabajo.
Notas al pie
- ↑ Véase ClueBot NG, uno de los primeros bots comunitarios impulsados por IA y los modelos de IA desarrollados y alojados por la WMF.
- ↑ Special:MyLanguage/Strategy/Multigenerational
- ↑ Humans in the AI loop: the data labelers behind some of the most powerful LLMs' training datasets
- ↑ Véase la presentación de Asaf Bartov en CEE 2024 para ejemplos.
- ↑ Ejemplos de dichos temas comunes incluyen, entre otros, la lista de artículos que toda Wikipedia debería tener
- ↑ Tenga en cuenta que el código de las principales tecnologías LLM de código abierto actualmente no es abierto. Para algunos de estos modelos de IA, las ponderaciones son abiertas.
- ↑ Los modelos de código abierto proporcionan acceso a los datos de entrenamiento y al código, mientras que los pesos abiertos solo proporcionan los parámetros entrenados (pesos), a menudo en formato Safetensors. Estos pesos pueden alojarse en la infraestructura de Wikimedia utilizando bibliotecas de software de código abierto.
- ↑ Para comparación, según una fuente Meta tiene 600,000 GPUs para IA, mientras que la Fundación Wikimedia actualmente tiene menos de 20.