Jump to content

Estratégia/Multigeracional/Inteligência Artificial para editores

From Meta, a Wikimedia project coordination wiki
This page is a translated version of the page Strategy/Multigenerational/Artificial intelligence for editors and the translation is 98% complete.
Outdated translations are marked like this.

Este resumo estratégico foi publicado em abril de 2025 e foi escrito por Chris Albon e Leila Zia, da Fundação Wikimedia. Ele também está disponível no Figshare e Wikimedia Commons.

Sumário executivo

A comunidade de voluntários é o elemento mais importante e único por trás do sucesso da Wikipédia – um exemplo de destaque na governança do conhecimento enciclopédico em todo o mundo. Há mais de uma década, a comunidade e a Fundação Wikimedia (WMF) vêm desenvolvendo e utilizando inteligência artificial (IA) para alimentar bots, produtos e funcionalidades.[1]

Os avanços recentes na IA, combinados com os crescentes desafios de moderação de um ecossistema de conhecimento complexo, motivaram a elaboração de uma estratégia para ampliar o uso do potencial da IA e mitigar seus riscos nos projetos.

Essa estratégia concentra-se em utilizar a IA para potencializar o trabalho dos editores nas áreas em que ela pode ter maior impacto: automatizando tarefas rotineiras e repetitivas que não exigem julgamento humano ou discussão; apoiando a integração e mentoria de novos editores; liberando tempo para que editores se dediquem ao conhecimento enciclopédico local e especializado em diferentes idiomas; e priorizando a proteção da integridade do conhecimento – tudo isso preservando a agência humana.

Ao apoiar de forma significativa e intencional o trabalho dos editores com IA nessas frentes, a estratégia busca manter e fortalecer a posição da Wikipédia como fonte confiável de conhecimento, impulsionada pela comunidade para as gerações futuras.

Escopo

Essa estratégia definirá uma diretriz de alto nível para o desenvolvimento, a hospedagem e o uso de IA em produtos, infraestrutura e pesquisa na WMF, a serviço direto dos editores dos projetos Wikimedia. Além disso, restringimos o foco aos projetos Wikimedia considerados importantes para a disseminação do conhecimento enciclopédico.

Ao adotar o escopo acima, gostaríamos de destacar explicitamente o que está fora do escopo desta estratégia: 1) a atuação da WMF em defesa e promoção da IA, bem como o que afiliados e voluntários escolhem fazer com IA; 2) trabalhos com IA que a WMF possa realizar fora dos projetos Wikimedia e das plataformas tecnológicas sob sua responsabilidade; 3) recomendações estratégicas sobre como a WMF deve se relacionar com empresas de tecnologia que utilizam conteúdo da Wikimedia para construir suas próprias IAs; 4) o uso de IA pela WMF para aplicações internas da organização.

Horizonte

Essa estratégia tem como objetivo orientar o trabalho da organização entre 1º de julho de 2025 e 30 de junho de 2028, dentro do escopo que especificamos acima.

Frequência de atualização

O campo de pesquisa e desenvolvimento em IA é altamente dinâmico. Recomendamos que esta estratégia seja revisitada uma vez por ano para considerar atualizações. Caso ocorram avanços ou mudanças significativas, revisitaremos esta estratégia fora do ciclo anual.

Objetivo

A IA oferece oportunidades para diversos aspectos da experiência na Wikipédia. Com esta estratégia, recomendamos, em especial, o desenvolvimento e a hospedagem de tecnologias com suporte de IA para:

  • Integrar novos editores
  • Motivar editores já ativos a continuar contribuindo com o trabalho enciclopédico, reduzindo sua carga de trabalho e apoiando-os na contribuição em áreas nas quais estão especialmente qualificados para atuar.
  • Reforçar a posição da Wikipédia como a fonte mais confiável de conhecimento enciclopédico em um número crescente de idiomas.
  • Estabelecer a Fundação como líder no desenvolvimento e uso de IA com uma abordagem centrada nas pessoas, priorizando ferramentas que fortaleçam e não substituam os editores, protejam os valores da comunidade e ampliem o acesso ao conhecimento.

Perguntas-chave

  1. Quais são as diferentes estratégias que a WMF poderia adotar em relação à aplicação de IA no domínio da edição (geração de conteúdo e moderação de conteúdo)? E quais são os prós e contras de escolher cada uma dessas estratégias?
  2. Qual dessas estratégias devemos seguir?
  3. Com esta estratégia, como nosso desenvolvimento, hospedagem e uso de IA estarão alinhados com nossos valores centrais
  4. Com esta estratégia, como os humanos irão interagir com a IA?
  5. Com esta estratégia, como devemos aplicar a IA na geração de conteúdo? Como devemos aplicá-la na moderação de conteúdo? Como devemos priorizar o uso da IA entre a melhoria da qualidade do conteúdo existente e a geração de novas contribuições?
  6. Com esta estratégia, quais investimentos serão necessários para o sucesso? Quais investimentos devem ser alterados ou descontinuados?

Situação atual

À medida que a internet continua a evoluir e o uso da IA se intensifica, esperamos que o ecossistema de conhecimento se torne cada vez mais poluído com conteúdo de baixa qualidade, desinformação e informação enganosa. Esperamos que as pessoas continuem valorizando conhecimento verificável e de alta qualidade, que continuem buscando a verdade, e apostamos que elas desejarão confiar em pessoas reais como árbitros do conhecimento. Produzida por voluntários humanos, acreditamos que a Wikipédia pode ser essa espinha dorsal da verdade à qual as pessoas recorrerão, seja diretamente nos projetos Wikimedia, seja por meio de reutilização por terceiros.

O modelo de geração coletiva de conhecimento da Wikipedia demonstrou sua capacidade de criar conhecimento enciclopédico verificável e neutro. A comunidade wikipedista e a WMF utilizam IA há muito tempo para apoiar o trabalho dos voluntários, mantendo o papel central do ser humano. Atualmente, usamos IA para ajudar os editores a detectar vandalismo em todas as versões da Wikipedia, traduzir conteúdo para os leitores, prever a qualidade de artigos, quantificar a legibilidade dos artigos, sugerir edições aos voluntários, entre outras aplicações. Fizemos isso seguindo os valores da Wikipedia sobre governança comunitária, transparência, apoio aos direitos humanos, código aberto e outros. Dito isso, aplicamos a IA de forma modesta à experiência de edição, quando surgiram oportunidades ou tecnologias apropriadas. No entanto, não realizamos um esforço coordenado para melhorar a experiência de edição dos voluntários com IA, pois optamos por não a priorizar em relação a outras oportunidades.

Avanços recentes em IA abriram novas possibilidades para a criação e o consumo de conteúdo. Modelos de linguagem de grande escala (LLMs), capazes de resumir e gerar texto em linguagem natural, são particularmente adequados ao foco da Wikipedia em conhecimento escrito. O potencial de longo prazo dessas tecnologias para criar experiências de usuário de alta qualidade e em escala é significativo e merece consideração cuidadosa. Ao mesmo tempo, essas tecnologias também apresentam riscos para os projetos Wikimedia e para os fluxos de trabalho dos editores. Por exemplo, muitas pessoas e governos ao redor do mundo já conseguem, em questão de minutos, gerar milhares de artigos semelhantes aos da Wikipedia que, à primeira vista, podem parecer legítimos, mas podem ser farsas difíceis de detectar. Enquanto gerar novo conteúdo se tornou extremamente barato e acessível, a verificação de conteúdo continua sendo um processo lento e custoso. No entanto, a verificabilidade é uma base fundamental do trabalho enciclopédico. Os editores precisam de apoio significativo da WMF para aproveitar o melhor que a IA pode oferecer aos projetos diante dessas oportunidades e desafios.

Soluções possíveis

Ao desenvolver esta estratégia, exploramos várias opções e consideramos diversos compromissos. Nosso objetivo foi determinar o melhor caminho para integrar a IA ao nosso trabalho, mantendo nossos valores e garantindo que os editores e as comunidades continuem no centro do projeto.

Primeiro, exploramos a opção de apoiar os editores com IA de forma incidental. Essa é a opção do status quo, mais próxima de como atualmente conduzimos pesquisas, desenvolvimento de produtos e de funcionalidades. Investimos alguns recursos em IA, mas não muitos. Seguir esse caminho significa não responder às mudanças na internet[2], colocando os projetos em risco. Como já mencionado, considerando que os avanços recentes em IA tornaram a geração de conteúdo fácil e que o custo da verificabilidade continua alto para os editores, estes estarão sob risco significativo de sobrecarga e exaustão. Manter o status quo implica o risco de deixar a experiência do usuário da Wikipedia atrás das expectativas dos usuários da internet moderna — e ainda mais da próxima geração. Embora a Wikipedia, como plataforma, tradicionalmente evolua em um ritmo mais lento, o cenário mais amplo da internet continua avançando rapidamente, estabelecendo novos padrões de usabilidade, design voltado para dispositivos móveis, interatividade e acessibilidade. Sem adaptação a essas expectativas, arriscamos em afastar usuários atuais e futuros e de reduzir o valor e a relevância da Wikipedia.

A segunda estratégia possível seria investir na geração de conhecimento por IA em vez da geração de conhecimento humano. Os avanços em IA deixam claro que, nos próximos anos, haverá tentativas crescentes de usar a IA para criar ou organizar conhecimento diretamente a partir do resumo de fontes primárias, secundárias e terciárias. Essa abordagem possui apelos evidentes para empresas, como eficiência e escalabilidade. No entanto, também apresenta desvantagens, como supervisão humana limitada, vulnerabilidade a vieses, alucinações, potencial para disseminação de desinformação e informação incorreta, contexto local limitado, trabalho humano invisível significativo,[3] e baixa capacidade de lidar com temas complexos e sutis. Adotar essa estratégia acarreta um risco ainda mais importante: como os voluntários são o elemento central e único do sucesso dos projetos Wikimedia, essa abordagem pode desmotivar os voluntários já ativos, comprometendo os próprios projetos.

As estratégias discutidas acima não nos permitirão alcançar nossos objetivos para uma Wikipedia multigeracional. Por isso, recomendamos uma terceira estratégia: realizar um investimento significativo e direcionado no apoio aos editores com IA. Enquanto empresas se afastam do conhecimento criado por humanos, devemos nos apoiar no poder coletivo dos editores e utilizar a IA para auxiliá-los. Humanos apoiados por IA serão mais eficazes na geração de conhecimento do que humanos ou IA atuando isoladamente. Além disso, propomos o uso da IA em áreas nas quais ela esteja particularmente bem posicionada para apoiar os editores e avançar os objetivos do Movimento Wikimedia. Essa abordagem direcionada é importante porque nos permite alcançar o maior impacto possível nas realidades do nosso orçamento e recursos.

Estratégia priorizada e compromissos

Nossa estratégia priorizada é investir em IA para apoiar os editores em áreas nas quais a IA pode oferecer uma vantagem única em relação a outras tecnologias para resolver problemas de impacto, priorizando a autonomia dos editores na interação com a IA. Mais especificamente, recomendamos investir em IA para apoiar os editores da seguinte forma:

Priorizar fluxos de trabalho assistidos por IA em apoio a moderadores e patrulheiros. Os avanços recentes em IA, especialmente em IA generativa, tornaram a geração de conteúdo significativamente mais fácil, o que introduz riscos relevantes para os editores e os projetos, já que a validação do conteúdo continua sendo custosa. Milhares de farsas difíceis de detectar e outras formas de desinformação e informação incorreta podem ser produzidas em minutos.[4] Por isso, devemos priorizar o uso da IA para apoiar a integridade do conhecimento e aumentar a capacidade dos moderadores de manter a qualidade da Wikipedia. Sobrecarregar os editores com a tarefa de lidar com o fluxo de conteúdo assistido por IA aumenta o risco de esgotamento e compromete a qualidade e a própria existência da Wikipedia. Este foco nos fluxos de trabalho de moderadores e patrulheiros garante que a Wikipedia continue sendo uma fonte confiável, permitindo que os editores realizem seu trabalho de forma eficaz.

Criar mais tempo para edição, julgamento humano, discussão e construção de consenso. Os editores dedicam uma quantidade significativa de tempo antes de conseguirem editar a Wikipedia. Parte desse tempo é investido na busca por informações necessárias para suas edições, discussões ou tomadas de decisão. A IA se destaca em tarefas como recuperação de informações, tradução e detecção de padrões. Ao automatizar essas tarefas repetitivas, a IA libera tempo para que os editores se concentrem em áreas do trabalho enciclopédico que exigem especialização humana: edição, discussões, construção de consenso e tomada de decisões em situações complexas, nas quais os riscos são altos e o impacto é significativo.

Criar mais tempo para que editores compartilhem perspectivas ou contextos locais sobre um tema. Editores de idiomas menos representados enfrentam a pressão de criar mais conteúdo em suas línguas locais. A automatização da tradução e adaptação de tópicos comuns[5] permite que os editores enriqueçam o conhecimento enciclopédico com saberes culturais, locais e nuances que os modelos de IA não conseguem oferecer. Isso possibilita que os editores invistam mais tempo na criação de conteúdo que fortaleça a Wikipedia como uma enciclopédia diversa e global.

Engajar novas gerações de editores com mentorias, fluxos de trabalho e assistência guiadas.' Os editores são os responsáveis pela curadoria e governança do conhecimento. Para os projetos serem multigeracionais, novos editores precisam encontrar fluxos de edição que atendam às suas expectativas e formas eficazes de obter ajuda. A IA oferece oportunidades para gerar tipos valiosos de sugestões de edição que façam sentido para uma nova geração. A IA generativa, em particular, apresenta uma solução promissora para a mentoria e orientação automatizadas de novos participantes. A IA pode oferecer suporte personalizado, desde a recuperação de informações e compreensão de políticas até o fornecimento de feedback sobre edições, ajudando os novos editores a se sentirem confiantes e capazes.

Como implementaremos esta estratégia

A implementação desta estratégia é orientada pela visão, missão, princípios orientadores, política de privacidade, política de direitos humanos, Estratégia do Movimento 2030 e pelos pilares multigeracionais da WMF. Abaixo destacamos os princípios centrais, extraídos ou inspirados por essas fontes, que devem orientar como implementamos esta estratégia.

  1. Adotamos uma abordagem centrada nas pessoas. Valorizamos e engajamos os seres humanos, e priorizamos a autonomia humana.
  2. Priorizamos o uso de tecnologias de IA de código aberto ou com pesos abertos, e desenvolvemos somente IA de código aberto.[6]
  3. Nosso uso de IA permitirá que os editores se concentrem mais no que desejam realizar, e não em como alcançar isso tecnicamente.
  4. Coordenamos com os afiliados da Wikimedia e investimos na rede distribuída de pessoas, instituições e organizações para contribuir com esta estratégia.
  5. Priorizamos transparência.
  6. Priorizamos o multilinguismo de formas sensíveis às nuances.
  7. Continuamos a oferecer um espaço onde as pessoas compartilhem a soma de todo o conhecimento enciclopédico sem medo de perseguição ou censura.

Compromissos

Para chegar à estratégia priorizada acima, enfrentamos compromissos e tivemos que fazer escolhas. A seguir, compartilharemos mais sobre eles. Vale destacar que a implementação desta estratégia exigirá novos compromissos e escolhas, a serem feitos por nós e por outros tomadores de decisão na WMF. Atualmente, registramos rascunhos dos compromissos de implementação no Apêndice.

Geração de conteúdo vs. integridade do conteúdo. Nossos recursos são limitados e não podemos apoiar significativamente os editores com IA tanto para geração de conteúdo quanto para integridade do conteúdo ao mesmo tempo. Tomamos a decisão de, primeiramente, priorizar o uso da IA para apoiar os editores na garantia da integridade do conteúdo. Com isso, buscamos garantir que moderadores e patrulheiros estejam adequadamente apoiados diante de qualquer aumento no volume de novos conteúdos nos projetos. Nosso raciocínio é que novos conhecimentos enciclopédicos só podem ser adicionados à Wikipedia em um ritmo compatível com a capacidade dos editores existentes de moderar esse conteúdo. Se investirmos fortemente na geração de novos conteúdos antes de garantir a moderação, esses conteúdos poderão sobrecarregar a capacidade dos editores. Esse equilíbrio poderá, no entanto, se alterar ao longo do tempo, conforme mudem as necessidades entre moderação e geração de conteúdo.

Modelos de código aberto vs. modelos com pesos abertos.[7] Comprometemo-nos a construir modelos de IA de código aberto. No entanto, precisamos reconhecer que nossos recursos são limitados demais para desenvolver nosso próprio modelo fundacional de código aberto, o que exigiria milhares de novos servidores[8] e centenas de milhares de horas de trabalho de engenheiros e pesquisadores em aprendizado de máquina. Por essa razão, optamos por utilizar modelos com pesos abertos quando necessário para desenvolver funcionalidades que apoiem os editores. Esperamos que, no futuro, sejam lançados modelos fundacionais de código aberto capazes de competir nas avaliações de melhores práticas.

Usar IA em muitos lugares vs. usar IA para áreas específicas de impacto. Nossos recursos, mesmo considerando os recursos coletivos da comunidade e do ecossistema mais amplo do conhecimento livre, não são suficientes (por exemplo, conhecimento técnico especializado, fundos para infraestrutura etc) para planejar, desenvolver, ajustar e utilizar IA em inúmeras aplicações diferentes sem foco. Por meio desta estratégia, optamos por limitar as aplicações de impacto, concentrando-nos em quatro áreas principais. Reconhecemos haver entusiasmo e expectativa em torno da IA. Esperamos que sejamos solicitados a aplicar IA em cada vez mais aplicações, o que pode gerar atritos ao equilibrar novas propostas com nossa abordagem focada. Essa tensão pode causar frustração entre aqueles que defendem outras áreas de impacto e pode exigir que revisitemos regularmente nossas prioridades. Isso também pode desacelerar o avanço desta estratégia caso seja necessário reavaliar constantemente nossas prioridades.

Agradecimentos

Este resumo estratégico só foi possível graças às contribuições e sugestões de diversas pessoas que interagiram conosco entre junho de 2024 e fevereiro de 2025. Reconhecemos e agradecemos a essas pessoas abaixo.

Ao longo do processo, Selene Deckelmann e Marshall Miller nos apoiaram de diversas formas, incluindo a redefinição do escopo do trabalho com foco específico nos editores, além de fornecerem feedbacks extensos, especialmente nas fases iniciais da estratégia. Nadee Gunasena colaborou com Selene e conosco para criar espaços e oportunidades de diálogo com diferentes grupos e coleta de contribuições. Miriam Redi ofereceu retornos frequentes nas etapas iniciais do nosso pensamento e trabalho. Essas conversas abordaram diferentes dimensões: desde a importância de priorizar o “aberto e livre” até a priorização de uma simbiose sustentável entre a Wikipedia e a IA generativa. Também gostaríamos de agradecer a Isaac Johnson por nos apoiar desde o início na construção de uma compreensão mais aprofundada sobre IA generativa aplicada à Wikipedia e ao multilinguismo; e por propor a ideia de usar IA em contextos onde ela está particularmente bem posicionada (em comparação com outras soluções sociais ou técnicas que podem não ser escaláveis) para apoiar os editores (por exemplo, em mentorias).

Entre julho e agosto de 2024, realizamos algumas sessões com a liderança sênior da WMF para conhecer suas perspectivas e prioridades. Essas sessões foram importantes para nós porque queríamos garantir alinhamento organizacional em relação à estratégia que estávamos desenvolvendo, e o alinhamento com a liderança era um aspecto fundamental disso. Agradecemos (em ordem alfabética do sobrenome) Lane Becker, Nadee Gunasena, Maryana Iskander, Stephen LaPorte, Lisa Seitz Gruwell, Amy Tsay, Denny Vrandečić e Yael Weissburg pelo envolvimento profundo com nossas perguntas e por compartilharem livremente suas ideias e perspectivas.

Em agosto, realizamos uma sessão com alguns dos afiliados e voluntários durante a Wikimania 2024. Agradecemos àqueles que participaram dessa conversa, compartilharam suas perspectivas e ofereceram contribuições valiosas ao nosso processo de reflexão. Um dos aprendizados que tivemos nessa sessão foi que diversos afiliados aguardavam maior clareza sobre “como” implementamos a estratégia de IA. Dedicamos uma subseção deste resumo estratégico a esse tema, inspirados por essas conversas.

E, por fim, gostaríamos de agradecer a Pablo Aragón, Adam Baso, Suman Cherukuwada, Rita Ho, Caroline Myrick e Santhosh Thottingal pelas perguntas, comentários e contribuições que ajudaram a aprimorar este trabalho.

Notas

  1. Ver ClueBot NG, um dos primeiros bots comunitários com IA, e os modelos de IA desenvolvidos e hospedados pela WMF.
  2. Special:MyLanguage/Strategy/Multigenerational
  3. Humans in the AI loop: the data labelers behind some of the most powerful LLMs' training datasets
  4. Ver a apresentação de Asaf Bartov no CEE 2024 para exemplos.
  5. Exemplos desses tópicos comuns incluem, mas não se limitam a List of articles every Wikipedia should have/Expanded
  6. Observe que o código das principais tecnologias LLM de código aberto atualmente não é aberto. Para alguns desses modelos de IA, os pesos são abertos.
  7. Modelos de código aberto fornecem acesso aos dados de treinamento e ao código, enquanto modelos com pesos abertos fornecem somente os parâmetros treinados (pesos), geralmente no formato Safetensors. Esses pesos podem ser hospedados na infraestrutura da Wikimedia usando bibliotecas de software de código aberto.
  8. Para comparação, segundo uma fonte, a Meta possui 600.000 GPUs para IA, enquanto a Fundação Wikimedia atualmente tem menos de 20.