Jump to content

WikiCamp 2024/Désinformation

From Meta, a Wikimedia project coordination wiki

Notes sur la discussion du 9 juillet 2024 sur le thème « désinformation et connaissance libre » dans le cadre du Wikicamp 2024.

Contexte

[edit]
  • Guerre technologique : on n'a pas les mêmes moyens que des mouvements ou pays qui mobilisent des fermes à troll, par exemple.
  • Pour faire de l'information libre, il faut identifier les sources d'information fiable. De plus en plus de ces sources deviennent payantes, la qualité de ce qui est disponible gratuitement a drastiquement baissé dans beaucoup de cas. Comment continuer à avoir accès à des informations fiables ?

Les sources de qualité

[edit]

Accès

[edit]

Questions posées :

  • où mettre en avant le pass BNF dans nos ressources ? Peut-on l'intégrer directement à la bibliothèque Wikipédia ? Où partager le fait qu'il peut être couvert par le micro-financement ?
  • On a aussi l'abonnement sur Wikipédia:Accès aux sources de presse payantes. Mais nos abonnements révèlent des choses sur notre appartenance politique, entre autres, et on ne veut pas forcément révéler nos abonnements en public. Le côté légal est légèrement flou également.

Changement de qualité

[edit]

Le changement d'orientation politique et de la qualité des informations des médias s'accélère beaucoup et l'observatoire des sources a du mal à suivre. On observe des rachats dans la presse quotidienne régionale et un gros manque de budget pour financer du bon travail journalistique, y compris dans certains grands quotidiens.

Trouver les sources

[edit]

Les moteurs de recherche ne mettent plus les meilleures sources en avant. Suggestions partagées au cours de la discussion : Kagi (payant), DuckDuckGo, Qwant

Discussion sur la couverture des actualités

[edit]

Si WP veut parler de l'actualité, on tombe fatalement dans les biais des chaînes d'information en continu. Si on cherchait moins à coller à l'actualité, on aurait moins de problèmes pour s'appuyer sur des sources de qualité, non ?

En appliquant strictement la limite des deux ans, on combat aussi des enjeux comme la falsification des historiques sportifs pour les paris pendant les JO (sujet mentionné ce matin).

Mais peut-on forcer les bénévoles à ne pas contribuer sur certains sujets ? La communauté peut-elle accepter de ne pas couvrir ce qui, finalement, intéresse le plus son lectorat (et ses contributeurs) ?

Quel équilibre doit-on trouver entre Wikipédia comme dernier rempart contre les fausses actualités vs. Wikipédia comme lieu encyclopédique sans actualités.

Wikinews a voulu couvrir l'actualité, en gardant le principe où tout doit être sourcé. Résultat : pas un succès, parce que par définition toutes les infos sont disponibles dans des médias classiques.

Sur la pandémie de COVID-19, il y avait eu un appel à ralentir et à traiter les choses proprement, et on a été considérés comme absolument exemplaires par de nombreux chercheurs. Mais c'est ponctuel. Pour le bien-être des admins et patrouilleurs, pour les sujets chauds, est-ce qu'on peut ponctuellement négocier une trêve ?

Aparté : La trêve électorale s'applique à Wikimédia comme à tous les autres médias. Aux élections 2017, les Macronleaks sont sortis la veille de la trêve, on n'a pas pu en parler avant le lendemain de l'élection pour cause de trêve électorale. Idem pour les résultats qui sortent avant 20h. Mais un contributeur suisse qui écrit sur le projet américain Wikipédia pour un public francophone et pas forcément français doit-il respecter la trêve électorale française ?

Mentionné mais non discuté : la méfiance envers les sources mainstream, et les médias en général, dont Wikimédia fait aussi les frais parce qu'on utilise lesdits médias.

L'intelligence artificielle

[edit]

La conversation s'est assez rapidement réorientée vers l'IA.

Sur wp:fr, on a actuellement consensus contre la rédaction d'informations par IA. Par contre beaucoup de monde s'en sert sur le côté : voir si j'ai des angles morts, rédiger des RI d'articles, etc.

En Suisse, pour passer la maturité, il faut faire un devoir personnel. En une année on a observé une augmentation massive des devoirs générés par IA.

Est-ce qu'on va mettre de la détection de ce genre de choses sur Wikipédia ? -> non, parce que c'est techniquement impossible aujourd'hui. Les modèles existants renforcent en fait un biais de discrimination, les modèles de détection reconnaissant d'abord comme « IA » les gens dont l'anglais n'est pas la langue natale plutôt que les véritables IA, en raison de tournures de phrase peu naturelles.

On n'a jamais eu besoin d'IA pour générer des fausses informations ou pour faire des formulations pourries: voir l'affaire de Wikipédia en Scots. Mais l'IA peut permettre d'en générer en volume beaucoup plus important.

Un contributeur compare la discussion actuelle sur l'IA, et surtout celle qui va arriver dans pas très longtemps, aux débats passés sur les contributions rémunérées, qui ont déchiré Wikimedia CH. Il conseille de préparer le terrain pour avoir une discussion sereine et constructive et se saisir proactivement du sujet.