Stratégie/Mouvement Wikimédia/2017/Sources/Penser 2030:Désinformation, vérification et propagande (juillet 2017)

From Meta, a Wikimedia project coordination wiki
Outdated translations are marked like this.
Conclusions des recherches menées par Lutman and Associates et Dot Connector Studio (juillet 2017)
En songeant à 2030, comment pouvons-nous aider les gens à trouver des sources de connaissance fiables?[Note 1]

Dans le cadre du processus stratégique Wikimédia 2030, la Fondation Wikimédia travaille avec des consultants en recherche afin de comprendre les tendances clés qui auront une incidence sur l'avenir de la connaissance gratuite. Les fruits de ces recherches sont partagés avec le mouvement.[1] Ce rapport a été préparé par Dot Connector Studio, une société de recherche et de stratégie média basée à Philadelphie qui s’est concentré sur la façon dont les plates-formes émergentes peuvent être utilisées afin d’avoir un impact social, et Lutman & Associates, une entreprise de stratégie, de planification et d'évaluation basée à St. Paul qui a mis l’accent sur les croisements entre culture, médias et philanthropie.

Construire sur des bases solides

Depuis le lancement de Wikipédia en 2001, les Wikimédiens ont bâti un processus d'édition solide et transparent, s'appuyant sur des bénévoles qui, avec soin sourçent le contenu de l'encyclopédie en s'appuyant sur des sources fiables pouvant permettre au lecteur de juger si une information donnée est cohérente ou non, et si elle s'appuie sur des faits. Les contributeurs apportent de changement si le contenu ne respecte pas les standards de Wikipédia, toutefois il leur est demandé d'expliquer les changements qu'ils effectuent.

Bien sûr le processus d'édition sur Wikipedia n'est pas des plus simples. Il peut y avoir des conflits, en particulier lorsqu'il s'agit de contenu liés à une actualité politique ou culturelle sensible,[2][3] ou qui pourrait le porter un dommage à l'entité commerciale ou à ses bénéfices.[4] à travers le monde, les projets Wikimédia peuvent être affectés par la censure politique, culturelle, ou motivée par le profit ainsi que par des campagnes de désinformation de même que par de l'information falsifiée.Tous ces aspects peuvent être décuplés par les évolutions actuelles et futures dans le domaine de l'audiovisuel, de la vérification et du traitement multimédia. Un grand nombre de défis auxquels les nouvelles industries s’accoutument, au moment où la fausse "information" ou la désinformation se répandent, peuvent aussi affecter la manière dont les Wikipédiens arrivent à créer du contenu fiable pour un public reparti aux quatre coins du globe. Les controverses sur les questions de matériels éducatifs— qui pourraient très bien être utilisés comme sources sur Wikipédia— constituent une autre illustration de la façon dont l'information pourrait être censurée ou manipulée.

Dans le cadre de nos recherches pour le compte du processus stratégique Wikimédia 2030 nous avons passé en revue près de 100 rapports, articles et recherche académique afin d'interpréter les tendances actuelles et futures en matière de désinformation qui pourrait avoir une incidence sur Wikimédia. Ces résultats constituent le graphique ci-dessous.

la désinformation à l'horizon

En réfléchissant aux défis auxquels Wikimédia devra s'attaquer d'ici les 10 à 15 prochaines années, il peut être utile de repartir les tendances en deux catégories : "le contenu" et "l'accès". Chaque catégorie ayant trois facteurs d'influence majeurs.

  • Le contenu se rapporte aux tendances qui peuvent influencer les sources utilisées actuellement par les Wikimédiens pour juger de la véracité d'une information.
  • L'accès fait allusion aux possibilités pour les utilisateurs d'accéder à Wikipédia ainsi que les moyens utilisés par ceux-ci pour y accéder

Les facteurs généraux qui déterminent ces deux tendances sont la technologie, la gouvernance et le commerce.

Le contenu L'accès
Facteur: technologie l'information générée par les nouveaux canaux tels que l'intelligence artificielle, les robots, le big data, la réalité virtuelle, la transformation des formats multimédia. les nouveaux canaux de diffusion du contenu tel que les équipements portatifs, l'expérience immersive, les assistants numériques guidés par commande vocale
Facteur: gouvernance et politique la progression de la désinformation, les menaces à l'encontre de la presse ou de la liberté académique La censure/le blocage des plates-formes Wikimédia ou d'autres sources, le blocage de l'accès à Internet dans son ensemble, le suivi/la surveillance de l'accès en ligne
Facteur: le commerce recherche sponsorisée, publicités, promoteurs renumérés, contenu pièges à clics "filtrer les bulles", plate-forme et équipements propriétaires

Facteur: technologie

La technologie continue d'évoluer rapidement ce qui constitue un défi permanent auquel il faut s'adapter.

Le contenu

La technologie suscite de nombreuses opportunités et décrit en matière de création de contenu. Par exemple, les robots ont fait partie dès le départ, du fonctionnement de Wikimédia en ce sens que plusieurs d'entre eux ont été conçus pour effectuer des "tâches domestiques" telles que l'ajout de liens, la correction d'orthographe, la répression d'actes de vandalisme. Un petit nombre de Wikipédias ont une politique de gestion des robots exigeant par exemple que les robots soient au préalable enregistrés ; sur Wikipédia en anglais les robots sont supervisés par un comité d'humains appelé Le groupe d'approbation des robots.

La création de contenu dits augmentés pourrait n'être que le début. Dans les 10 à 15 prochaines années, les outils d'intelligence artificielle devrait être beaucoup plus sophistiqués. En effet une récente étude publiée dans Scientific American déclare que " il faudra s'attendre à ce que les supercalculateurs surpassent les capacités humaines dans presque tous les domaines— entre 2020 et 2060"[5] Le big data continuera de s'agrandir et les mécanismes automatiques de collecte de données et d'analyse d'informations deviendront beaucoup plus puissants.

Wikimédia a déja le regard vers l'avenir avec des outils comme ORES fille permet aux contributeurs identifiés des contributions potentiellement "nocives" en se basant sur l’évaluations d'anciens articles de qualité faite par des contributeurs. Dans le Reddit AMA de juin 2017 le chercheur principal de la fondation Wikimédia, Aaron Halfaker a relevé les forces et les limites de cette approche consistant à marquer les contributions. " Les prédictions peuvent affecter le jugement de personnes” écrit-il. " Si nous disposons d'une intelligence artificielle qui comporte un très faible biais qui emmène d'autres personnes à perpétuer ce biais... Il faut donc faire très attention aux attitudes antérieures."[6]

Les dernières évolutions sans précédente dans le domaine de la création et l'analyse automatisée de la formationaapparente à la fois des avantages et des défis.

Quant aux bons côtés il faut noter que ces outils sont utiles aux créateurs producteurs contenu. Par exemple, les chercheurs travaillent en ce moment sur des méthodes pour appliquer l'intelligence artificielle dans le cadre de la diffusion télé pour identifier précisément les téléspectateurs.[7] développer des moyens de prendre en compte ce type de formation pourrait être utile pour les Wikimédiens en vue d'examiner le contenu des vidéos lorsqu'il compte les utiliser comme sources. Dans un rapport sur le futur du journalisme augmenté, l’Associated Press souligne que les évolutions dans le domaine de l'intelligence artificielle permettront aux reporters et autres acteurs des médias "d'analyser les données ; d'identifier des modèles, des tendances et des pistes d'action issue de plusieurs sources différentes; percevoir les choses qui sont invisibles à l'oeil nu; transformer les données et les paroles en texte compréhensible; transformer d texte en audio et en vidéo; identifier comprendre les sentiments; analyser la scène des objets les profils latex et couleurs —et plus encore."[8]

L'intelligence artificielle peut aussi modeler l'environnement pédagogique, orienter les internautes vers les sources de connaissances appropriées sur la base de leurs interactions antérieures avec l'information, et suggérer des résultats au moment précis où ils se sont nécessaires. .[9] par exemple, l'intelligence artificielle pourrait même être utilisée pour combiner plusieurs articles différents de Wikipédia et en faire un livre personnalisé à la volée. Il n'est pas difficile d'imaginer comment les contributeurs pourraient profiter de tels progrès pour enrichir le contenu Wikimédia.

Toutefois développer de nouveaux outils peut aussi susciter davantage de contenu erroné ce qui pourrait créer des difficultés au sourçage des contenus : " au sein des entreprises et des universités à travers les États-Unis, les technologies en développement donnent le sentiment qu'elles rendront bientôt confuse la limite entre la vraie et la fausse information... Les progrès dans les domaines de l'audio et la vidéo deviennent si sophistiqués qu'ils permettront de reproduire la vraie information— un vrai programme télé par exemple ou une interview radio— de manière inégalée et vraiment indétectable" prédit le rédacteur de Vanity Fair Nick Bilton.[10]

Pour réagir, entre maintenant et 2030, le mouvement Wikimédia se doit de rester vigilant et de mettre en place de nouvelles méthodes de vérification qui vont de pair avec ces nouvelles avancées technologiques. De même, cela signifie qu’il pourrait être nécessaire de faire évoluer le processus de vérification des sources— ou que le mouvement pourrait avoir besoin de concevoir propres outils permettant de préserver les contributions contre le vandalisme.

As Kevin Kelly observes in The Inevitable: Understanding the 12 Technological Forces That Will Shape Our Future, "Wikipedia continues to evolve its process. Each year more structure is layered in. Controversial articles can be 'frozen' by top editors so they can no longer be edited by any random person, only designated editors. There are more rules about what is permissible to write, more required formatting, more approval needed. But the quality improves too. I would guess that in 50 years a significant portion of Wikipedia articles will have controlled edits, peer review, verification locks, authentication certificates and so on."[11]

Accès

La technologie met en lumière une myriade d'obstacles freinant l'accès au contenu des plates-formes Wikimédia. Par exemple l'accès à Wikimédia sur le modèle de navigateur ou à partir d'un ordinateur constitue déjà un problème ; en fonction de l'endroit où vous vivez vous serez ou non capables de consulter et modifier Wikipédia à partir du mobile plutôt qu'à partir d'un ordinateur. Cette tendance au mobile est actuel et continue de se reprendre à travers la planète.[12] (Dans des futurs publications, nous examinerons comment d'autres développements technologiques, comme les progrès croissants en matières d’équipement portatifs et d’assistants virtuels audio, affecteront l'accès à Wikipédia et au autres projets de Wikimédia.)

Facteur: gouvernance et politique

Le gouvernement et les acteurs politiques disposent de suffisamment de pouvoir vous censurer et déformer l'information, et pour restreindre l'accès aux plates-formes Wikimédia. Par exemple, le régulateur Internet turc a restreint l'accès à Wikipédia dans toutes les langues le 29 avril, 2017.

Le contenu

Governments around the world can and do monitor and crack down on activists, journalists, academics and other citizens who otherwise might be creators of reliable source material for Wikimedia or create or edit Wikimedia content. Textbooks and reference content are also a target for repressive regimes, as noted in a June 2017 report from the U.S. based political rights organization Freedom House.[13] In India, for example, model textbooks published by the National Council of Educational Research and Training have been accused of reflecting the political views of those in power.

This will continue to be a crucial challenge to realizing Wikimedia's vision over the next 15 years. The most recent analysis of press freedom worldwide from Reporters Without Borders declared that the globe is "darkening", as press freedom decreases in specific nations, and generally across the globe.[14]

Meanwhile, authoritarian governments continued to persecute and prosecute journalists. Turkey jailed 120 journalists between July and November 2016, following a failed coup against the government in power.[15] Reporters Without Borders argues that the "political rhetoric" used by U.S. President Donald Trump in the 2016 U.S. presidential elections has influenced political discourse on press freedom around the globe. For example, in Tanzania, President John Magufuli warned newspapers that "their days are numbered."[16] Such government repression not only reduces source material for Wikipedia editors, but can also result in an overall chilling effect for those seeking to produce or verify information.

A related trend among governments and political actors is purposeful propagation of misinformation, disinformation, or propaganda. This sort of manipulation may weaken the overall information ecosystem, creating an overall culture of doubt related to the reliability of online information. This could have an impact on the reliability of sources, and therefore content, on Wikipedia. The current global battle to identify and control misinformation seems likely to shape the information environment over the next 15 years. And not all disinformation is the same: conflation of what, exactly, constitutes "fake news," inspired Claire Wardle, research director for First Draft News, to create a taxonomy of "mis" and "dis" information, ranging from satire to propaganda to all-out fabricated accounts.[17]

For example, a 2016 paper published by RAND Corporation charges Russia with trafficking in a "firehose of falsehood," broadcasting "partial truths or outright fictions" on high numbers of communication channels, following a philosophy of quantity over quality.[18] BuzzFeed reported in January 2017 that in France, Trump supporters in the U.S. were posing as French citizens online to manipulate the French election outcomes.[19] Days before the French election, hackers breached servers for leading candidate (and eventual victor) Emmanuel Macron, in an attack likened to the theft of emails from the U.S. Democratic National Committee.[20]

This spread of misinformation online is occuring despite recent growth in the number of organizations dedicated to fact-checking: world-wide, at least 114 "dedicated fact-checking teams" are working in 47 countries.[21]

Looking into the future, what's safe to expect? First, global freedom of expression will wax and wane depending on national and international political developments. Less clear is whether global trends toward autocracy will continue—or whether free societies will have a resurgence, grappling successfully with pressures on the press and academy, and the politicization of facts as merely individual biased perspectives.

Second, we can expect that politically motivated disinformation and misinformation campaigns will always be with us. Indeed, the phenomenon of "fake news," misinformation, or "alternative facts" can be traced to some of the earliest recorded history, with examples dating back to ancient times.[22]

The Wikimedia movement will need to remain nimble and editors become well-versed in the always-morphing means by which information can be misleading or falsified. It will be helpful to keep abreast of techniques developed and used by journalists and researchers when verifying information, such as those described in the Verification Handbook, available in several languages.[23]

Accès

A May 2017 study commissioned by the Wikimedia Foundation from Harvard's Berkman Klein Center shows that outright censoring of the Wikipedia platform or articles is trending down globally, and was doing so even before the Wikimedia Foundation in June 2015 deployed "HTTPS" technology that makes blocking individual pages more difficult.[2]

With HTTPS, censors can't see which page within a website was visited, so censors must choose whether to block access to the entire site in order to restrict access to single pages. The Berkman Klein study used both client-side availability monitoring data to collect information from 40 countries, as well as server-side data to find anomalies in requests for a set of 1.7 million articles covering 286 Wikipedia language projects.[2]

However, while the overall trend may be down, the analysis did show that certain governments, such as China, are continuing to censor, with full censorship of the zh.wikipedia.org domain through 2016. (Access appears to be allowed to other Wikimedia subdomains.) The analysis also found anomalies that could indicate censorship, but have not been explained, such as Thailand's apparent blocking of Yiddish-language Wikipedia.[2]

En somme, conclut l'auteur,: " faire le pas du HTTPS a été une bonne idée puisque cela a amélioré l'accès au savoir." En d'autres termes améliorer la technologie de base à améliorer l'accès à Internet pour l'utilisateur lambda. De manière générale, les solutions technologiques (HTTPS) aux problèmes technologiques peut parfois apporter du répit— jusqu'à ce que le prochain défi technologique se présente.[2]

Facteur: Commerce

Les acteurs commerciaux mais également influencer à la fois l'accès et le contenu des plates-formes Wikimédia.

Le contenu

Le succès des plates-formes de réseaux sociaux tels que Twitter et Facebook durant cette décennie se fait suivre d'une baisse de la confiance du public dans les institutions traditionnelles et dans les médias classiques. Cela est d'autant plus vrai dans la société où l'on pouvait observer le secteur de la presse compétitif et ouvert, ce qui suscite des interrogations sur les mécanismes de filtrage de la désinformation diffusée en ligne est utilisée par le public et par les dirigeants.

There is also some overlap with other challenges noted above—for example, spurious technology claims may be disseminated in order to drive up stock prices, or misinformation campaigns aimed at affecting public policy may be run for profit-seeking reasons, as when companies or industry groups pay for research to prove a policy point. For example, an examination of industry documents over time showed that the U.S. sugar industry throughout the 1960s and 1970s sponsored research that promoted dietary fat as a bigger health risk than sugar.[24]

Les plates-formes en ligne ont annoncé récemment rechercher des moyens de contrer la diffusion de fausses informations. Google a apporté des changements au sein de son mécanisme de recherche, effectuant une vérification par l'effet du contenu des organisations qui affiche parmi ses résultats. Cette plate-formes ont également mis en oeuvre de nouveaux moyens de signaler les résultats problématiques (ex : parmi les suggestions des questions telles que "l'holocauste a-t-il réellement existé ? " sont insérées.)[25]

Les nouvelles fonctionnalités mises en avant par cette plate-formes aau cours des prochaines années peuvent enrichir et parfaire les approches parallèles développées par les projets multimédias.

La prochaine étape pour comprendre comment combattre la désinformation est de mettre en place des mécanismes plus élaborés capables de comprendre celle-ci se répand à travers les réseaux. Le Europe-based Public Data Lab a publié les tout premiers chapitres du " Guide de la fausse information", lequel dit met l'accent sur l'importance d'avoir des outils capables de dévoiler " le réseau solide" qu’emprunte la force information pour se rendre en ligne — en démontrant comment une histoire ou une idée peut être partagée à travers les différents réseaux afin de permettre aux lecteurs se faire une idée. .[26]

The next level of innovation may involve ubiquitous fact-checking—a solution that could potentially leverage Wikipedia content as a key source. For example, the nonprofit organization Hypothes.is continues to develop an open platform that supplies a layer on the web where users can create annotations that give context to the content.[27] In addition, "big data" can be harnessed to help provide context to public discourse, for example by tapping into data about the flow of money between political entities engaged in misinformation.[Note 2]

Grâce aux investissements philanthropiques et aux vastes expériences menées, il y a des chances que le secteur des médias sociaux ou des firmes d'information en ligne telles que Google puisse améliorer ses algorithmes afin d'éviter que certaines informations erronées soient largement relayées en ligne. Toutefois, les nouvelles technologies pourraient inspirer ceux qui cherchent à faire du profit et les acteurs politiques à concevoir de nouveaux mécanismes de manipulation de l'information et les pousser à étendre ses manipulations au-delà du format texte en ciblant d'autres médias tels que les données, les vidéos, les photos etc.

Accès

Les inquiétudes sur le fait que les compagnies à but lucratif pourraient freiner l'accès aux plates-formes Wikimédia au cours des 15 prochaines années seront abordées lors des propositions à venir sur le futur des Communs, et sur l'émergence et l'utilisation des nouvelles plates-formes. Il s'agit entre autres du combat pour la neutralité de l'Internet de la montée en puissance des applications et plate-formes propriétaires, la volonté (ou la réticence) des entreprises à rendre accessible le contenu de Wikipédia depuis leurs équipements et terminaux.

Conclusions et questions

Comment Wikimédia pourrait se préparer à contrer la désinformation et la censure au cours des décennies à venir

  • Encourager et accueillir à bras ouverts les expériences dans le domaine de l'intelligence artificielle et de l'apprentissage machine qui pourrait enrichir le contenu de Wikipédia.
  • Noter les évolutions dans le monde académique et dans le domaine des journalistes afin d'identifier de nouveaux mécanismes de vérifier les faits et d'examiner les informations qui pourraient être utilisées comme sources pour les plates-formes Wikimédia. Il pourrait s'agir par exemple de mécanismes pour évaluer la vidéo ou d'autres formes de nouveaux médias qui regorgent de contenu.
  • Collaborer avec d'autres organismes d'intérêt public afin de promouvoir la liberté de la presse la liberté d'expression, l'accès à Internet pour tous et tout autre politique qui garantit le libre accès et la circulation de l'information.
  • Continuer de suivre de près l'accès aux plates-formes Wikimédia à travers le monde entier tout en déployant les améliorations techniques là où il le faut.
  • Suivre de près les solutions en cours de développement par les plates-formes à but lucratif afin de comprendre comment leurs idées pourraient être utilisées dans le cadre de l'amélioration de la vérifiabilité du contenu des plates-formes Wikimédia, et afin de voir quelles opportunités s'offrent à nous d'améliorer l'accès au contenu.

Notes

  1. Si un grand nombre de liens sur cette page renvoie à la Wikipédia en anglais, la langue dans laquelle ce rapport a été écrit au départ il existe au sein des différents projets Wikimédia des pages et des liens similaires qui peuvent être utilisées par les traducteurs.
  2. See, for example, data available from the Center for Responsive Politics on campaign donors, lobbyists, and more in the U.S.; and Transparency International's data on lobbyists in the European Union as well as other data.

References

  1. "Comment les facteurs externes aideront ou affaibliront le mouvement Wikimédia ? Blog Wikimédia". Retrieved 2017-07-13. 
  2. a b c d e Clark, Justin, Robert Faris, Rebekah Heacock Jones. Analyzing Accessibility of Wikipedia Projects Around the World. Cambridge: Berkman Klein Center for Internet & Society, 2017. Accessed May 25, 2017.
  3. Alcantara, Chris. "The most challenging job of the 2016 race: Editing the candidates' Wikipedia pages." Washington Post. October 27, 2016. Consulté le 25 mai, 2017.
  4. Kiberd, Roison. "The Brutal Edit War Over a 3D Printer's Wikipedia Page." Motherboard. March 23, 2016. Consulté le 1er juin, 2017.
  5. Helbing, Dirk, Bruno S. Frey, Gerd Gigerenzer, Ernst Hafen, Michael Hagner, Yvonne Hofstetter, Jeroen van den Hoven, Roberto V. Zicari, et Andrej Zwitter, "Will Democracy Survive Big Data and Artificial Intelligence?" Scientific American. 25 février, 2017. Consulté le 28 mai, 2017. https://www.scientificamerican.com/article/will-democracy-survive-big-data-and-artificial-intelligence/.
  6. Halfaker, Aaron. "Je suis le principal chercheur travaillant pour l'organisation à but non lucratif derrière Wikipédia. Je travaille sur l'intelligence artificielle et les dynamiques de communautés" Reddit. 2 juin, 2017. Consulté le 7 juin, 2017.
  7. Watzman, Nancy. "Internet Archive's Trump Archive launches today." Internet Archive Blogs. 5 janvier, 2017. Consulté le 19 mai, 2017.
  8. Marconi, Francesco, Alex Siegman, et Machine Journalist. The Future of Augmented Journalism. New York: Associated Press, 2017. Consulté le 30 mai, 2017.
  9. Luckin, Rose, Wayne Holmes, Mark Griffiths, and Laurie B. Forcier. Intelligence Unleashed: An Argument for AI in Education. London: Pearson, 2016. Consulté le 8 juin, 2017.
  10. Bilton, Nick. "Fake news is about to get even scarier than you ever dreamed." Vanity Fair. 26 janvier, 2017. Consulté le 30 mai, 2017.
  11. Kelly, Kevin. The Inevitable: Understanding the 12 Technological Forces That Will Shape Our Future. New York: Viking, 2016.
  12. GSMA. "The Mobile Economy 2017." Consulté le 1er juin, 2017.
  13. Puddington, Arch. Breaking Down Democracy: Goals, Strategies, and Methods of Modern Authoritarians. Washington, D.C.: Freedom House, 2017. Accessed June 8, 2017.
  14. Reporters Without Borders. "2017 World Press Freedom Index – tipping point?" April 26, 2017. Updated May 15, 2017. Accessed May 28, 2017.
  15. Nordland, Rod. "Turkey's Free Press Withers as Erdogan Jails 120 Journalists." The New York Times. November 17, 2016. Accessed June 7, 2017.
  16. Reporters Without Borders. "Journalism weakened by democracy's erosion." Accessed May 29, 2017.
  17. Wardle, Claire. "Fake News. It's Complicated." First Draft News. February 16, 2017. Accessed June 7, 2017.
  18. Paul, Christopher and Miriam Matthews. The Russian "Firehose of Falsehood" Propaganda Model: Why It Might Work and Options to Counter It. Santa Monica: RAND Corporation, 2016.
  19. Broderick, Ryan. "Trump Supporters Online Are Pretending To Be French To Manipulate France's Election." BuzzFeed. January 24, 2017. Accessed June 7, 2017.
  20. Tufekci, Zeynep. "Dear France: You Just Got Hacked. Don't Make The Same Mistakes We Did." BuzzFeed. May 5, 2017. Accessed June 7, 2017.
  21. Stencel, Mark. "International Fact-Checking Gains Ground, Duke Census Finds." Duke Reporters Lab. February 28, 2017. Accessed June 7, 2017. https://reporterslab.org/international-fact-checking-gains-ground/.
  22. Darnton, Robert. "The True History of Fake News." The New York Review of Books. February 13, 2017. Accessed June 7, 2017.
  23. Silverman, Craig, ed. Verification Handbook: A Definitive Guide to Verifying Digital Content for Emergency Coverage. Maastricht: European Journalism Centre, 2016. Accessed May 29, 2017.
  24. Kearns, Cristin E., Laura A. Schmidt, and Stanton A.Glantz. "Sugar Industry and Coronary Heart Disease Research: A Historical Analysis of Internal Industry Documents." JAMA Intern Med 176, no. 11 (2016): 1680-1685. Accessed June 8, 2017. doi:10.1001/jamainternmed.2016.5394.
  25. Gomes, Ben. "Nos améliorations pour la qualité du contenu." The Keyword. Google. April 25, 2017. Consulté le 19 mai, 2017.
  26. Public Data Lab and First Draft News. "A Field Guide to Fake News." Consulté le 19 mai, 2017.
  27. The Hypothesis Project. "To Enable a Conversation Over the World's Knowledge: Hypothesis Mission." Accessed 22 May 2017.