Jump to content

Estrategia/Movimiento Wikimedia/2017/Fuentes/Considerando el 2030: Desinformación, verificación y propaganda

From Meta, a Wikimedia project coordination wiki
Outdated translations are marked like this.
Conclusiones de la investigación de Lutman and Associates y Dot Connector Studio (julio de 2017)
Si Wikimedia mira hacia el 2030, ¿cómo puede el movimiento ayudar a las personas a encontrar fuentes de conocimiento fiables?[Note 1]

Como parte del proceso de estrategia Wikimedia 2030, la Fundación Wikimedia está trabajando con asesores de investigación independientes para entender las tendencias clave que afectarán el futuro del conocimiento libre y compartir esta información con el movimiento.[1] Este reporte fue preparado por Dot Connector Studio, una empresa de investigación de medios y estrategia con sede en Philadelphia, enfocada en cómo las plataformas emergentes pueden ser usadas para un impacto social, y Lutman & Associates, una empresa de estrategia, planificación y evaluación con sede en St. Paul, enfocada en las intersecciones de cultura, medios y filantropía.

Construyendo una base sólida

Desde el lanzamiento de Wikipedia en 2001, los wikimedistas han desarrollado un proceso de edición robusto, probado y transparente, confiando en que los escritores y editores voluntarios referenciarán rigurosamente las frases con fuentes verificables, para ayudar los lectores a decidir si una determinada entrada está completa, verificada y sustentada en hechos. Los editores pueden cambiar el contenido, y lo hacen, si no cumple con los estándares de Wikipedia, pero se les pide que incluyan explicaciones de los cambios que hacen.

Desde luego, el proceso de edición de Wikipedia puede ser complicado. Puede haber conflictos, particularmente en las entradas que son política o culturalmente sensibles,[2][3] Alrededor del mundo, los proyectos Wikimedia podrían verse afectados por censura gubernamental, política o económica, y campañas de desinformación, así como por contenido totalmente falsificado. Todos esto podría verse exacerbado por desarrollos actuales y futuros en manipulación y verificación de medios audiovisuales. Muchos de los mismos desafíos que la industria de las noticias está enfrentando, pueden también afectar los esfuerzos de los wikipedistas para crear contenido fiable para audiencias de todo el mundo. Las controversias respecto a materiales educativos —que muy bien podrían ser utilizados como material de referencia en Wikipedia— son otros ejemplo de las formas en las que puede ser suprimida o manipulada la información.

Como parte de nuestras investigaciones para el proceso de estrategia de Wikimedia 2030, hemos revisado más de un centenar de reportes, artículos y estudios académicos para determinar las tendencias actuales y futuras en la desinformación que podrían afectar a Wikimedia, y que conforman el cuadro siguiente.

El horizonte de la desinformación por delante

Al considerar los desafíos que Wikimedia podría tener que abordar con respecto a la desinformación durante los próximos 10-15 años, puede ser útil dividir las tendencias en dos categorías: "contenido" y "acceso". Cada una tiene tres influencias globales principales.

  • Contenido se refiere a las tendencias que pueden afectar a las fuentes actuales usadas por los wikimedistas para desarrollar información fiable.
  • Acceso se refiere a si los usuarios de Wikipedia son capaces de usar la plataforma y cómo.

Las influencias globales que forman estas dos tendencias incluyen tecnología, gobierno y políticas y comercio.

Contenido Acceso
Influencia: tecnología la información creada por nuevas formas, como inteligencia artificial, bots, dig data, realidad virtual, manipulación del formato de los medios nuevas maneras de enviar contenido, como usables, experiencias se sumersión, asistentes digitales activados por voz
Influencia: gobierno y política aumento en la desinformación, amenazas a la libertad de prensa o académica censura/bloqueo a la plataforma de Wikipedia o a otras fuentes, bloquear el acceso total a internet, monitorear/vigilar el acceso en línea
Influencia: comercio investigaciones patrocinadas, publirreportajes, defensas promocionales pagadas, los cibercebos (clickbait) a contenido "filtro burbuja", dispositivos y plataformas propietarias

Influencia: tecnología

La tecnología continúa evolucionando rápidamente, presentando un continuo reto de adaptación.

Contenido

La tecnología crea numerosas oportunidades y desafíos a la creación de contenido. Por ejemplo, los bots han sido parte de la mezcla de Wikimedia desde los inicios, muchos diseñados para hacer "tareas de mantenimiento", como añadir enlaces, corregir errores de ortografía y evitar el vandalismo. Algunas Wikipedias mantienen una política de bots, que requiere que los bots sean registrados; en la Wikipedia en inglés, son supervisados por un comité humano conocido como el Grupo de Aprobaciones de Bots.

Esta creación de contenido tecnológico aumentado puede ser solo el inicio. En los próximos diez a quince años, se espera que las herramientas de inteligencia artificial crezcan significativamente y sean más sofisticadas. De hecho, según un análisis reciente publicado en Scientific American, "se espera que las supercomputadoras sobrepasen pronto las capacidades humanas en casi todas las áreas; entre el 2020 y el 2060".[4] Los macrodatos también crecerán y las formas automatizadas de recolectar y analizar información se volverán más poderosas.

Wikimedia ya tiene puesto un ojo en este futuro, con herramientas como Objective Revision Evaluation Service (ORES), que ayuda a los editores a identificar ediciones potencialmente "dañinas" basado en un cálculo previo de la calidad de los artículos hecho por editores de Wikimedia. En un AMA de Reddit de junio de 2017, el principal investigador científico de la Fundación Wikimedia, Aaron Halfaker, advirtió tanto las fortalezas como los peligros de esta aproximación al etiquetado de ediciones. "Las predicciones pueden afectar el juicio de las personas", escribió. "Si tenemos una inteligencia artificial con algo de sesgo, esto puede llevar directamente a las personas a perpetuar ese sesgo... por lo que somos muy cautelosos sobre el entrenamiento relativo al comportamiento pasado".[5]

El aumento sin precedentes en la automatización de la creación y análisis de conocimientos aporta ventajas y desafíos.

Por el lado positivo, estas herramientas están ayudando a los productores de información. Por ejemplo, los investigadores están trabajando en métodos para aplicar herramientas de inteligencia artificial a transmisoras de televisión para identificar más fácilmente a los oradores y los temas de debate.[6] Desarrollar formas para extraer este tipo de información podrían resultar útiles para los wikimedistas en la revisión de contenidos de vídeo que son referenciados en artículos. En un reporte sobre el futuro del periodismo aumentado, la Associated Press observa que los avances en la inteligencia artificial permitirán a los reporteros (y a otros) "analizar datos; identificar patrones, tendencias e ideas factibles desde múltiples fuentes; ver las cosas que el ojo humano no puede ver; llevar los datos y las palabras habladas a texto; de texto al audio y vídeo; entender opiniones; analizar escenas y sus objetos, caras, texto o colores; y más".[7]

La inteligencia artificial también puede dar forma a ambientes de aprendizaje, dirigiendo a los usuarios a fuentes de conocimiento adecuadas basadas en datos sobre cómo han interactuado previamente con recursos de información similares, y revelar ideas sobre cómo y cuándo dichos recursos han sido valiosos.[8] Como resultado, por ejemplo, la inteligencia artificial podría incluso ser usada para compilar varios artículos de Wikipedia en libros de texto instantáneos. No es difícil imaginar cómo los editores de Wikipedia podrían desarrollar tales adelantos para fortalecer el contenido de Wikipedia.

Sin embargo, el desarrollo de nuevas herramientas también puede llevar a más contenido engañoso que podría plantear desafíos para referenciar entradas: "En empresas y universidades [a través de los Estados Unidos], las tecnologías incipientes parecen próximas a borrar la línea entre lo real y falso... Adelantos en la tecnologías de audio y vídeo se están volviendo tan sofisticadas que serán capaces de replicar las noticias reales —transmisiones de televisión reales, por ejemplo, o entrevistas de radio— de formas sin precedentes, y verdaderamente indescifrables", según predice el escritor de Vanity Fair Nick Bilton.[9]

En respuesta, entre hoy y 2030, el movimiento de Wikimedia tendrá que permanecer vigilante y desarrollar nuevos métodos de verificación que coincidan con estas nuevas capacidades tecnológicas. A su vez, esto significará que el proceso para determinar la verificabilidad y las fuentes fiables necesitará evolucionar, o que el movimiento podría necesitar construir sus propias herramientas equivalentes para mantenerse al día con las ediciones con intereses contrapuestos.

Tal como Kevin Kelly observa en The Inevitable: Understanding the 12 Technological Forces That Will Shape Our Future, "Wikipedia continúa evolucionando su proceso. Cada año se superpone más estructura. Los artículos controversiales pueden ser 'congelados' por editores superiores para que no pueden ser editados por cualquier persona, solo por editores designados. Hay más reglas sobre lo que es permisible escribir, más formato requerido, más aprobaciones necesarias. Pero la calidad también mejora. Apostaría a que en 50 años una porción significativa de los artículos de Wikipedia serán ediciones controladas, revisión de pares, cerraduras de verificación, certificados de acreditación, y más".[10]

Acceso

La tecnología también presenta inumerables obstáculos para acceder al contenido que se ofrece en las plataformas de Wikimedia. Por ejemplo, el modelo de Wikipedia basado en navegadores y accedido por computadora ya ha sido superado; dependiendo del lugar en el que vivas, es probable que estés leyendo y editando artículos de Wikipedia desde un dispositivo móvil en lugar de un ordenador. Esta tendencia hacia lo móvil está bien encaminada y es cada vez más global.[11] (En futuros informes, exploraremos cómo otros desarrollos en tecnología, como la creciente sofisticación de los portátiles y el aumento de los asistentes virtuales basados en audio, afectarán el acceso a Wikipedia y a otros proyectos de Wikimedia).

Influencia: gobierno y política

Los gobiernos y actores políticos tienen el poder tanto para suprimir como para distorsionar el contenido, y de restringir el acceso a las plataformas Wikimedia. Por ejemplo, el Regulador de Internet turco bloqueó el acceso a todas las versiones idiomáticas de Wikipedia el 29 de abril de 2017.

Contenido

Los gobiernos de todo el mundo pueden monitorear (y lo hacen) y reprimir a activistas, periodistas, académicos y otros ciudadanos que en otras condiciones podrían ser creadores de materiales fiables para citar en Wikimedia o crear y editar el contenido de Wikimedia. Los libros de texto y contenidos de referencia también son un objetivos para los regímenes represivos, tal como identificó un reporte de junio de 2017 de Freedom House, una organización de derechos políticos con sede en los Estados Unidos.[12] En India, por ejemplo, los libros de texto modelos publicados por el Consejo Nacional de Investigación Educativa y Formación han sido acusados de promover las ideas políticas de quienes están en el poder.

Esto continuará siendo un desafío crucial para lograr la visión de Wikimedia en los próximos 15 años. El análisis más reciente de la libertad de prensa mundial de Reporteros Sin Fronteras declaró que el globo se está "oscureciendo", al reducirse la libertad de prensa en ciertos países, y de forma general en el mundo.[13]

Mientras tanto, los gobiernos autoritarios continúan persiguiendo y procesando a periodistas. Turquía encarceló a 120 periodistas entre julio y noviembre de 2016, tras el golpe de estado fallido contra el gobierno actual.[14] Reporteros Sin Fronteras alega que la "retórica política" utilizada por el presidente de Estados Unidos Donald Trump en la elección presidencial de 2016 ha influido en el discurso político hacia la prensa en todo el mundo. Por ejemplo, el presidente de Tanzania John Magufuli advirtió a los periódicos que "sus días estaban contados".[15] Ese tipo de represión gubernamental no solo reduce el material de fuentes para los editores de Wikipedia, sino que puede resultar en un efecto amedrentador general tanto para quienes buscan como para quienes producen o verifican información.

Una tendencia relacionada entre los gobiernos y los actores políticos es la propagación intencionada de información falsa, desinformación o propaganda. Este tipo de manipulación puede debilitar el ecosistema general de información, creando una cultura general de duda relacionada con la fiabilidad de la información en línea. Esto podría tener un impacto en la fiabilidad de las fuentes, y por lo tanto del contenido en Wikipedia. La actual batalla mundial para identificar y controlar la desinformación parece dar forma al entorno de la información durante los próximos 15 años. Y no toda la desinformación es la misma: la confluencia de lo que, exactamente, constituye "noticias falsas", inspiró a Claire Wardle, directora de investigación de First Draft News, para crear una taxonomía de información falsa, desde la sátira de la propaganda hasta las cuentas falsas.[16]

Por ejemplo, un periódico publicado en 2016 por RAND Corporation acusa a Rusia de traficar con una "fuente de falsedad", transmitiendo "verdades parciales o abiertamente ficticias" sobre un gran número de canales de comunicación, siguiendo una filosofía de cantidad sobre calidad.[17] BuzzFeed informo en enero de 2017 que en Francia, los seguidores de Trump en los Estados Unidos estaban publicando como ciudadanos franceses para manipular las próximas elecciones de Francia.[18] Días antes de la elección francesa, hackers entraron en los servidores del candidato líder (y eventual ganador) Emmanuel Macron, en un ataque ligado al robo de emails del Comité Nacional Demócrata de los Estados Unidos.[19]

Esta propagación de la desinformación en línea está ocurriendo a pesar del reciente crecimiento en el número de organizaciones dedicadas a verificar hechos: en todo el mundo, al menos 114 "equipos dedicados a verificación de hechos" están trabajando en 47 países.[20]

Mirando hacia el futuro, ¿qué podemos esperar? En primer lugar, la libertad de expresión mundial oscilará en función de los acontecimientos políticos nacionales e internacionales. Es menos claro si las tendencias mundiales hacia la autocracia continuarán o si las sociedades libres tendrán un resurgimiento, luchando exitosamente con las presiones sobre la prensa y la academia, y la politización de los hechos como simples perspectivas individuales sesgadas.

Segundo, podemos esperar que la desinformación o información falsa con motivos políticos siempre estará con nosotros. De hecho, el fenómeno de las "fake news", información falsa o "hechos alternativos" puede ser identificado desde las inicios de la historia registrada, con ejemplos que datan de la edad antigua.[21]

El movimiento Wikimedia necesitará mantenerse despierto y los editores bien versados sobre las formas siempre cambiantes en las cuales la información puede ser distorsionada o falsificada. Sería útil mantenerse actualizados en las técnicas desarrolladas por los periodistas e investigadores cuando verifican información, como aquellas descritas en el Manual de Verificación, disponible en varios idiomas.[22]

Acceso

Un estudio publicado en mayo de 2017 por el Berkman Klein Center de Harvard, encargado por la Fundación Wikimedia, muestra que la censura absoluta de la plataforma de Wikipedia o de sus artículos está reduciéndose globalmente, y lo hacía incluso antes de que la Fundación Wikimedia implementara la tecnología "HTTPS" en junio de 2015, que hace que el bloqueo de páginas individuales sea más difícil.[2]

Con HTTPS, quienes censuran no pueden ver qué página fue visitada dentro de un sitio, por lo que deben elegir si bloquear o no el sitio completo para evitar el acceso a ciertas páginas individuales. El estudio de Berkman Klein usó tanto datos de monitoreo de disponibilidad del cliente para recopilar información de 40 países, así como datos del servidor para encontrar anomalías en las solicitudes de un conjunto de 1,7 millones de artículos que cubrían 286 proyectos idiomáticos de Wikipedia.[2]

Sin embargo, aunque la tendencia general puede estar reduciéndose, el análisis sí mostró que ciertos gobiernos, como China, continúan censurando, con una censura completa del dominio zh.wikipedia.org hasta 2016. (El acceso parece estar permitido a otros subdominios de Wikimedia). El análisis también mostró anomalías que podrían indicar censura, pero que no han sido explicadas, como el aparente bloqueo en Tailandia de la Wikipedia en yiddish.[2]

En general, los autores concluyen: "El cambio a HTTPS ha sido bueno en términos de asegurar la accesibilidad al conocimiento". Un cambio tecnológico en la puerta trasera, en otras palabras, ha mejorado el acceso en la puerta delantera. En general, las soluciones tecnológicas (HTTPS) a los problemas tecnológicos (bloqueo absoluto) pueden a veces traer alivio, hasta que surja el próximo desafío tecnológico.[2]

Influencia: Comercio

Los actores comerciales pueden también influenciar tanto en el acceso como en el contenido del movimiento Wikimedia, que intencionalmente modela una plataforma que es libre y abierta a las colaboraciones.

Contenido

El surgimiento de las plataformas de redes sociales comerciales, tales como Twitter y Facebook en la última década, ha estado acompañado de un declive simultáneo de la confianza en las instituciones tradicionales de medios modernos. Esto es cierto dentro de sociedades abiertas que alguna vez disfrutaron de una prensa competitiva y productiva, creando preocupaciones sobre las nuevas formas en que la desinformación se filtra y se entrega en línea, y luego se utiliza en el discurso público y la toma de decisiones.

También hay algunos solapamientos con otros desafíos señalados anteriormente; por ejemplo, las afirmaciones espurias sobre la tecnología pueden ser diseminadas con el fin de elevar los precios de las acciones, o las campañas de desinformación dirigidas a afectar la política pública pueden ser dirigidas por razones de lucro, como cuando las empresas o grupos de la industria pagan investigaciones para demostrar un punto de sus políticas. Por ejemplo, un examen de los documentos de la industria a lo largo del tiempo demostró que la industria azucarera estadounidense a lo largo de los años 1960 y 1970 patrocinaba investigaciones que promovían la grasa alimenticia como un mayor riesgo para la salud que el azúcar.[23]

Las plataformas en línea recientemente han anunciado medidas para abordar la diseminación de información errónea. Google ha introducido cambios en su función de búsqueda, arrojando el contenido de organizaciones de revisión de datos junto con los resultados. También han introducido medios para reportar resultados problemáticos (por ejemplo, el autocompletado que sugiere preguntas sobre si ocurrió el Holocausto).[24] Facebook ofreció revisión de datos en artículos basados en sus URLs y tipos de educación mediática.[25]

Los cambios en características y funcionalidades de estas grandes plataformas en los próximos años pueden informar y competir con enfoques paralelos desarrollados para los proyectos de Wikimedia.

La frontera siguiente para entender cómo combatir la desinformación implica desarrollar una comprensión más sofisticada de cómo las redes ayudan a difundirla. Public Data Lab, con sede en Europa, publicó los primeros varios capítulos de una "Guía práctica para las noticias falsas", que enfatiza en la importancia de construir herramientas que revelen la "red gruesa" de cómo las noticias falsas se propagan en línea; mostrando como una historia o idea es compartida entre redes para ayudar a los espectadores a ponerlo en contexto.[26]

El siguiente nivel de innovación puede implicar una verificación extendida de hechos, una solución que potencialmente podría aprovechar el contenido de Wikipedia como una fuente clave. Por ejemplo, la organización sin fines de lucro Hypothes.is continúa desarrollando una plataforma abierta que proporciona una capa en la web donde los usuarios pueden crear anotaciones que den contexto al contenido.[27] Además, el "big data" puede ser empleado para dar contexto al discurso público, por ejemplo, aprovechando los datos sobre los flujos de dinero entre entidad políticas involucradas en desinformación.[Note 2]

Con la infusión de la inversión filantrópica y la experimentación generalizada, existe la posibilidad de que las redes sociales o empresas de información en línea como Google puedan alterar con éxito los algoritmos para evitar algunos de los intercambios de información falsa en línea más comunes. Sin embargo, es probable que las nuevas tecnologías inspiren a los buscadores de ganancias y a los actores políticos a desarrollar nuevas maneras de manipular los sistemas y extender estas manipulaciones, más allá del texto, a otros medios, como datos, vídeos, fotos y mucho más.

Acceso

Las preocupaciones sobre cómo las compañías comerciales podrían limitar el acceso a las plataformas de Wikimedia durante los próximos 15 años se abordarán en los siguientes informes sobre el futuro de los bienes comunes y la aparición y uso de nuevas plataformas. Estos incluyen, pero no se limitan, a batallas sobre la neutralidad de la red, el aumento de aplicaciones y plataformas propietarias, y la voluntad (o falta de ella) de las empresas para proporcionar acceso al contenido de Wikipedia desde sus propias propiedades de contenido y dispositivos.

Ideas y preguntas finales

¿Cómo podría prepararse Wikimedia para combatir la desinformación y la censura en las décadas venideras?

  • Alentar y abrazar experimentos en inteligencia artificial y aprendizaje de máquinas que podrían ayudar a enriquecer el contenido de Wikipedia.
  • Seguir la evolución del periodismo y el mundo académico para encontrar nuevas formas de comprobar y verificar la información que puede utilizarse como fuentes de las plataformas de Wikimedia, tales como la evaluación de vídeos u otros nuevos medios, que también son valiosos para el contenido.
  • Colaborar con otras organizaciones de interés público para abogar por la libertad de prensa, la libertad de expresión, el acceso universal a Internet y otros objetivos políticos que garanticen el acceso y la libre circulación de la información.
  • Seguir supervisando atentamente el acceso a las plataformas de Wikimedia en todo el mundo, implementando cambios técnicos cuando corresponda.
  • Monitorear las soluciones que están desarrollando las plataformas y las publicaciones comerciales, tanto para ver cómo se pueden aplicar para mejorar los métodos de verificación del contenido en las plataformas de Wikimedia, y cómo podría ofrecer oportunidades para incrementar el acceso a ese contenido.

Notes

  1. Si bien muchos de los enlaces de esta página dirigen a la Wikipedia en inglés, lenguaje en que fue escrito originalmente, hay páginas y políticas similares en muchos otros sitios de Wikimedia. Los traductores son bienvenidos a sustituir los enlaces con sus equivalentes en wikis de Wikimedia en otros idiomas.
  2. Véase, por ejemplo, los datos disponibles del Center for Responsive Politics sobre donantes de campaña, lobistas, y otros en los Estados Unidos; y los datos de Transparencia Internacional sobre lobistas en la Unión Europea, así como otros datos.

References

  1. "¿Cómo las fuerzas externas obstaculizan o ayudan al futuro del movimiento Wikimedia? – Blog de Wikimedia". Retrieved 2017-07-13. 
  2. a b c d e Clark, Justin, Robert Faris, Rebekah Heacock Jones. Analyzing Accessibility of Wikipedia Projects Around the World. Cambridge: Berkman Klein Center for Internet & Society, 2017. Accedido el 25 de mayo de 2017.
  3. Alcantara, Chris. "The most challenging job of the 2016 race: Editing the candidates' Wikipedia pages." Washington Post. 27 de octubre de 2016. Accedido el 25 de mayo de 2017.
  4. Helbing, Dirk, Bruno S. Frey, Gerd Gigerenzer, Ernst Hafen, Michael Hagner, Yvonne Hofstetter, Jeroen van den Hoven, Roberto V. Zicari y Andrej Zwitter, "Will Democracy Survive Big Data and Artificial Intelligence?" Scientific American. 25 de febrero de 2017. Accedido el 28 de mayo de 2017. https://www.scientificamerican.com/article/will-democracy-survive-big-data-and-artificial-intelligence/.
  5. Halfaker, Aaron. "I'm the principal research scientist at the nonprofit behind Wikipedia. I study AIs and community dynamics. AMA!" Reddit. 2 de junio de 2017. Accedido el 7 de junio de 2017.
  6. Watzman, Nancy. "Internet Archive's Trump Archive launches today." Internet Archive Blogs. 5 de enero de 2017. Accedido el 19 de mayo de 2017.
  7. Marconi, Francesco, Alex Siegman y Machine Journalist. The Future of Augmented Journalism. Nueva York: Associated Press, 2017. Accedido el 30 de mayo de 2017.
  8. Luckin, Rose, Wayne Holmes, Mark Griffiths y Laurie B. Forcier. Intelligence Unleashed: An Argument for AI in Education. Londres: Pearson, 2016. Accedido el 8 el junio de 2017.
  9. Bilton, Nick. "Fake news is about to get even scarier than you ever dreamed." Vanity Fair. 26 de enero de 2017. Accedido el 30 de mayo de 2017.
  10. Kelly, Kevin. The Inevitable: Understanding the 12 Technological Forces That Will Shape Our Future. Nueva York: Viking, 2016.
  11. GSMA. "The Mobile Economy 2017." Accedido el 1 de junio de 2017.
  12. Puddington, Arch. Breaking Down Democracy: Goals, Strategies, and Methods of Modern Authoritarians. Washington, D.C.: Freedom House, 2017. Accedido el 8 de junio de 2017.
  13. Reporteros Sin Fronteras. "2017 World Press Freedom Index – tipping point?" 26 de abril de 2017. Actualizado el 15 de mayo de 2017. Accedido el 28 de mayo de 2017.
  14. Nordland, Rod. "Turkey's Free Press Withers as Erdogan Jails 120 Journalists." The New York Times. 17 de noviembre de 2016. Accedido el 7 de junio de 2017.
  15. Reporteros Sin Fronteras. "Journalism weakened by democracy's erosion." Accedido el 29 de mayo de 2017.
  16. Wardle, Claire. "Fake News. It's Complicated." First Draft News. 16 de febrero de 2017. Accedido el 7 de junio de 2017.
  17. Paul, Christopher y Miriam Matthews. The Russian "Firehose of Falsehood" Propaganda Model: Why It Might Work and Options to Counter It. Santa Monica: RAND Corporation, 2016.
  18. Broderick, Ryan. "Trump Supporters Online Are Pretending To Be French To Manipulate France's Election." BuzzFeed. 2 de enero de 2017. Accedido el 7 de junio de 2017.
  19. Tufekci, Zeynep. "Dear France: You Just Got Hacked. Don't Make The Same Mistakes We Did." BuzzFeed. 5 de mayo de 2017. Accedido el 7 de junio de 2017.
  20. Stencel, Mark. "International Fact-Checking Gains Ground, Duke Census Finds." Duke Reporters Lab. 28 de febrero de 2017. Accedido el 7 de junio de 2017. https://reporterslab.org/international-fact-checking-gains-ground/.
  21. Darnton, Robert. "The True History of Fake News". The New York Review of Books. 13 de febrero de 2017. Accedido el 7 de junio de 2017.
  22. Silverman, Craig, ed. Verification Handbook: A Definitive Guide to Verifying Digital Content for Emergency Coverage. Maastricht: European Journalism Centre, 2016. Accedido el 29 de mayo de 2017.
  23. Kearns, Cristin E., Laura A. Schmidt y Stanton A.Glantz. "Sugar Industry and Coronary Heart Disease Research: A Historical Analysis of Internal Industry Documents." JAMA Intern Med 176, no. 11 (2016): 1680-1685. Accedido el 8 de junio de 2017. doi:10.1001/jamainternmed.2016.5394.
  24. Gomes, Ben. "Our latest quality improvements for search". The Keyword. Google. 25 de abril de 2017. Accedido el 19 de mayo de 2017.
  25. Simo, Fidji. "Introducing: the Facebook Journalism Project". Facebook Media. 11 de enero de 2017. Accedido el 19 de mayo de 2017.
  26. Public Data Lab y First Draft News. "A Field Guide to Fake News". Accedido el 19 de mayo de 2017.
  27. The Hypothesis Project. "To Enable a Conversation Over the World's Knowledge: Hypothesis Mission". Accedido el 22 de mayo de 2017.