Strategia/Movimento Wikimedia/2017/Fonti/Considerando il 2030: disinformazione, verifica e propaganda (luglio 2017)
Mentre Wikimedia guarda al 2030, come può il movimento aiutare le persone a trovare fonti affidabili di conoscenza?[Note 1]
Come parte del processo strategico Wikimedia 2030, la Wikimedia Foundation sta lavorando con consulenti di ricerca indipendenti per capire le tendenze chiave che influenzeranno il futuro della conoscenza libera e condividere queste informazioni con il movimento.[1] Questo report è stato preparato da Dot Connector Studio, una società di ricerca e strategia sui media con sede a Philadelphia attenta a come le piattaforme emergenti possono essere usate per un impatto sociale, e Lutman & Associates, una società di strategia, pianificazione e valutazione con sede a St. Paul attenta all'intersezione fra cultura, media e filantropia.
Costruire su solide basi
Fin dal lancio di Wikipedia nel 2001, i wikimediani hanno sviluppato un processo di editing robusto, testato e trasparente, contando su scrittori e redattori volontari per citare rigorosamente fonti attendibili e verificabili per aiutare i lettori a decidere se una certa voce è completa, verificabile e basata su fatti. Gli utenti possono cambiare il contenuto se non rispetta gli standard di Wikipedia (e lo fanno), ma devono spiegare le modifiche che fanno.
Certo, il processo di editing di Wikipedia può essere disordinato. Ci possono essere conflitti, in particolare su voci che sono politicamente o culturalmente sensibili,[2][3] o che potrebbero influenzare il successo e il profitto di un soggetto commerciale.[4] In giro per il mondo, i progetti Wikimedia potrebbero essere influenzati da censura e campagne di disinformazione governative, politiche, culturali o legate al profitto, e contenuto completamente falsificato. Tutto questo potrebbe essere esacerbato da sviluppi attuali e futuri nella manipolazione e verifica in audio e video. Molte delle stesse sfide affrontate dal mondo dell'informazione al momento attuale di particolare interesse per le "fake news" o disinformazione potrebbero toccare anche i wikipediani che cercano di creare contenuto affidabile per il pubblico di tutto il mondo. Le controversie sul materiale educativo (che potrebbe benissimo essere usato come fonte su Wikipedia) forniscono un altro esempio dei modi in cui l'informazione può essere soppressa o manipolata.
Come parte della nostra ricerca per il processo strategico Wikimedia 2030, abbiamo esaminato più di centro report, articoli e studi accademici per individuare le tendenze attuali e future nella disinformazione che potrebbero influenzare Wikimedia, che informano il grafico sotto.
Prospettive per la disinformazione
Nel considerare le sfide che Wikimedia potrebbe dover affrontare rispetto alla disinformazione nei prossimi 10-15 anni, può essere d'aiuto dividere le tendenze in due categorie: "contenuto" e "accesso". Ognuna anima tre maggiori influenze globali.
- Contenuto si riferisce alle tendenze che possono influenzare le attuali fonti usate da wikimediani per sviluppare informazioni affidabili.
- Accesso si riferisce a come e se gli utenti di Wikipedia sono in grado di usare la piattaforma.
Le influenze globali che formano queste due tendenze includono tecnologia, governi/politica e commercio.
Contenuto | Accesso | |
---|---|---|
Influenza: tecnologia | informazioni create con mezzi nuovi, come intelligenze artificiali, bot, biig data, realtà virtuale, manipolazione dei formati multimediali | nuovi mezzi per far arrivare il contenuto, come tecnologia indossabile, esperienze immersive, assistenti digitali attivati vocalmente |
Influenza: governo e politica | espansione nella disinformazione, minacce alla stampa e alla libertà accademica | censura/blocco di Wikipedia o altre fonti, blocco totale dell'accesso alla rete, monitoraggio/sorveglianza dell'accesso alla rete |
Influenza: commercio | ricerca sponsorizzata, pubbliredazionali, sostenitori promozionali pagati, clickbait | "filter bubble", dispositivi e piattaforme proprietarie |
Influenza: tecnologia
La tecnologia continua a evolversi rapidamente, presentando una continua sfida ad adattarsi.
Contenuto
La tecnologia crea numerose opportunità e sfide nella creazione del contenuto. Ad esempio, i bot sono stati parte del mondo di Wikimedia fin dall'inizio, molti disegnati per fare "lavori di casa", come aggiungere link, correggere errori di battitura e annullare i vandalismi. Alcune edizioni di Wikipedia mantengono delle regole sui bot, che richiedono che i bot siano registrati; su Wikipedia in inglese, sono supervisionati da un consiglio umano conosciuto come il gruppo di approvazione dei bot.
Questa creazione di contenuto aumentata dalla tecnologia potrebbe essere solo l'inizio. Nel corso dei prossimi 10 o 15 anni, ci si aspetta che gli strumenti basati sulle intelligenze artificiali diventino significativamente più sofisticati. In effetti, una recente ricerca pubblicata su Scientific American afferma che, "Possiamo aspettarci che i supercomputer presto -in qualche momento fra il 2020 e il 2060- superino le capacità umane in quasi tutte le aree."[5] Inoltre i big data diventeranno ancora più grandi e i mezzi automatici di raccogliere e analizzare le informazioni diventeranno più potenti.
Wikipedia ha già un occhio su questo futuro, con strumenti, con strumenti come Objective Revision Evaluation Service (ORES), che aiuta gli utenti a individuare modifiche potenzialmente "dannosi" sulla base di precedenti valutazioni della qualità delle voci dagli stessi utenti di Wikimedia. In un AMA (Ask Me Anything, in italiano "chiedimi qualunque cosa") su Reddit del giugno 2017 Aaron Halfaker, capo della ricerca a Wikimedia Foundation, ha evidenziato sia i punti di forza che i pericoli di questo approccio agli edit taggati. "Le predizioni possono influenzare il giudizio delle persone", ha scritto. "Se abbiamo un'intelligenza artificiale un po' parziale, questo può spingere le persone a perpetuare questa parzialità... Quindi stiamo molto attenti nell'educare sulla base dei comportamenti passati."[6]
Questa impennata senza precedenti nell'automazione della creazione e analisi della conoscenza porta sia vantaggi che sfide.
Il lato positivo, è che questi strumenti aiutano i produttori di informazioni. Ad esempio, i ricercatori stanno lavorando sui metodi per applicare strumenti basati su intelligenze artificiali per identificare più facilmente chi parla e gli argomenti della conversazione.[7] Sviluppare modi per estrarre questo tipo di informazioni potrebbe essere utile per i wikimediani che esaminano contenuti video quando cercando fonti per le voci. In un report sul futuro del giornalismo aumentato, l'Associated Press ha notato che gli sviluppi nell'intelligenza artificiale permetteranno a giornalisti (ed altri) di "analizzare dati; identificare modelli, tendenze e idee azionabili da diverse fonti; analizzare scene individuando oggetti, facce, testo, colori o altro."[8]
Le intelligenze artificiali aiutano anche a formare ambienti per l'apprendimento, dirigere gli utenti a fonti appropriate di conoscenza basate su dati su come hanno interagito in precedenza con risorse informative simili, e suggerendo come e quando queste risorse sono utili.[9] Come risultato, ad esempio, l'intelligenza artificiale potrebbe anche essere usata per assemblare al volo varie voci di Wikipedia creando manuali personalizzati. Non è difficile immaginare come gli utenti di Wikimedia potrebbero usare questi miglioramenti per rafforzare il contenuto di Wikimedia.
Comunque, lo sviluppo di nuovi strumenti può anche portare a più contenuto ingannevole che potrebbe porre sfide quando si cercano fonti per le voci: "Nelle società e nelle università in giro [per gli Stati Uniti], sembra che le tecnologie nascenti saranno presto in grado di distruggere la linea fra vero e falso... gli avanzamenti nelle tecnologie stanno diventando così sofisticati che saranno in grado di riprodurre notizie vere -vere trasmissioni televisive, ad esempio, o interviste radio- in modi senza precedenti e davvero indecifrabili", prevede il giornalista di Vanity Fair Nick Bilton.ref>Bilton, Nick. "Fake news is about to get even scarier than you ever dreamed." Vanity Fair. 26 gennaio 2017. URL consultato il 30 maggio 2017.</ref>
Di conseguenza, da qua al 2030, il movimento Wikimedia dovrà rimanere vigile e sviluppare nuovi metodi di verifica adatti a queste nuove capacità tecnologiche. Questo significherà che il processo per individuare fonti verificabili e affidabili potrà avere bisogno di evolversi, o che il movimento potrebbe dover costruire i propri strumenti corrispondenti per stare al passo con gli edit da interesse concorrenti.
Come osserva Kevin Kelly in The Inevitable: Understanding the 12 Technological Forces That Will Shape Our Future, "Wikipedia continua a evolvere i suoi processi. Ogni anno vengono costruito un nuovo pezzo di struttura. Le voci controverse possono essere "congelate" da alcuni utenti in modo che non possano più essere modificate da persone a caso, ma solo da utenti specifici. Ci sono più regole su cosa è possibile scrivere, più formattazione richiesta, più approvazione necessaria. Ma migliora anche la qualità. Penso che in 50 anni una porzione significativa delle voci di Wikipedia avrà edit controllati, revisione paritaria, protezioni di verificare, certificati di autenticità e così via."[10]
Accesso
La tecnologia presenta anche una miriade di ostacoli per l'accesso al contenuto presente sulle piattaforma Wikimedia. Ad esempio, il modello basato su browser, con accesso tramite computer per Wikipedia è già in discussione; in base a dove vivi nel mondo, è possibile che tu legga e modifichi le voci di Wikipedia da un dispositivo mobile piuttosto che da un computer. Quesa tendenza verso il mobile è ben avviata e sempre più globale. [11] (In rapporti futuri, esploreremo altri sviluppi tecnologici, come l'aumento della sofisticazione nella tecnologia indossabile e l'espansione degli assistenti virtuali, che influenzeranno l'accesso a Wikipedia e altri progetti Wikimedia.)
Influenza: governo e politica
Attori governativi e politici hanno il potere sia di sopprimere che di distorcere il contenuto, e di restringere l'accesso alle piattaforma Wikimedia. Ad esempio, il regolatore di internet turco ha bloccato l'accesso a tutte le versioni linguistiche di Wikipedia il 29 aprile 2017.
Contenuto
I governi attorno al mondo possono (e lo fanno) monitorare e fermare attivisti, giornalisti, accademici e altri cittadini che altrimenti potrebbero creare materiale affidabile che potrebbe essere utilizzato come fonte per Wikimedia o direttamente creare o modificare contenuto di Wikimedia. Anche manuali e altri materiali di riferimento sono bersaglio dei regimi repressivi, come segnala un report del giugno 2017 dell'organizzazioni per i diritti politici statunitense Freedom House.[12] In India, ad esempio, i modelli di manuale pubblicati dal National Council of Educational Research and Training sono stati accusati di riflettere le opinioni politiche di quelli al potere.
Questa continuerà ad essere una sfida cruciale per la realizzazione della visione di Wikimedia nel corso dei prossimi 15 anni. Le più recenti analisi della libertà di stampa in tutto il mondo di Reporter senza frontiere ha dichiarato che il mondo si sta "oscurando", mentre la libertà di stampa decresce in specifiche nazioni, e in generale attorno al mondo.[13]
Nel frattempo, i governi autoritari hanno continuato a perseguitare e processare giornalisti. La Turchia ha imprigionato 120 giornalisti da luglio a novembre 2016, in seguito a un colpo di stato fallito contro il governo.[14] Reporter senza frontiere sostiene che la "retorica politica" usata dal presidente degli Stati Uniti Donald Trump durante le elezioni presidenziali del 2016 ha influenzato il discorso politico sulla libertà di stampa in tutto il mondo. Ad esempio, in Tanzania, il presidente John Magufuli ha avvisato i giornali che "i loro giorni sono contati".[15] Questa repressione governativa non riduce solo il materiale utilizzabile come fonte dagli utenti di Wikipedia, ma può anche risultare in un effetto intimidatorio generale per chi cerca di produrre o verificare le informazioni.
Una tendenza collegata fra attori governativi e politici è la propagazione intenzionale di cattiva informazione, disinformazione o propaganda. Questa di manipolazioni potrebbe indebolire l'ecosistema complessivo dell'informazione, creando una cultura complessiva del dubbio in relazione all'affidabilità dell'informazione online. Questo potrebbe avere un impatto sull'affidabilità delle fonti, e quindi del contenuto, su Wikipedia. È probabile che la battaglia globale attuale per identificare e controllare la disinformazione formerà l'ambiente dell'informazione nei prossimi 15 anni. E la disinformazione non è tutta uguale: la confusione su cosa, esattamente, costituisca "fake news", ha portato Claire Wardle, direttrice della ricerca di First Draft News, a creare una tassonomia della "cattiva" informazione e della "dis" informazione, che va dalla satira, alla propaganda, alle cose completamente inventate..[16]
Ad esempio, un paper pubblicato nel 2016 dalla RAND Corporation accusa la Russia di diffondere una cascata di falsità, verità parziali o totali invenzioni, su un ampio numero di canali di comunicazione, seguendo una filosofia che privilegia la quantità sulla qualità.[17] BuzzFeed ha detto che gennaio 2017 che in Francia, i sostenitori di Trump negli Stati Uniti fingevano online di essere cittadini francesi per manipolare i risultati delle elezioni francesi.[18] Alcuni giorni prima delle elezioni francesi, degli hacker sono entrati nei server del candidato in vantaggio (che poi ha effettivamente vinto) Emmanuel Macron, in un attacco paragonato al furto di email al Comitato nazionale democratico degli Stati Uniti.[19]
La diffusione della cattiva informazioni online sta avvenendo nonostante la recente crescita del numero di organizzazioni dedicate al fact-checking: nel mondo ci sono almeno 114 "squadre dedicate al fact-checking" che lavorano in 47 paesi[20]
Guardando al futuro, cosa possiamo aspettarci? Primo, la libertà di espressione globale aumenterà o si ridurrà in base agli sviluppi politici nazionali e internazionali. Meno chiaro è se le tendenze globali verso l'autocrazia continueranno, o se le società libere avranno una ripresa, lottando con successo contro le pressioni sulla stampa e sull'accademia, e contro la politicizzazione dei fatti come mere prospettive basati su pregiudizi personali.
Secondo, possiamo aspettarci che le campagne di disinformazione e cattiva informazioni politicamente motivate continueranno ad esistere. In effetti, i fenomeni "fake news", cattiva informazione e "fatti alternativi" compaiono fin dall'inizio della storia che conosciamo, con esempi già nei tempi antichi.[21]
Il movimento Wikimedia dovrà rimanere agile e gli utenti dovranno diventare esperti nei modi sempre nuovi in cui le informazioni possono essere ingannevoli o false. Sarà d'aiuto rimanere aggiornati sulle tecniche sviluppate e usate da giornalisti e ricercatori quando verificano le informazioni, come quelle descritte nel Verification Handbook, disponibile in diverse lingue.[22]
Accesso
Uno studio del maggio 2017 commissionato dalla Wikimedia Foundation al Berkman Klein Center di Harvard mostra che l'aperta censura della piattaforma o delle voci di Wikipedia si sta globalmente riducendo, e lo stava facendo anche prima che la Wikimedia Foundation nel giugno 2015 introducesse la tecnologia "HTTPS" che rende il blocco di singole pagine più difficile.[2]
Con HTTPS, i censori non possono vedere quali pagine di un sito sono state visitate, quindi anche solo per bloccare l'accesso a singole pagine i censori dovrebbero decidere di bloccare l'accesso all'intero sito. Lo studio del Berkman Klein ha usato sia dati sul monitoraggio nella disponibili lato utente per raccogliere informazioni da 40 paesi, che dati lato server per trovare anomalie nelle richieste per un gruppi di 1.7 milioni di voci coprendo Wikipedia in 286 lingue diverse.[2]
Comunque, anche se la tendenza complessiva potrebbe essere in discesa, l'analisi ha mostrato che alcuni governi, come la Cina, continuano a censurare, con la censura integrale del dominio zh.wikipedia.org nel 2016. (L'accesso sembra essere permesso ad altri sottodomini Wikimedia.) Questa analisi ha anche trovato anomalie che potrebbe indicare una censura, ma non sono state spiegate, come l'apparente blocco della Wikipedia in lingua yiddish in Thailandia.[2]
Complessivamente, gli autori concludono: "Il passaggio a HTTPS è stato positivo per assicurare l'accesso alla conoscenza." Un cambio tecnologico nel back end, in altre parole, ha migliorato l'accesso al front end. In generale, le soluzioni tecnologiche (HTTPS) a problemi tecnologici (blocchi totali) possono a volte portare un po' di sollievo, finché non emerge la nuova sfida tecnologia.ref name="Analyzing Accessiblity"/>
Influsso: Commercio
Anche gli attori commerciali potrebbero influenzare sia l'accesso che i contenuti per il movimento Wikimedia, che ha deliberatamente creato una piattaforma che è libera e aperta alla contribuzione.
Contenuto
L'espansione dei social media commerciali come Twitter e Facebook nell'ultima decade è stata accompagnata da un parallelo declino della fiducia nelle moderne istituzioni informative tradizionali. Questo è vero nelle società aperte in cui una volta il settore della stampa era competitivo e produttivo, creando preoccupazioni sui nuovi modi in cui la cattiva informazione viene filtrata, messa online e usata nel discorso pubblico e nei processi decisionali.
C'è anche un po' di sovrapposizione con le altre sfide citate sopra, ad esempio rivendicazione tecnologiche spurie potrebbero essere disseminate per aumentare i prezzi delle azioni, campagne di disinformazione dirette a influenzare le politiche pubbliche potrebbero essere condotte per ragioni legate alla ricerca del progetto, come quando società o gruppi industriali pagano la ricerca perché provi un punto politico. Ad esempio, un esame della documentazione industriale nel corso del tempo ha mostrato che l'industria dello zucchero statunitense negli anni '60 a '70 ha sponsorizzato ricerche che sostenevano che il grasso alimentare fosse un rischio per la salute maggiore per lo zucchero.[23]
Alcune piattaforme online hanno di recente annunciato dei provvedimenti per cercare di affrontare la diffusione della disinformazione. Google ha introdotto delle modifiche alla sua funzione di ricerca, offrendo contenuto delle organizzazioni di fact-checking assieme ai risultati. Hanno anche introdotto un modo di segnalare risultati problematici (es. autocompletamente che suggerisce domande che mettono in dubbio l'Olocausto).[24] Facebook ha offerto fact-checking sugli articoli in base ai loro url, e suggerimenti di alfabetizzazione digitale.[25]
Modifiche a caratteristiche e funzionalità da parte di queste grandi piattaforme nei prossimi anni potrebbero sia informare che competere con approcci paralleli sviluppati per i progetti Wikimedia.
La prossima frontiera nel capire come combattere la disinformazione include sviluppare una comprensione più sofisticata di come le reti aiutano a diffonderla. Il Public Data Lab, con sede in Europa, ha diffuso i primi capitoli della "Field Guide to Fake News", che sottolinea l'importanza di costruire strumenti che rivelino la "fitta rete" di come le fake news si difdondono online, mostrando come una storia o un'idea viene condivisa attraverso le reti per aiutare i lettori a metterla nel giusto contesto.[26]
Il prossimo livello di innovazione potrebbe coinvolgere un fact-checking onnipresente, una soluzione che potrebbe potenzialmente usare il contenuto di Wikipedia come fonte chiave. Ad esempio, l'organizzazione non-profit Hypothes.is continua a sviluppare una piattaforma aperta che fornisce un layer sul web dove gli utenti possono creare annotazioni che contestualizzano il contenuto.[27] In aggiunta, i "big data" possono sfruttati per aiutare a fornire contesto al discorso pubblico, ad esempio lavorando sui dati sul flusso di denaro fra entità politiche coinvolte nella disinformazione.[Note 2]
Con l'infusione di investimenti e la sperimentazione, c'è la possibilità che i social media o le compagnie di informazione online come Google potrebbero modificare gli algoritmi per prevenire alcune delle più grosse diffusioni di false informazioni online. Comunque, le nuove tecnologie probabilmente ispireranno cercatori di profitto e attori politici a sviluppare nuovi modi per manipolare sistemi, e estendere queste informazioni dal testo ad altri media, come dati, video, foto e altro.
Accesso
Le preoccupazioni per come le compagnie commerciali potrebbero limitare l'accesso alla piattaforma Wikimedia nei prossimi 15 anni saranno affrontate nei prossimi rapporti sul futuro dei beni comuni e l'emergere e l'uso di nuove piattaforme. Queste includono ma non sono limitate a battaglie sulla neutralità delle rete, l'espansione dei app e piattaforme proprietarie, e la volontà (o meno) delle società di fornire accesso a Wikipedia dai loro stessi dispositivi.
Idee e domande conclusive
Come Wikimedia può prepararsi per combattere la disinformazione e la censura nei decenni a venire?
- Incoraggiare e abbracciare esperimenti nell'intelligenza artificiale e nell'apprendimento automatico che potrebbero aiutare ad arricchire il contenuto di Wikipedia.
- Seguire gli sviluppi nel giornalismo e nell'accademia per trovare nuovi modi di fare fact-checking e verificare le informazioni che potrebbero essere usate come fonti nelle piattaforma Wikimedia, come valutare video e altri nuovi media, anche utile per il contenuto
- Collaborare con altre organizzazioni di interesse pubblico per sostenere la libertà di stampa, di parola, l'accesso universale a internet e altri obiettivi politici che assicurino accesso e libero flusso di informazioni.
- Continuare e monitorare con attenzione l'accesso alle piattaforme Wikimedia attorno al mondo, adottando modifiche tecnologiche quando necessario.
- Monitorare le soluzioni sviluppate da piattaforme e pubblicazioni commerciali, sia per vedere come potrebbero essere utilizzate per migliorare i metodi di verifica del contenuto sulle piattaforma Wikimedia, e potrebbero offrire opportunità per aumentare l'accesso a quel contenuto.
Notes
- ↑ Anche se molti dei link di questa pagina puntano a Wikipedia in inglese, la lingua in cui è stato scritto originariamente questo rapporto, pagine e policy simili esistono su molti altri siti Wikimedia. I traduttori possono sostituire i link originali con quelli equivalenti nelle altre lingue.
- ↑ Si vedano, ad esempio, i dati del Center for Responsive Politics su chi dona alle campagne, lobbisti e altro negli Stati Uniti; e i dati di Transparency International sui lobbisti nell'Unione europea e altri dati.
References
- ↑ "Come le forze esterne minacceranno o aiuteranno il futuro del movimento Wikimedia – Wikimedia Blog". Retrieved 2017-07-13.
- ↑ a b c d Clark, Justin, Robert Faris, Rebekah Heacock Jones. Analyzing Accessibility of Wikipedia Projects Around the World. Cambridge: Berkman Klein Center for Internet & Society, 2017. Accessed May 25, 2017.
- ↑ Alcantara, Chris. "The most challenging job of the 2016 race: Editing the candidates' Wikipedia pages." Washington Post. October 27, 2016. Accessed May 25, 2017.
- ↑ Kiberd, Roison. "The Brutal Edit War Over a 3D Printer's Wikipedia Page." Motherboard. March 23, 2016. Accessed June 1, 2017.
- ↑ Helbing, Dirk, Bruno S. Frey, Gerd Gigerenzer, Ernst Hafen, Michael Hagner, Yvonne Hofstetter, Jeroen van den Hoven, Roberto V. Zicari, and Andrej Zwitter, "Will Democracy Survive Big Data and Artificial Intelligence?" Scientific American. February 25, 2017. Accessed May 28, 2017. https://www.scientificamerican.com/article/will-democracy-survive-big-data-and-artificial-intelligence/.
- ↑ Halfaker, Aaron. "I'm the principal research scientist at the nonprofit behind Wikipedia. I study AIs and community dynamics. AMA!" Reddit. June 2, 2017. Accessed June 7, 2017.
- ↑ Watzman, Nancy. "Internet Archive's Trump Archive launches today." Internet Archive Blogs. 5 gennaio 2017. URL consultato il 19 maggio 2017.
- ↑ Marconi, Francesco, Alex Siegman, and Machine Journalist. The Future of Augmented Journalism. New York: Associated Press, 2017. URL consultato il 30 maggio 2017.
- ↑ Luckin, Rose, Wayne Holmes, Mark Griffiths, and Laurie B. Forcier. Intelligence Unleashed: An Argument for AI in Education. London: Pearson, 2016. URL consultato l'8 giugno 2017.
- ↑ Kelly, Kevin. The Inevitable: Understanding the 12 Technological Forces That Will Shape Our Future. New York: Viking, 2016.
- ↑ GSMA. "The Mobile Economy 2017." URL consultato il 1° giugno 2017.
- ↑ Puddington, Arch. Breaking Down Democracy: Goals, Strategies, and Methods of Modern Authoritarians. Washington, D.C.: Freedom House, 2017. URL consultato l'8 giugno 2017.
- ↑ Reporters Without Borders. "2017 World Press Freedom Index – tipping point?" 26 aprile 2017. Aggiornato il 15 maggio 2017. URL consultato il 28 maggio 2017.
- ↑ Nordland, Rod. "Turkey's Free Press Withers as Erdogan Jails 120 Journalists." The New York Times. 17 novembre 2016. URL consultato il 7 giugno 2017.
- ↑ Reporters Without Borders. "Journalism weakened by democracy's erosion." URL consultato il 29 maggio 2017.
- ↑ Wardle, Claire. "Fake News. It's Complicated." First Draft News. 16 febbraio 2017. URL consultato il 7 giugno 2017.
- ↑ Paul, Christopher and Miriam Matthews. The Russian "Firehose of Falsehood" Propaganda Model: Why It Might Work and Options to Counter It. Santa Monica: RAND Corporation, 2016.
- ↑ Broderick, Ryan. "Trump Supporters Online Are Pretending To Be French To Manipulate France's Election." BuzzFeed. 24 gennaio 2017. URL consultato il 7 giugno 2017.
- ↑ Tufekci, Zeynep. "Dear France: You Just Got Hacked. Don't Make The Same Mistakes We Did." BuzzFeed. 5 maggio 2017. URL consultato il 7 giugno 2017.
- ↑ Stencel, Mark. "International Fact-Checking Gains Ground, Duke Census Finds." Duke Reporters Lab. 28 febbraio 2017. URL consultato il 7 giugno 2017. https://reporterslab.org/international-fact-checking-gains-ground/.
- ↑ Darnton, Robert. "The True History of Fake News." The New York Review of Books. 13 febbraio 2017. URL consultato il 7 giugno 2017.
- ↑ Silverman, Craig, ed. Verification Handbook: A Definitive Guide to Verifying Digital Content for Emergency Coverage. Maastricht: European Journalism Centre, 2016. URL consultato il 29 maggio 2017.
- ↑ Kearns, Cristin E., Laura A. Schmidt, and Stanton A.Glantz. "Sugar Industry and Coronary Heart Disease Research: A Historical Analysis of Internal Industry Documents." JAMA Intern Med 176, no. 11 (2016): 1680-1685. URL consultato l'8 giugno 2017. doi:10.1001/jamainternmed.2016.5394.
- ↑ Gomes, Ben. "Our latest quality improvements for search." The Keyword. Google. April 25, 2017. URL consultato il 19 maggio 2017.
- ↑ Simo, Fidji. "Introducing: the Facebook Journalism Project." Facebook Media. January 11, 2017. URL consultato il 19 maggio 2017.
- ↑ Public Data Lab and First Draft News. "A Field Guide to Fake News." URL consultato il 19 maggio 2017.
- ↑ The Hypothesis Project. "To Enable a Conversation Over the World's Knowledge: Hypothesis Mission." URL consultato il 22 maggio 2017.