Strategia/Ruch Wikimedia/2017/Źródła/Rozważając 2030: Dezinformacja, weryfikacja i propaganda

From Meta, a Wikimedia project coordination wiki
Jump to navigation Jump to search
Outdated translations are marked like this.
Other languages:
English • ‎Tiếng Việt • ‎dansk • ‎español • ‎français • ‎italiano • ‎polski • ‎português • ‎עברית • ‎العربية • ‎हिन्दी • ‎বাংলা • ‎中文
Wnioski z badań przeprowadzonych przez Lutman i Associates i Dot Connector Studio (lipiec 2017)
Myśląc o roku 2030, jak ruch Wikimedia może pomóc ludziom znajdować wiarygodne źródła wiedzy?[Note 1]

W ramach procesu strategii Wikimedia 2030 Fundacja Wikimedia współpracuje z niezależnymi konsultantami aby zrozumieć kluczowe trendy, które będą miały wpływ na przyszłość wolnej wiedzy i dzieli się tymi informacjami z ruchem.[1] Ten raport został przygotowany przez Dot Connector Studio, firmę medialną z Filadelfii, zajmująca się badaniami i strategią, która koncentruje się na tym jak nowe platformy można wykorzystywać do oddziaływania na społeczeństwo, i Lutman & Associates - firmę doradczą z St. Paul, która koncentruje się na planowaniu strategicznym na przecięciu kultury, mediów i filantropii.

Budowanie na solidnej podstawie

Od czasu uruchomienia Wikipedii w 2001 roku Wikimedianie opracowali solidne, przetestowane, przejrzyste zasady edycyjne, polegając na edytorach wolontariuszach aby rygorystycznie weryfikować fakty w oparciu o zamieszczone w formie przypisów wiarygodne źródła, aby pomóc czytelnikom zdecydować, czy dany artykuł jest wyczerpujący, wiarygodny i oparty na faktach. Edytorzy mogą i zmieniają treść, jeśli nie spełnia ona standardów w Wikipedii, ale proszeni są o objaśnienie wprowadzonych zmian.

Oczywiście proces edytowania Wikipedii bywa niechlujny. Zdarzają się konflikty zwłaszcza jeśli chodzi o wpisy, które są politycznie lub kulturowo problematyczne[2][3] lub takie, które mogą wpłynąć na czyjś sukces osobisty lub komercyjny.[4] Na całym świecie projekty Wikimedia mogą podlegać wpływowi cenzury i fałszowaniu pod wpływem nacisków rządów, polityków, kultury lub chęci zysku.Wszystko to może być pogłębione przez obecny i przyszły rozwój technik manipulowania przekazem audiowizualnym i metod wpływania na media. Wiele z tych samych wyzwań, z którymi przemysł informacyjny zmaga się w obecnych czasach wzmożonych kampanii "fałszywych informacji" może mieć również wpływ na Wikipedystów dążących do stworzenia wiarygodnych treści dla czytelników na całym świecie. Kontrowersje dotyczące materiałów edukacyjnych - które zazwyczaj są uznawane za wiarygodne źródła dla Wikipedii - są kolejnym przykładem sposobu w jaki informacje mogą być tłumione lub manipulowane.

W ramach naszych badań nad procesem strategii Wikimedia 2030 przeprowadziliśmy przegląd ponad stu raportów, artykułów i badań akademickich, aby przebadać aktualne i przyszłe tendencje w zakresie dezinformacji, które mogą wpłynąć na Wikimedia, co pokazuje poniższa tabela.

Nadchodzący horyzont dezinformacji

Rozważając problemy, które mogą stanowić wyzwanie dla Wikimediów w odniesieniu do dezinformacji w ciągu najbliższych 10-15 lat, pomocne może być podzielenie trendów na dwie kategorie: "treść" i "dostęp". Każdy ma trzy główne trendy wpływów globalnych.

  • Treść odnosi się do trendów, które mogą mieć wpływ na aktualne źródła używane przez Wikimedian do opracowywania rzetelnych informacji.
  • Dostęp odnosi się do sposobu w jaki i kiedy użytkownicy Wikipedii będą mogli z niej korzystać.

Na globalne wpływy, które kształtują te dwie tendencje składają się technologie, rządy i polityka oraz biznes.

Treść Dostęp
Wpływ: technologia informacje tworzone za pomocą nowych metod, takich jak AI, boty, duże dane, wirtualna rzeczywistość, manipulowanie formatami mediów nowe sposoby dostarczania treści, takie jak urządzenia przenośne, doświadczenia wciągające, aktywowani głosem asystenci cyfrowi
Wpływ: rządy i polityka wzrost dezinformacji, zagrożenia dla prasy i wolności akademickiej cenzurowanie/blokowanie platform Wikimedia lub innych źródeł, blokowanie dostępu online, monitorowanie dostępu online
Wpływ: biznes badania sponsorowane, ukryte reklamy, opłacani rzecznicy promocyjni, treść typu "clickbait" "bąble flitrujące", kontrolowane komercyjnie urządzenia i platformy

Wpływ: technologia

Technologia rozwija się szybko, stając się nieustannym wyzwaniem w dostosowaniu się do niej.

Treść

Technologia tworzy wiele możliwości i wyzwań w tworzeniu treści. Na przykład boty były częścią Wikimediów od samego początku, a wiele służyło do "zadań porządkowych", takich jak dodawanie linków, korygowanie błędów w pisowni i cofanie wandalizmu. Kilka Wikipedii ma zasady dotyczące botów wymagające ich zarejestrowania; W angielskiej Wikipedii, są nadzorowane przez specjalną radę użytkowników:Bot Approvals Group.

Ta technologia - poszerzone tworzenie treści może być dopiero początkiem. W ciągu najbliższych dziesięciu do piętnastu lat oczekuje się, że narzędzia oparte na sztucznej inteligencji będą znacznie bardziej wyrafinowane. Niedawny przegląd opublikowany w "Scientific American" stwierdza: "Można się spodziewać, że superkomputery wkrótce przewyższą ludzkie możliwości w prawie wszystkich obszarach - gdzieś pomiędzy 2020 a 2060 r."[5] Technologie z zakresu "Big data" będą w stanie w zautomatyzowany sposób gromadzić i analizować jeszcze większe ilości informacji, co uczyni je jeszcze potężniejszymi.

Wikimedia już obserwuje takie sytuacje, za pomocą takich narzędzi jak Objective Revision Evaluation Service (ORES), które pomagają edytorom wykryć potencjalne "niszczące" edycje w oparciu o wcześniejsze oceny jakości artykułów przez edytorów Wikimedia. W Reddit AMA z czerwca 2017, Aaron Halfaker, kierownik badań w Fundacji Wikimedia, zauważył zarówno zalety, jak i niebezpieczeństwa tego podejścia do oznaczania edycji. "Przewidywania mogą mieć wpływ na ludzki osąd", pisze. "Jeśli mamy AI, z odrobiną stronniczości, może to skłaniać ludzi do jej utrwalania... jesteśmy więc bardzo ostrożni w szkoleniu tego mechanizmu na bazie wcześniejszych zachowań".[6]

Bezprecedensowy wzrost automatyzacji tworzenia wiedzy i jej analizy przynosi zarówno zalety, jak i wyzwania.

Pozytywne jest to, że te narzędzia pomagają twórcom informacji. Na przykład naukowcy pracują nad metodami stosowania automatycznych narzędzi śledzących do transmisji telewizyjnych w celu łatwiejszego identyfikowania mówców i tematów dyskusji.[7] Opracowanie sposobów przeszukiwania tego rodzaju zbiorów informacji może okazać się przydatne dla Wikimediów do oceny treści wideo użytych jako źródła. W raporcie na temat przyszłości rozszerzonego dziennikarstwa Associated Press zauważa, że ​​rozwój automatycznych narzędzi śledzących umożliwi reporterom (i innym) "analizowanie danych; określenie wzorców, trendów i możliwych do zrealizowania analiz z różnych źródeł; zobaczyć rzeczy, których nie można ujrzeć gołym okiem; przekształcać dane i przekazy ustne w tekst; tekst na audio i wideo; rozpoznawać emocje; rozpoznawać przedmioty umieszczone w sceneriach; twarze, teksty lub kolory - i nie tylko."[8]

AI może również pomóc w kształtowaniu środowiska uczenia się, kierować użytkowników do odpowiednich źródeł wiedzy opartych na danych o tym, jak wcześniej oddziaływały one na podobne zasoby informacyjne i ujawniać wiedzę na temat tego, jak i kiedy te zasoby są cenne.[9] W rezultacie, na przykład, AI może nawet być wykorzystywana do łączenia w locie różnych artykułów Wikipedii w podręczniki pod indywidualne potrzeby. Trudno sobie wyobrazić, w jaki sposób edytorzy Wikimediów mogą w przyszłości wykorzystać takie narzędzia do wzbogacania zawartości Wikimediów.

Jednak rozwój nowych narzędzi może również prowadzić do większej liczby wprowadzających w błąd informacji, które mogą stwarzać nowe wyzwania przy uźródławianiu edycji: "W firmach i na uczelniach w Stanach Zjednoczonych, wstępne wersje tych technologii wydają się prowadzić do zatarcie linii między tym co prawdziwe i fałszywe ... Nowości w technologii audio i wideo stają się tak wyrafinowane, że będzie można sztucznie replikować prawdziwe wiadomości - prawdziwe programy telewizyjne, np. wywiady radiowe - w sposób bezprecedensowy i naprawdę nie do wykrycia", przewiduje dziennikarz Vanity Fair, Nick Bilton.[10]

W odpowiedzi, od teraz do 2030 r., Ruch Wikimedia będzie musiał pozostać czujny i opracować nowe metody weryfikacji, które dopasują się do tych nowych możliwości technologicznych. Z kolei oznacza to, że konieczna może okazać się ewolucja procesu sprawdzania weryfikowalności i wiarygodności źródeł - lub że ruch może potrzebować stworzyć własne, odpowiednie do potrzeb narzędzia, aby nadążać za edycjami wykonywanymi w określonych interesach.

Jak Kevin Kelly zauważa w "Nieuniknione: zrozumienie 12 sił technologicznych, które ukształtują naszą przyszłość", "Wikipedia nadal rozwija swój proces. Każdego roku powstają kolejne warstwy struktury. Artykuły kontrowersyjne mogą być "zamrażane" przez najważniejszych edytorów, aby przypadkowe osoby nie mogły ich edytować, a tylko użytkownicy ze statusem redaktora. Jest więcej reguł dotyczących tego, o czym można pisać, jak formatować, jak uzyskiwać akceptację zmian, ale jakość też się poprawia. Przypuszczam, że w ciągu 50 lat znaczna część artykułów z Wikipedii będzie mieć wersje sprawdzone, pojawi się system recenzowania, blokady weryfikacyjne, certyfikaty uwierzytelniania itd." [11]

Dostęp

Technologia generuje również wiele przeszkód w dostępie do treści udostępnianych na platformach Wikimedia. Na przykład model dostępu do Wikipedii oparty na przeglądarkach internetowych już teraz napotyka na wyzwania; w zależności od tego, gdzie mieszkasz na świecie, prawdopodobnie raczej czytasz i edytujesz wpisy z Wikipedii za pomocą urządzenia mobilnego, a komputera. Ten trend w kierunku mobilności jest w toku i jest coraz bardziej globalny.[12] (W przyszłych streszczeniach przeanalizujemy, jak inne zmiany w technologii, takie jak rosnące wyrafinowanie sprzętu mobilnego i wzrost wirtualnych asystentów audio, wpłynie na dostęp do Wikipedii i innych projektów Wikimedia.)

Wpływ: rządy i polityka

Rządy i podmioty polityczne mają władzę tłumienia i zniekształcania treści oraz ograniczania dostępu do projektów Wikimedia. Na przykład turecki regulator internetowy zablokował dostęp do wszystkich wersji językowych Wikipedii 29 kwietnia 2017 r.

Treść

Rządy na całym świecie mogą monitorować i łamać działaczy, dziennikarzy, pracowników naukowych i innych obywateli, którzy inaczej mogli by być twórcami wiarygodnego materiału źródłowego dla Wikimediów lub tworzyć i edytować zawartość projektów Wikimedia. Podręczniki i treści referencyjne są również celem opresyjnych reżymów, jak stwierdzono w raporcie amerykańskiej organizacji Freedom House z czerwca 2017 r.[13] W Indiach podręczniki modelowe publikowane przez Krajową Radę Nauki i Szkolnictwa zostały oskarżone o przedstawianie punktu widzenia aktualnej władzy.

w ciągu najbliższych 15 lat, będzie to nadal kluczowym wyzwaniem dla realizacji wizji ruchu Wikimedia. Najnowsza analiza globalna wolności prasy na całym świecie opublikowana przez Reporterów bez Granic stwierdziła, że świat "ciemnieje", gdyż wolność prasy zmniejsza się w wielu krajach.[14]

Tymczasem rządy autorytarne kontynuują prześladowanie i karanie dziennikarzy. Turcja uwięziła 120 dziennikarzy w okresie od lipca do listopada 2016 r., po nieudanym zamachu stanu przeciwko rządowi.[15] Reporterzy bez Granic twierdzą, że "retoryka polityczna" stosowana przez prezydenta Stanów Zjednoczonych Donalda Trumpa w wyborach prezydenckich w USA w 2016 r. wpłynęła na polityczny dyskurs o wolności prasy na całym świecie. Na przykład w Tanzanii prezydent John Magufuli ostrzegł gazety, że "ich dni są policzone".[16] Represje rządowe nie tylko redukują materiały źródłowe dla edytorów Wikipedii, ale mogą również powodować ogólny efekt zniechęcania tych, którzy chcą napisać lub zweryfikować informacje.

Podobny trend celowego propagowania dezinformacji i propagandy jest zauważalny wśród rządów i podmiotów politycznych. Ten rodzaj manipulacji może osłabić ogólny ekosystem informacji, tworząc ogólną kulturę wątpliwości związaną z wiarygodnością informacji on-line. Może to mieć wpływ na wiarygodność źródeł, a więc też treści w Wikipedii. Obecna globalna walka o identyfikację i kontrolę dezinformacji wydaje się prawdopodobnie ukształtować środowisko informacyjne w ciągu najbliższych 15 lat. I nie wszystkie dezinformacje są takie same: konfuzja co do tego, co dokładnie definiuje "fałszywe wiadomości", zainspirowała Claire Wardle, dyrektor ds. Badań "First Draft News", aby stworzyć taksonomię "mylnych" i "dez" informacji, zaczynając od satyry do propagandy opartej w całości na fałszywych dowodach.[17]

Na przykład artykuł z roku 2016 opublikowany przez firmę RAND Corporation oskarża Rosję o zalewanie nadawców "ogniskami fałszu" w postaci "częściowych prawd lub niedowiedzionych fikcji" za pomocą dużej liczby kanałów komunikacyjnych, zgodnie z filozofią wyższości ilości nad jakością.[18] BuzzFeed poinformował w styczniu 2017, że we Francji, zwolennicy Trumpa w Stanach Zjednoczonych udawali w internecie francuskich obywateli aby manipulować wynikami wyborów francuskich.[19] Kilka dni przed wyborami we Francji hakerzy włamali się do serwerów wiodącego kandydata (i ewentualnego zwycięzcy) Emmanuela Macrona w sposób przypominający kradzież maili amerykańskiego demokratycznego Komitetu Narodowego.[20]

To rozprzestrzenianie się dezinformacji w internecie pojawia się pomimo niedawnego wzrostu liczby organizacji zajmujących się sprawdzaniem faktów: na całym świecie działa co najmniej 114 "wyspecjalizowanych zespołów sprawdzających fakty" w 47 krajach. [21]

Patrząc w przyszłość, czego można oczekiwać? Po pierwsze, globalna wolność słowa będzie wzmacniana lub osłabiana zależnie od krajowych i międzynarodowych zmian politycznych. Mniej oczywiste jest to, czy globalne tendencje w kierunku autokratyzmu będą kontynuowane, czy też wolne społeczeństwa zaczną się odradzać, walcząc z sukcesem z naciskami na prasę i naukę, i z upolitycznieniem faktów przedstawianych w sposób stronniczy w efekcie indywidualnych interesów.

Po drugie, możemy się spodziewać, że politycznie motywowane kampanie dezinformacyjne będą zawsze występowały. Rzeczywiście, zjawisko "fałszywych wiadomości", "informacji wprowadzających w błąd", lub tzw. "alternatywnych faktów" można odnaleźć w niektórych najwcześniejszych zapisanych historiach, z przykładami pochodzącymi z czasów starożytnych.[22]

Ruch Wikimedia musi pozostać aktywny, a edytorzy zacząć orientować się w ciągle zmieniających się sposobach fałszowania i celowego mylenia informacji. Przy sprawdzaniu informacji pomocne będzie śledzenie postępu technik opracowywanych i wykorzystywanych przez dziennikarzy i badaczy takich jak te opisane w podręczniku "Verification Handbook".[23]

Dostęp

W maju 2017 r. badania przeprowadzone na zlecenie Fundacji Wikimedia przez Berkman Klein Center w Harvardzie pokazują, że całkowite cenzurowanie platformy lub artykułów z Wikipedii jest tendencją malejącą w skali globu i było tak zanim jeszcze Fundacja Wikimedia, w czerwcu 2015 wdrożyła protokół "https", który utrudnił blokowanie indywidualnych stron.[2]

Dzięki HTTPS cenzorzy nie mogą zobaczyć, która strona w witrynie została odwiedzona, więc muszą zdecydować, czy zablokować dostęp do niej całej, aby ograniczyć dostęp do pojedynczych stron. Badanie Berkman Klein wykorzystywało dane monitorowania dostępności po stronie klienta z 40 krajów, a także dane po stronie serwera, w celu znalezienia anomalii w żądaniach pobrania zestawu 1,7 miliona artykułów z 286 wersji językowych Wikipedii.[2]

Mimo że ogólna tendencja jest pozytywna, analiza wykazała, że niektóre rządy nadal cenzurują; np. Chiny blokowały przez cały 2016 r. domenę zh.wikipedia.org (choć możliwy jest dostęp dla innych subdomen projektów Wikimedia). Analiza wykazała również anomalie, które mogłyby wskazywać na cenzurę, ale nie zostały wyjaśnione, takie jak widoczne zablokowanie przez Tajlandię Wikipedii w języku Jidysz.[2]

Ogólnie, autorzy konkludują: "Przejście na HTTPS było dobrym ruchem pod względem zapewnienia dostępu do wiedzy". Innymi słowy, zmiana technologiczna w tym zakresie, poprawiła dostęp dla czytelników. Ogólnie rzecz biorąc, rozwiązania technologiczne (HTTPS) do problemów technologicznych (całkowite blokowanie) mogą czasami być dobrym rozwiązaniem - dopóki nie pojawią się kolejne wyzwania technologiczne.[2]

Wpływ:Biznes

Aktorzy biznesowi mogą również wpłynąć na zarówno dostęp jak i zawartość projektów Wikimedia, celowo przemodelowując platformę, która jest wolna i otwarta dla każdego.

Treść

W ciągu ostatniej dekady wzrost komercyjnych platform mediów społecznościowych, takich jak Twitter i Facebook towarzyszył jednoczesnemu spadkowi zaufania do tradycyjnych instytucji współczesnych mediów. Dotyczy to otwartych społeczeństw, które kiedyś mogły cieszyć się konkurencyjnym i produktywnym sektorem prasowym, a teraz coraz bardziej obawiają się nowych sposobów, w jaki informacje wprowadzające w błąd są filtrowane i dostarczane online oraz używane w publicznych debatach i podejmowaniu decyzji.

Istnieje też obszar zazębiania się z wyzwaniami wymienionymi powyżej - na przykład fałszywe informacje dotyczące technologii mogą być rozpowszechniane, aby zwiększyć wzrost cen akcji, a kampanie informacyjne mające na celu wpływanie na politykę publiczną mogą być prowadzone dla zwiększania zysku, zwłaszcza gdy przedsiębiorstwa lub ich grupy płacą za badania, aby udowodnić konieczność wdrożenia nowych regulacji. Na przykład analiza dokumentów przemysłowych wykazała, że przemysł cukrowniczy w USA w latach 60' i 70' XX w. sponsorował badania, które promowały tezę, że tłuszcz jest większym zagrożeniem dietetycznym niż cukier.[24]

Platformy internetowe niedawno ogłosiły kroki zmierzające do rozwiązania problemu rozpowszechniania dezinformacji. Google wprowadziła zmiany w swojej wyszukiwarce, która wyświetla linki do instytucji sprawdzających fakty, równolegle z linkami do stron je zawierających. Wprowadziła również sposoby zgłaszania problemów (np. auto uzupełnianie, które sugerowało pytania o to czy miał miejsce Holocaust).[25] Facebook zaoferował mechanizm sprawdzania faktów w artykułach, które się linkuje oraz wskazówki dotyczące umiejętności korzystania z mediów.[26]

Funkcje i zmiany funkcjonalności tych dużych platform w nadchodzących latach mogą zarówno stanowić wzór jak i konkurować z równoległymi rozwiązaniami opracowywanymi dla projektów Wikimedia.

Kolejnym krokiem w zrozumieniu, jak walczyć z dezinformacją jest rozwinięcie bardziej wyrafinowanych metod wykrywania sposobów w jaki sieci pomagają jej się rozpowszechniać. Działające w Europie Public Data Lab opublikowało pierwsze kilka rozdziałów "Field Guide to Fake News", w których podkreślono znaczenie tworzenia narzędzi, które ujawniają "grubą sieć" poprzez którą fałszywe wiadomości rozprzestrzeniają się online - pokazując jak opowieść lub idea jest rozpowszechniania w sieciach aby pomóc czytelnikom umieścić to we właściwym kontekście.[27]

Następny poziom innowacji może obejmować wszechobecne sprawdzanie faktów - rozwiązanie mogące potencjalnie korzystać z treści Wikipedii jako kluczowego źródła. Na przykład organizacja non-profit Hypothes.is rozwija otwartą platformę dostarczającą warstwę nakładaną na strony, w której użytkownicy mogą tworzyć adnotacje dostarczające krytyczny kontekst do treści.[28] Ponadto technologie z zakresu "big data" mogą być wykorzystane w celu zapewnienia kontekstu dla dyskursu publicznego, na przykład poprzez wykorzystanie danych dotyczących przepływu pieniędzy między podmiotami politycznymi zaangażowanymi w dezinformację.[Note 2]

Dzięki wpływowi inwestycji filantropijnych i szeroko rozpowszechnionym eksperymentom istnieje prawdopodobieństwo, że sieci mediów społecznościowych lub firmy zajmujące się informacjami internetowymi, takie jak Google, mogą skutecznie dostosować algorytmy, aby zapobiec najpowszechniejszemu udostępnianiu nieprawdziwych informacji online. Jednak nowe technologie mogą zainspirować podmioty polityczne i biznesowe do opracowywania nowych sposobów manipulowania systemami i rozszerzenia tych operacji poza tekst na inne media, takie jak dane, filmy, zdjęcia i inne.

Dostęp

Obawy dotyczące tego, jak przedsiębiorstwa mogłyby ograniczyć dostęp do projektów Wikimedia w ciągu najbliższych 15 lat, zostaną omówione w kolejnych sprawozdaniach. Opisują one między innymi bitwy o neutralność sieci, wzrost komercyjnych apek i platform oraz chęć korporacji (lub niechęć) do dostarczania dostępu do treści Wikipedii w ramach ich urządzeń i własnych zbiorów treści.

Uwagi i pytania podsumowujące

Jak Wikimedia planuje walkę z dezinformacją i cenzurą w nadchodzących dziesięcioleciach?

  • Zachęcajcie i przeprowadzajcie eksperymenty z zakresu sztucznej inteligencji i nauczania maszynowego, które mogłyby wzbogacić zawartość Wikipedii.
  • Śledźcie zmiany w dziennikarstwie i nauce w celu znalezienia nowych sposobów sprawdzania faktów i weryfikacji informacji, które mogą być wykorzystane jako wzory dla projektów Wikimedia, takie jak ocena wideo lub innych nowych mediów, które są również cenne dla zawartości [projektów Wikimedia].
  • Współpracujcie z innymi organizacjami pożytku publicznego, aby wspierać wolność prasy, wolność słowa, powszechny dostęp do internetu i inne cele dotyczące regulacji prawnych, które zapewniają dostęp i swobodny przepływ informacji.
  • Kontynuujcie starannie monitorowanie dostępu do projektów Wikimedia na całym świecie, wdrażając odpowiednie zmiany techniczne w stosownych przypadkach.
  • Monitorujcie rozwiązania rozwijane przez platformy komercyjne i publikacje, zarówno aby wiedzieć jak można je zaimplementować aby poprawić własne metody weryfikacji treści w projektach Wikimedia, jak również jak je wykorzystywać aby polepszać dostęp do tych treści.

Notes

  1. Podczas gdy wiele linków na tej stronie kieruje do angielskiej Wikipedii, według języka, w którym to streszczenie zostało oryginalnie napisane, podobne strony i zasady istnieją w wielu innych projektach Wikimedia. Tłumacze mogą zamienić te linki na ich odpowiedniki w innych wersjach językowych projektów Wikimedia.
  2. Zobacz np. dane udostępniane w USA przez Center for Responsive Politics' na temat darczyńców kampanii, lobbystów itp.; oraz dane Transparency International's dotyczące lobbystów działających w Unii Europejskiej.

References

  1. "Jak zewnętrzne siły hamują lub wspierają przyszłość ruchu Wikimedia? - Wikimedia Blog". Retrieved 2017-07-13. 
  2. a b c d e Clark, Justin, Robert Faris, Rebekah Heacock Jones. Analyzing Accessibility of Wikipedia Projects Around the World. Cambridge: Berkman Klein Center for Internet & Society, 2017. Accessed May 25, 2017.
  3. Alcantara, Chris. "The most challenging job of the 2016 race: Editing the candidates' Wikipedia pages." Washington Post. October 27, 2016. Accessed May 25, 2017.
  4. Kiberd, Roison. "The Brutal Edit War Over a 3D Printer's Wikipedia Page." Motherboard. March 23, 2016. Accessed June 1, 2017.
  5. Helbing, Dirk, Bruno S. Frey, Gerd Gigerenzer, Ernst Hafen, Michael Hagner, Yvonne Hofstetter, Jeroen van den Hoven, Roberto V. Zicari, and Andrej Zwitter, "Will Democracy Survive Big Data and Artificial Intelligence?" Scientific American. February 25, 2017. Accessed May 28, 2017. https://www.scientificamerican.com/article/will-democracy-survive-big-data-and-artificial-intelligence/.
  6. Halfaker, Aaron. "I'm the principal research scientist at the nonprofit behind Wikipedia. I study AIs and community dynamics. AMA!" Reddit. June 2, 2017. Accessed June 7, 2017.
  7. Watzman, Nancy. "Internet Archive's Trump Archive launches today." Internet Archive Blogs. January 5, 2017. Accessed May 19, 2017.
  8. Marconi, Francesco, Alex Siegman, and Machine Journalist. The Future of Augmented Journalism. New York: Associated Press, 2017. Accessed May 30, 2017.
  9. Luckin, Rose, Wayne Holmes, Mark Griffiths, and Laurie B. Forcier. Intelligence Unleashed: An Argument for AI in Education. London: Pearson, 2016. Accessed June 8, 2017.
  10. Bilton, Nick. "Fake news is about to get even scarier than you ever dreamed." Vanity Fair. January 26, 2017. Accessed May 30, 2017.
  11. Kelly, Kevin. The Inevitable: Understanding the 12 Technological Forces That Will Shape Our Future. New York: Viking, 2016.
  12. GSMA. "The Mobile Economy 2017." Accessed June 1, 2017.
  13. Puddington, Arch. Breaking Down Democracy: Goals, Strategies, and Methods of Modern Authoritarians. Washington, D.C.: Freedom House, 2017. Accessed June 8, 2017.
  14. Reporters Without Borders. "2017 World Press Freedom Index – tipping point?" April 26, 2017. Updated May 15, 2017. Accessed May 28, 2017.
  15. Nordland, Rod. "Turkey's Free Press Withers as Erdogan Jails 120 Journalists." The New York Times. November 17, 2016. Accessed June 7, 2017.
  16. Reporters Without Borders. "Journalism weakened by democracy's erosion." Accessed May 29, 2017.
  17. Wardle, Claire. "Fake News. It's Complicated." First Draft News. February 16, 2017. Accessed June 7, 2017.
  18. Paul, Christopher and Miriam Matthews. The Russian "Firehose of Falsehood" Propaganda Model: Why It Might Work and Options to Counter It. Santa Monica: RAND Corporation, 2016.
  19. Broderick, Ryan. "Trump Supporters Online Are Pretending To Be French To Manipulate France's Election." BuzzFeed. January 24, 2017. Accessed June 7, 2017.
  20. Tufekci, Zeynep. "Dear France: You Just Got Hacked. Don't Make The Same Mistakes We Did." BuzzFeed. May 5, 2017. Accessed June 7, 2017.
  21. Stencel, Mark. "International Fact-Checking Gains Ground, Duke Census Finds." Duke Reporters Lab. February 28, 2017. Accessed June 7, 2017. https://reporterslab.org/international-fact-checking-gains-ground/.
  22. Darnton, Robert. "The True History of Fake News." The New York Review of Books. February 13, 2017. Accessed June 7, 2017.
  23. Silverman, Craig, ed. Verification Handbook: A Definitive Guide to Verifying Digital Content for Emergency Coverage. Maastricht: European Journalism Centre, 2016. Accessed May 29, 2017.
  24. Kearns, Cristin E., Laura A. Schmidt, and Stanton A.Glantz. "Sugar Industry and Coronary Heart Disease Research: A Historical Analysis of Internal Industry Documents." JAMA Intern Med 176, no. 11 (2016): 1680-1685. Accessed June 8, 2017. doi:10.1001/jamainternmed.2016.5394.
  25. Gomes, Ben. "Our latest quality improvements for search." The Keyword. Google. April 25, 2017. Accessed May 19, 2017.
  26. Simo, Fidji. "Introducing: the Facebook Journalism Project." Facebook Media. January 11, 2017. Accessed May 19, 2017.
  27. Public Data Lab and First Draft News. "A Field Guide to Fake News." Accessed May 19, 2017.
  28. The Hypothesis Project. "To Enable a Conversation Over the World's Knowledge: Hypothesis Mission." Accessed 22 May 2017.