Open-Source-Jahrbuch/Beitrag 2005
Freie Inhalte sind auf dem Vormarsch. Kombiniert mit kollaborativem Arbeiten entstehen außerordentliche Projekte, die es in dieser Form bisher noch nicht gegeben hat. Mit an vorderster Front befindet sich das wohl umfangreichste Projekt dieser Sorte - die Internet-Enzyklopädie Wikipedia. Ermöglicht wird sie erst durch das recht simple Wiki-Prinzip, nach dem jeder, ohne Anmeldung oder Filterung durch Redakteure, Inhalte erstellen und bearbeiten kann. Tausende Freiwillige arbeiten aktiv an der Gestaltung der Enzyklopädie und setzen dadurch die einzig bestehende Regel des Systems um - den "Neutralen Standpunkt". Die Autoren beschreiben in dem Artikel die Geschichte der Wikipedia und gehen detailliert auf deren Struktur ein. Zudem erklären sie den alltäglichen Ablauf, wie Beiträge geschaffen werden und wie deren Qualität gesichert werden kann. Abschließend geben sie einen Ausblick über die Zukunft der Enzyklopädie sowie weitere spannende und vielversprechende Projekte mit freien Inhalten. Der Beitrag basiert auf einem im Dezember 2004 in der Ausgabe 8/2004 der Fachzeitschrift Information Wissenschaft und Praxis1 erschienenen Artikel. Er wurde von den Autoren und ERIK MÖLLER in einem Wiki unter http://meta.wikimedia.org/wiki/Open-Source-Jahrbuch/Beitrag_2005 überarbeitet und steht unter den Bedingungen der GNU Free Documentation License und der Creative-Commons-Lizenz Attributions-ShareAlike zur Verfügung.
1http://www.dgd.de/dgi/nfd/
Die Wikipedia
[edit]Die Wikipedia ist ein internationales Projekt mit dem Ziel, eine freie Internet-Enzyklopädie zu schaffen. Alle Artikel der Wikipedia werden in einem Wiki-System verwaltet, das auf Servern der Wikimedia-Stiftung (Foundation) gehostet wird. Die Stiftung wird allein mit Hilfe von Spendengeldern und der Arbeit von Tausenden Freiwilligen auf der ganzen Erde betrieben. Ursprünglich im Januar 2001 als englischsprachiges Projekt gegründet, existieren inzwischen Ableger in mehr als 80 Sprachen. Die deutschsprachige Wikipedia ist nach der englischen die umfangreichste. Mit mehr als einer Millionen Artikeln ist die gesamte Wikipedia größer als jede andere Enzyklopädie und gehört laut Alexa.com inzwischen zu den 150 populärsten Webseiten weltweit.
Das Wiki-Konzept
[edit]Wikis sind Webseiten, die nicht zwischen Schreib- und Lesezugriff differenzieren: Wer sie lesen kann, der darf auch Seiten bearbeiten und anlegen. Dazu enthält jede Seite eines Wikis einen Link, durch den sich ein Dialog öffnet, in dem sich der Inhalt der Seite bearbeiten lässt. Dies geschieht in einer vereinfachten Syntax, die es auch ohne Kenntnisse von HTML erlaubt, Formatierungen und Links zu anderen Seiten des Wikis oder ins Internet anzulegen. Alle Bearbeitungsschritte werden gespeichert, so dass alle Änderungen mitverfolgt werden können. Anstatt Änderungen und Neueintragungen zunächst von einem Herausgeber oder Experten begutachten zu lassen (Zensur bzw. Peer-Review) findet die Kontrolle in Form von Kommentaren und weiteren Änderungen im Nachhinein statt.
Das erste Wiki wurde 1995 von Ward Cunningham als Werkzeug zum Wissensmanagement entwickelt und in Anspielung auf das World Wide Web (WWW) und die hawaiianische Bezeichnung „wiki wiki“ für „schnell“ das WikiWikiWeb genannt. Durch das Prinzip, die Bearbeitung und Verlinkung von einzelnen Seiten so einfach wie möglich zu machen, eignen sich Wikis hervorragend, um in Gruppen semistrukturierte Text- und Wissenssammlungen zu verwalten. (Weitere Einzelheiten zum Aufbau eines Wikis siehe [Cunningham und Leuf, 2001])
Für die Wikipedia wurde anfänglichst die Software UseModWiki von Clifford Adams verwendet und später durch ein von Magnus Manske eigens für die Wikipedia entwickeltes Programm ersetzt. Inzwischen ist die Wikipedia das mit Abstand größte Wiki, und ihre Software MediaWiki wird von einem Team von Entwicklern als freie Software weiterentwickelt.
Freie Inhalte
[edit]Dass die Wikipedia frei ist bedeutet, dass ihr gesamter Text den Bedingungen der GNU Free Documentation License (GFDL) unterliegt. Die wesentlichen Elemente dieser Lizenz sind, dass die Inhalte frei verbreitet und in neuen Werken weiterverwendet werden können. Diese neuen Werke müssen jedoch ebenfalls wieder unter die Lizenz gestellt und mit einer Quellenangabe zu den ursprünglichen Texten versehen werden. Dieses Prinzip, bei dem jedem die Freiheit zum Nutzen, zum Verändern und zum Weiterverbreiten eingeräumt wird, stammt aus der Bewegung für freie Software.
Da die GFDL ursprünglich für technische Dokumentationen und nicht für Wikis entwickelt wurde und auf das US-amerikanische Recht zugeschnitten ist, ist ihre Anwendung nicht ganz unproblematisch. Die inzwischen bessere Wahl wäre wahrscheinlich eine Creative Commons-Lizenz, die von ihrer Zielsetzung über den Computer-Bereich hinausgeht und auch in national angepassten Versionen existiert. Derzeit arbeitet die Free Software Foundation[1] (http://www.gnu.org/fsf/fsf.html) in Absprache mit der Creative Commons Initiative[2] (http://www.creativecommons.org/) an einer neuen Version der GFDL.
Der Neutrale Standpunkt
[edit]Die trotz des anarchistischen Charakters des Projekts notwendigen Regeln und Leitlinien für die Formulierung von Artikeln werden innerhalb der Wikipedia entwickelt. Sie etablieren sich weniger durch Autoritäten oder Mehrheitsentscheidungen, sondern dadurch, dass sich gewisse Praktiken als sinnvoll erweisen und deshalb von anderen Autoren aufgegriffen werden. Eine fundamentale Regel ist lediglich der so genannte Neutrale Standpunkt. Er verlangt, Ideen und Fakten in einer Weise zu präsentieren, dass sowohl Gegner als auch Befürworter einer solchen Idee deren Beschreibung akzeptieren können. Dies geschieht, indem gerade bei strittigen Themen alle wesentlichen Positionen und Argumente zu einem Thema angemessen erwähnt und ihren jeweiligen Vertretern zugeschrieben werden. Dem Ziel, eine für alle rational denkenden Beteiligten akzeptable Beschreibung zu formulieren, gehen oft lange Diskussionen und Streitigkeiten voraus - bis hin zu so genannten Edit-Wars, bei denen zwei Benutzer in kurzer Folge ihre Änderungen rückgängig machen.
Vorbilder und Geschichte
[edit]Obwohl die Wikipedia ein grundsätzlich neues Konzept darstellt, lassen sich Vorbilder und Vorläufer festmachen. Die Präambel der Satzung des Vereins Wikimedia Deutschland beginnt selbstbewusst mit einem Zitat des berühmten Enzyklopädisten Denis Diderot: » ... damit die Arbeit der vergangenen Jahrhunderte nicht nutzlos für die kommenden Jahrhunderte gewesen sei; damit unsere Enkel nicht nur gebildeter, sondern gleichzeitig auch tugendhafter und glücklicher werden, und damit wir nicht sterben, ohne uns um die Menschheit verdient gemacht zu haben.« [Diderot 1969, 79 ] Die selbstgestellte Aufgabe, eine Enzyklopädie zu erstellen, misst sich weniger an herkömmlichen Standardwerken wie dem Brockhaus und der Encyclopædia Britannica - die natürlich dennoch gerne für einen Vergleich herangezogen werden - sondern am Anspruch, das gesamte Wissen der Menschheit zu sammeln. Im Gegensatz zu den traditionellen Wissenssammlungen und Enzyklopädien geschieht dies konsequent als Hypermedia. Als moderne Vorläufer werden deshalb Vannevar Bushs Memex (1945) und Ted Nelsons Xanadu-Project (1960) genannt. Ein fast schon in Vergessenheit geratenes Projekt aus dem dokumentarischen Bereich sind die Arbeiten Paul Otlets am Répertoire bibliographique universel für das Office International de Bibliographie, dessen Visionen der Wikipedia erstaunlich nahe kommen.
Als direkter Vorgänger der Wikipedia ist die im März 2000 gegründete Nupedia zu nennen, in der die Qualität der einzelnen von Wissenschaftlern freiwillig erstellten Artikel in einem aufwändigen Peer-Review-Prozess sichergestellt werden sollte. Da dies relativ schleppend voranging, gab es die Idee, die schon damals unter der GPL stehende Nupedia durch einen offeneren Bereich zu ergänzen.
Larry Sanger, Chefredakteur von Nupedia, und Jimmy Wales, der Gründer und Finanzier des Projekts, riefen zu diesem Zweck am 15. Januar 2001 das Wikipedia-Projekt ins Leben. Wikipedia entwickelte sich bald ungleich besser als die Nupedia selbst: bereits nach einem Monat konnten mehr als 1.000 und Anfang September mehr als 10.000 Artikel verzeichnet werden. Inzwischen (2004) hat das Projekt die Millionen-Artikel-Marke überschritten. Dabei macht der englischsprachige Teil nur etwa die Hälfte aus, und ist damit aber umfangreicher als alle bekannten Enzyklopädien zusammen genommen, da die Wikipedia auf viele miteinander verbundene unabhängige Sprachversionen ausgeweitet worden ist.
Gemeinschaftliches Arbeiten
[edit]Ende Juni 2003 wurde die Wikimedia Foundation als Stiftung nach dem Recht des US-Bundesstaats Florida gegründet. Sie wahrt die Namensrechte und betreibt die Server, auf denen die verschiedenen Wikimedia-Projekte laufen. Als deutsche Schwesterorganisation folgte ein Jahr später der als gemeinnützig anerkannte Verein Wikimedia Deutschland - Gesellschaft zur Förderung Freien Wissens e.V. Die Organisationen nehmen keinen nennenswerten Einfluss auf die Inhalte, sondern kümmern sich vor allem um organisatorische Aufgaben wie Presse- und Öffentlichkeitsarbeit sowie das Sammeln von Spenden und Fördergeldern. Die anlaufenden Kosten für den Betrieb der Server (inzwischen mehr als 250€ pro Tag) werden ausschließlich durch Spenden gedeckt - Anfang Oktober kamen durch einen Aufruf innerhalb von 14 Tagen über 50.000 $ für den Kauf neuer Hardware zusammen.
Der Erfolg der Wikipedia ist nicht nur durch ihre Inhalte bedingt, sondern lässt sich auch dadurch erklären, dass sich unter den Beteiligten schnell eine Community gebildet hat. Über Mittel wie die Versionsgeschichten bekommt man schnell mit, wer an bestimmten Artikeln arbeitet und erhält dadurch Kontakt zu Autoren mit ähnlichen Interessen. Durch die intensive Zusammenarbeit und das gemeinsame Ziel, eine möglichst gute Enzyklopädie im Rahmen des Neutralen Standpunkts zu erstellen, wird ein Zusammengehörigkeitsgefühl hergestellt. Da die große Mehrzahl der Teilnehmer konstruktiv mitarbeitet, werden mutwillige Entstellungen von Artikeln (Vandalismus) schnell wieder entfernt.
Unter den Autoren bilden sich nicht nur Arbeitsgemeinschaften sondern auch Spezialisierungen heraus. So kontrollieren einige Nutzer Texte auf Rechtschreibung, andere stellen sicher, dass die Artikel vernünftig mit anderen verlinkt sind und wieder andere ordnen die Artikel nur in die verschiedenen Kategorien ein. Viele Autoren beginnen mit solch kleinen Änderungen und entdecken auf diese Weise wie einfach es ist, sich produktiv zu beteiligen.
Die Artikel
[edit]Die einzelnen Artikel der Wikipedia lassen sich unter URLs der Form http://de.wikipedia.org/wiki/Artikelname aufrufen. Die Subdomain (hier 'de') entspricht bis auf einige Ausnahmen dem jeweiligen Sprachkürzel nach ISO-639. Beim Seitenaufruf wird entweder der entsprechende Artikel oder ein Hinweis angezeigt, der besagt, dass ein Artikel dieses Namens bisher nicht existiert, aber direkt erstellt werden kann.
Die Bearbeitung des Artikelinhalts oder einzelner Kapitel geschieht in einer speziellen Wiki-Syntax, die keine HTML-Kenntnisse erfordert und relativ schnell zu erlernen ist (siehe Abbildung 2). So trennen beispielsweise Leerzeilen einzelne Absätze, und URLs werden automatisch als Hyperlink dargestellt. Auch komplexere Auszeichnungen wie Listen und Tabellen sind möglich – bis hin zu mathematischen Formeln in LaTeX, Zeitleisten und sogar Hieroglyphen.
Neben den normalen enzyklopädischen Artikeln gibt es eine Reihe von Namensräumen, die durch einen Doppelpunkt getrennt den Artikelnamen vorangestellt werden. So existiert zu jedem Artikel eine parallele Diskussionsseite, beispielsweise "Diskussion:Satz des Pythagoras" für den Artikel "Satz des Pythagoras". Dort können Kommentare, Fragen zum Artikel und strittige Passagen diskutiert werden. Artikel über das Projekt selbst (Anleitungen und Projektorganisiation) stehen in einem eigenen Wikipedia-Namensraum. Jeder angemeldete Benutzer besitzt eine öffentliche Benutzerseite, auf der er sich vorstellen und Notizen aufbewahren kann.
Durch die Referenzierung über eindeutige Titel bilden die Artikel der Wikipedia ein kontrolliertes Vokabular. Für synonyme Bezeichnungen kann ein so genannter Redirect angelegt werden, der zur Vorzugsbenennung weiterleitet. Homonymen müssen durch Umformulierung oder Homonymzusätze unterschieden werden. Zusätzlich wird für jedes Homonym eine so genannte Begriffsklärungsseite angelegt. Von dort wird auf die einzelnen Begriffe verwiesen und mit einem Standardhinweis gebeten, Verweise auf das Lemma dahingehend zu ändern, dass sie direkt auf den jeweils passenden Artikel zeigen. Da Begriffsklärungsseiten keine Themen sondern mögliche Bedeutungen einer Bezeichnung behandeln, lassen sie sich auch als eine Art von Wörterbucheinträgen auffassen, die ansonsten nicht in der Wikipedia gewünscht sind.
Mehr als normale Texte
[edit]Eine der wesentlichen Funktionen eines Wikis ist die Versionsgeschichte eines jeden Artikels. Jeder Änderung wird protokolliert und kann bei Bedarf verbessert oder rückgängig gemacht werden. Die letzen Änderungen in der gesamten Wikipedia lassen sich über eine Liste einsehen und so durch andere Wikipedianer überprüfen. Zusätzlich können angemeldete Benutzer Artikel auf ihre Beobachtungsliste setzen, so dass sie über Änderungen an diesen informiert werden. Aus der Versionsgeschichte eines Artikels können zwei beliebige Versionen ausgewählt und miteinander verglichen werden (siehe Abbildung).
Als Hypertexte sind die Artikel der Wikipedia hochgradig untereinander verlinkt. Dies wird auch als einer der Gründe dafür angesehen, warum die Wikipedia in den Ergebnislisten von Suchmaschinen wie Google relativ hoch platziert wird. Zum Anlegen eines Verweises genügt es, den Titel des zu referenzierenden Artikels in doppelte eckige Klammern zu setzen (siehe Beispielartikel). Als Linktext kann auch eine andere Zeichenkette gewählt werden (im Beispiel „rechtwinkligen“ für einen Link auf den Artikel „Winkel“). Verweise auf bisher nicht existierende Artikel erscheinen automatisch rot hervorgehoben. Klickt man auf einen dieser Links, wird man aufgefordert, den entsprechenden Artikel selbst zu beginnen.
Da alle Verweise zwischen Wikipedia-Artikeln in einer Datenbank gespeichert werden, lässt sich direkt ermitteln, von welchen Artikeln auf einen anderen verwiesen wird („Links auf diese Seite“) und welche noch nicht existierenden Artikel häufig verlinkt werden („Gewünschte Artikel“). Neben Links auf normale Artikel innerhalb einer Wikipedia kann auch auf Artikel des gleichen Themas in anderssprachigen Wikipedias verwiesen werden. Die Links auf andere Sprachen werden gesondert zu jedem Artikel angezeigt und fördern den Zusammenhalt zwischen den verschiedensprachigen Wikipedias. Dank der gemeinsamen Lizenzierung unter der GFDL können fremdsprachige Artikel übersetzt werden, so dass auch kleinere Wikipedias vom Wachstum der großen Sprachen profitieren.
Neben Links innerhalb des Textes werden oft unter „Siehe auch“ assoziative Verweise auf andere relevante Artikel angelegt, deren Zusammenhang im Artikeltext noch nicht genügend erläutert wurde (siehe Beispielartikel). Am Ende eines Artikels folgen unter „Weblinks“ Verweise auf andere Internetseiten und unter „Literatur“ weiterführende Literaturangaben. Während sich unter den Weblinks meist viele weiterführende Quellen finden und bei einigen Artikel sogar regelmäßig Spam-Einträge entfernt werden müssen, sieht es bei den Literatur- und Quellenangaben allerdings leider oft noch etwas spärlich aus. ISBN-Nummern im Text verweisen automatisch auf die „ISBN-Suche“ ( http://wikipedia.de/Spezial:Booksources ), einem speziellen Artikel, der unter anderem eine Reihe von Buchhändlern und Bibliothekskatalogen auflistet. Die jeweilige ISBN-Nummer wird bei einer Auswahl an diese mit übermittelt. An Bibliothekskatalogen werden zur Zeit der Karlsruher Virtuelle Katalog (KVK) und die Kataloge des Gemeinsamen Bibliotheksverbund (GBV), des Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV), des Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen (HBZ) sowie des Österreichischen Bibliotheksverbund unterstützt.
Ein Schwachpunkt der Wikipedia ist sicherlich die mangelnde Recherchefunktion. Falls ein gesuchtes Lemma nicht bekannt oder vorhanden ist, fällt es manchmal schwer, die passenden Artikel zu einem Thema zu finden. Die Software bietet lediglich eine einfache Volltextsuche, die in der Vergangenheit regelmäßig wegen Überlastung der Server abgeschaltet wurde. Als eine Alternative bietet sich die indirekte Suche über Google oder Yahoo an. Wünschenswert wäre eine speziell auf den Datenbestand der Wikipedia zugeschnittene Suchfunktion, wie sie ansatzweise auf der ersten CD-Ausgabe realisiert worden ist.
Einen thematischen Einstieg bieten die Portale und Kategorien. Kategorien sind frei vergebbare Schlagwörter, die sowohl den Artikeln als auch anderen Kategorien zugeordnet werden können, so dass Thesaurusstrukturen entstehen können. Da der Software jedoch bislang grundlegende Funktionen zur Thesaurusverwaltung fehlen und die Vergabe von Kategorien ohne einheitliches Regelwerk stattfindet, wäre es übertrieben von einer kontrollierten Verschlagwortung zu sprechen. Vielmehr handelt es sich um eine Form des social tagging. Diese Form der gemeinschaftlichen Inhaltserschließung hat in den letzten Monaten vor allem in Weblogs und durch Bookmarking-Systeme wie del.icio.us an Auftrieb gewonnen. Wie weit diese sehr dynamischen und damit bislang relativ inkonsistenten Systeme eine kontrollierte Erschließung beispielsweise mit Klassifikationen wie der Dewey Decimal Classification (DDC) oder der Regensburger Verbund Klassifikation (RVK) ersetzen können, wird sich zeigen.
Qualität
[edit]„Wie ihr seht, kann ich hier einfach so eure Seite bearbeiten. Achtung: ich mach das nur, um euch auf eure Sicherheitslücke hinzuweisen.“ (aus einer Email an info@wikipedia.de)
Regelmäßig werden erstaunte Emails an info@wikipedia geschickt, in denen davor gewarnt wird, dass alle Seiten direkt und von jedem verändert werden können. Diese gewollte Offenheit ist auch häufigster Kritikpunkt: Wie kann die Zuverlässigkeit der Informationen sichergestellt werden, wenn jeder diese verändern kann und wie stark kann man sich auf die Informationen aus der Wikipedia verlassen?
Grundsätzlich sind auch gedruckte Werke und herkömmliche Nachschlagewerke nicht frei von Fehlern. Die Notwendigkeit kritischen Lesens kann auch die Wikipedia nicht aufheben. Allgemein wird jedoch darauf vertraut, dass Texte, die gemeinsam von etlichen Leuten begutachtet und überarbeitet wurden, weniger Fehler enthalten als ein Text eines einzelnen Autoren. Somit wird auf die Selbstheilungskräfte des Wiki-Prinzips vertraut, durch die über kurz oder lang irgendwann jeder Fehler von irgend jemandem entdeckt wird, der ihn dann sofort verbessern kann. Dies täuscht jedoch nicht darüber hinweg, dass fragwürdige Formulierungen in der Wikipedia oft über einen längeren Zeitraum bestehen bleiben.
Vor allem bei sehr speziellen Themen dauert es einige Zeit, bis ein anderer Fachkundiger den Artikel findet, ihn liest und auch korrigiert. Ein Großteil der Artikel ist daher noch sehr unvollständig, einseitig, oder schlicht fehlerhaft, so dass der Vergleich der gesamten Wikipedia mit einer herkömmlichen Enzyklopädie gewagt ist. Andererseits braucht sich die Wikipedia nicht zu verstecken, wie unlängst Tests der Zeitschrift „c't“ und der Zeitung „Die Zeit“ gezeigt haben. Dort wurde die Qualität der Artikel im Vergleich zu Encarta und Brockhaus sogar mit „sehr gut“ bewertet. [Michael Kurzidim: Wissenswettstreit - Die kostenlose Wikipedia tritt gegen die Marktführer Encarta und Brockhaus an. In: c't Nr. 21 vom 4. Oktober 2004 sowie Thomas J. Schult: Lernen vom Schinken in Scheiben – Was taugen die aktuellen Enzyklopädien auf CD-ROM und DVD?. In: DIE ZEIT Nr. 43 vom 14. Oktober 2004 (http://www.zeit.de/2004/43/C-Enzyklop_8adien-Test)]
Die Anzahl der Artikel entspricht ungefähr herkömmlichen Enzyklopädien, und teilweise werden diese hinsichtlich Umfang, Verständlichkeit und Aktualität sogar übertroffen. Von Tag zu Tag vergrößert sich dieser Teil. Ein Problem besteht jedoch darin, dass es für den Leser nicht auf den ersten Blick ersichtlich ist, ob er einen guten oder einen schlechten Artikel vor sich hat. Vor allem in Bereichen, die als besonders schwierig gelten wie politische Themen (siehe beispielsweise taz vom 05.10.2004 zur Diskussion des Wikipedia-Artikels „Waffen SS“ ) und Themen der Pseudowissenschaften, da hier Überzeugungen aufeinander treffen und sich hier nur schwer durch Diskussion ein Neutraler Standpunkt finden lässt. Je kontroverser und umfassender das Thema, desto länger dauert es, bis sich ein guter Artikel stabilisiert. In Zukunft ist geplant, Artikel, die sich auf einem hohen Niveau stabilisiert haben, mit einer Auszeichnung zu versehen, damit diese für den Leser erkennbar sind.
Während in der Presse ein im Großen und Ganzen durchweg positives Bild der Wikipedia vermittelt wird, sind die Wikipedianer selbst ihre schärfsten Kritiker. Auf der Mailingliste und Diskussionsseiten finden regelmäßig hitzige Diskussionen über die tatsächliche Qualität der Artikel statt. Da alle Leser zum Finden und Verbessern von Fehlern aufgefordert sind, kennen regelmäßige Mitarbeiter die Schwachstellen erwartungsgemäß am Besten. Darüber ob und wie lange Unsinn unkorrigiert in Artikeln stehen bleiben kann, ob mehr und mehr Experten an das Projekt gebunden werden oder aber durch langwierige Diskussionen abgeschreckt werden und nicht zuletzt ob die Artikel tatsächlich immer besser oder ab einem bestimmten Niveau auch wieder schlechter werden, gibt es aussagekräftige Untersuchungen bislang nur in Ansätzen.
Aktionen zur Verbesserung der Qualität
[edit]Um die Verbesserung der Qualität zu forcieren, haben sich in der deutschsprachigen Wikipedia verschiedene Methoden etabliert. In der Qualitätsoffensive wird alle zwei Wochen ein bestimmtes Themengebiet herausgegriffen, um Lücken und Schwachstellen darin aufzudecken und die Artikel gemeinsam zu überarbeiten - in der Vergangenheit beispielsweise Themen wie „Antarktis“, „Olympische Spiele“ und „Schweiz“. Hilfreich bei der Fehlersuche sind verschiedene manuell oder automatisch erstellte Listen wie die Artikelwünsche und die Kurzen Artikel.
Mit den so genannten Bewertungsbausteinen lassen sich einzelne Artikel hinsichtlich bestimmter Kriterien wie beispielsweise der Verständlichkeit als mangelhaft kennzeichnen. Eine Auszeichnung für besonders gute Artikel ist die Aufnahme in die Liste der Exzellenten Artikel. Dazu vorgeschlagene Artikel werden zuvor einem kritischen Reviewprozess, an dem jeder teilnehmen kann, unterzogen. Als Aushängeschild der Wikipedia wird wöchentlich ein exzellenter Artikel auf der Startseite präsentiert. Weitere Aktionen zur Verbesserung der Qualität sind unter anderem ein Schreibwettbewerb und der überwachte Einsatz von Programmen (so genannte Bots), die die Wikipedia automatisch beispielsweise nach Rechtschreibfehlern durchforsten.
Auf einen längeren Zeitraum als die Qualitätsoffensiven sind die mitlerweile über 120 Portale und gut halb so viele Wikiprojekte angelegt. In ihnen werden Artikel zu einem Gebiet wie beispielsweise Religion, Mathematik, Feuerwehr, Astronomie & Raumfahrt oder Graphentheorie zusammengefasst. Teilweise werden dabei auch Bewertungen von Artikel vorgenommen, die beispielsweise zu kurz oder besonders herausragend sind. Einem herkömmlichen Lektorat kommt die Erstellung eines WikiReaders[1] am nächsten. Hierbei werden für ein Thema die wesentlichsten Artikel gesammelt und einheitlich für den Druck gesetzt. Bisher sind zwei WikiReader zum Thema Internet und Schweden auf Papier und weitere WikiReader (z.B. Portugal und Wale) als PDF erhältlich.
Zusammenarbeit mit anderen Informationsanbietern
[edit]Für die Verwaltung stark strukturierter, normierter oder durch Relationen in Bezug gesetzer Informationen eignen sich Datenbanken oft besser als normale Wikis, welche eher für textuelle Informationen konzipiert sind. Beispielsweise sind einheitlich erfasste Metadaten besser in einem Katalog bzw. einer Datenbank mit konkretem Datenmodell aufgehoben. Gleichzeitig sind viele dieser Informationen auch für die Wikipedia von Interesse. So finden sich schon jetzt eine Vielzahl von Artikeln zu Personen, Büchern, Filmen, Firmen, Bands etc. Falls dazu bereits Datenbanken existieren, wäre eine Zusammenarbeit zwischen Wikipedia und Datenbankanbietern wünschenswert.
Aus Sicht der Wikipedia ist es natürlich das Ziel, alle diese Inhalte als Open Content frei zugänglich zu machen. Aber auch unabhängig davon ist eine Verlinkung untereinander machbar. Beispielsweise sollte von Wikipedia-Artikeln zu einzelnen Personen auf Nachweise zu ihren Werken in Nationalbibliographien, auf die Internet Movie Database (www.imdb.com) für Filme, auf Freedb (www.freedb.org) oder MusicBrainz (www.musicbrainz.org) für Tonaufnahmen, auf Kalliope für Nachlässe und so weiter, verwiesen werden. Hilfreich für die Verknüpfung wären Normdaten wie die PND - leider stehen diese aber in der Regel nicht frei als Open Content bzw. unter GFDL lizensiert zur Verfügung.
Für die Anreicherung und Verlinken von Wikipedia-Artikeln und anderen Wikimedia-Projekten mit strukturierten Daten gibt es verschiedene Vorschläge. Diese reichen von der automatischen Erzeugung von Wiki-Artikeln aus Datenbankinhalten über die Verwendung von Formatvorlagen bis hin zu einer kompletten Wiki-Datenbank. Dafür schlägt Erik Möller unter http://meta.wikimedia.org/wiki/Wikidata vor, die MediaWiki-Software so zu erweitern, dass beliebige strukturierte Daten nach dem Wiki-Modell eingegeben und bearbeitet werden können.
Das Wissen der Welt
[edit]Die Zielsetzung von Wikimedia geht über die Erstellung einer Enzyklopädie hinaus und zielt darauf ab, „das Wissen der Welt zu sammeln und zugänglich zu machen.“ Dazu sind neben der Wikipedia inzwischen eine Reihe von weitere Projekte im Rahmen der Wikimedia Foundation begonnen und eine noch größere Anzahl von Ideen für weitere Projekte zur gemeinschaftlichen Erstellung freien Wissens vorgeschlagen worden. Alle basieren auf freien Inhalten im Sinne der GFDL und Wiki-Technologien. Bereits benutzbar sind
- Wiktionary (Wörterbuch)
- Wikibooks (Lehr- und Fachbücher)
- Wikiquote (Zitate)
- Wikisource (Orginalquellen)
- Wikispecies (Lebewesen)
- Wikimedia Commons (Multimedia, seit September 2004)
- Wikinews (Nachrichten, seit Dezember 2004)
Allerdings beschränken sich die meisten davon bisher auf englischsprachige Inhalte und haben teilweise noch mit technischen Problemen zu kämpfen. Da die MediaWiki-Software ursprünglich nur für Wikipedia entwickelt wurde, müssen für stärker strukturierte Informationen noch einige Anpassungen und Erweiterungen vorgenommen werden. Für einige Projektideen wie beispielsweise Wikiversity (multimediale Lehrmaterialien) und Wikimaps (geographische Informationen) sollen die Erweiterung mit Hilfe von Förderanträgen realisiert werden. Das neueste Projekt ist Wikinews, das das Ziel hat, gemeinsam über Nachrichten aller Art von einem neutralen Standpunkt aus zu berichten und sie zusammenzufassen.
Weitere Projekte beziehen sich auf die Verbreitung von freien Inhalten in anderer Form als im Internet. In den WikiReadern werden Artikel eines Themenbereiches zusammengesucht und als PDF oder gedruckt zur Verfügung gestellt. Die in Zusammenarbeit mit dem Verlag Directmedia Publishing hergestellte CD-ROM-Ausgabe der deutschsprachigen Wikipedia enthält rund 130.000 Artikel vom Stand des 1. September 2004. Um mehr als die darauf vorhandenen rund 1.200 Bilder auf einen Datenträger zu bekommen, soll die nächste Ausgabe 2005 auf DVD erscheinen. Auch eine Papierausgabe der wichtigsten Artikel der englischsprachigen Wikipedia ist geplant.
Ob diese Schwesterprojekte ebenso erfolgreich wie die Wikipedia sein werden, bleibt abzuwarten. Zumindest letztere ist nach anfänglicher Skepsis bereits ein voller Erfolg. Es ist zu vermuten, dass sich das Wiki-Prinzip der einfachen, offenen Bearbeitung in Verbindung mit freien Inhalten auch auf andere Inhalte übertragen lässt. Sicher ist, dass die Möglichkeiten der Wikipedia und verwandter Projekte noch lange nicht ausgeschöpft sind. Wie und wohin sie sich in den nächsten Jahren weiter entwickeln werden, bleibt spannend.
Literatur
[edit]- Wikipedia - Die freie Enzyklopädie : Ausgabe Herbst 2004. Berlin: Directmedia Publishing, 2004.
- Kurzidim, Michael. Wissenswettstreit In: C't.2004, (21/04), Seite 132ff.
- Möller, Erik. Tanz der Gehirne. In: Telepolis. 2003, (9. bis 30.5.2003). Als Ganzes: http://www.humanist.de/erik/tdg
- Möller, Erik. Die heimliche Medienrevolution. Wie Weblogs, Wikis und freie Software die Welt verändern. Heise, Hannover, Nov. 2004. http://medienrevolution.dpunkt.de
- Diderot, Dennis: Enzyklopädie. Philosophische und politische Texte aus der Encyclopédie. München. dtv. 1969
- Cunningham, Ward; Leuf, Bo: The Wiki Way. Collaboration and Sharing on the Internet. Addison-Wesley. 2001
- Schult, Thomas J.: Lernen vom Schinken in Scheiben. Was taugen die aktuellen Enzyklopädien auf CD-ROM und DVD? Ein Test. In: Die Zeit 14. Oktober 2004 Nr.43 http://www.zeit.de/2004/43/C-Enzyklop_8adien-Test [31.10.04]
Fußnoten
[edit]- Wikipedia Diskurs. Der Waffen SS Artikel. taz 5.10.2004 http://www.taz.de/pt/2004/10/05/a0150.nf/text.ges,1. [31.10.04]
- Free Software Foundation (Hrsg.): GNU Free Documentation License. http://www.gnu.org/copyleft/fdl.html.
- Creative Commons International: Creative Commons Deutschland. http://de.creativecommons.org/. [31.10.04]
- Zachte, Erik: wikistat. http://infodisiac.com/Wikipedia/WikiStats/.
- Lee: Can social tagging overcome barriers to content classification? In: headshift Weblog 30.08.2004 http://www.headshift.com/archives/002085.cfm [31.10.04]
- Rayward, W. Boyd: Visions of Xanadu: Paul Otlet (1868-1944) and Hypertext. In: Journal of the American Society of Information Science (45:4) Seite 235-250
Copyright
Dieser Artikel von Patrick Nanowski und Jakob Voß erschien in der Ausgabe 8/2004 der Fachzeitschrift Information Wissenschaft und Praxis (siehe http://eprints.rclis.org/archive/00002566/) . Er wurde mit Erik Möller für das Open-Source-Jahrbuch überarbeitet und ist unter den Bedingungen der Creative Commons License Attribution-ShareAlike und/oder unter den Bedingungen der GNU Free Documentation License frei verfügbar.
Die Autoren
Patrick Danowski ist Dipl. Informatiker und seit 1.10.2004 Bibliothekreferendar an der Zentral- und Landesbibliothek Berlin. Er beschäftigt sich mit Digitalisaten und dem elektronischen Publizieren.
Jakob Voß studiert Informatik und Bibliothekswissenschaft an der Humboldt-Universität zu Berlin. Er ist Mitglied des Vorstands von Wikimedia Deutschland e.V.