Wikidata/Technical proposal/de

From Meta, a Wikimedia project coordination wiki
Other languages:

Wikidata ist ein Projekt zum Aufbau einer freien Wissensdatenbank über die Welt, die gleichermaßen von Menschen und Maschinen gelesen und verändert werden kann. Es wird Daten in allen Sprachen der Wikimedia-Projekte bereitstellen und einen zentralisierten Zugriff erlauben, ganz ähnlich wie Wikimedia Commons dies für Multimedia-Dateien ermöglicht.

Dem Vorschlag entsprechend, wird Wikidata von Wikimedia gehostet und gewartet. Dieses Dokument beschäftigt sich mit der benötigten Anfangsentwicklung, um das Projekt zu starten und zu entwickeln, und behandelt die langfristigen Auswirkungen.

Dieses Dokument schlägt einen Ansatz in drei Phasen vor:

  • Die erste Phase (Interwiki-Links) besteht in der Schaffung einer Entitäten-Datenbasis für die Wikimedia-Projekte. Dies wird eine Alternative zum aktuellen Interlanguage-Link-System darstellen, die bereits mit der Wikipedia verbunden werden soll.
  • Die zweite Phase (Infoboxen) zielt auf die Erfassung erster Infobox-bezogener Daten für eine Teilmenge der Datenobjekte ab, mit dem expliziten Ziel, die derzeit weit verbreiteten Infoboxen mit Daten aus data.wikimedia.org zu versorgen.
  • Die dritte und letzte Phase (Listen) der anfänglichen Entwicklung sieht vor, die Menge von Eigenschaften über die für Infoboxen benötigte Menge hinaus zu erweitern und Nutzungsmöglichkeiten dieser Daten innerhalb und außerhalb der Wikimedia-Projekte zu bieten.

Die folgenden Abschnitte behandeln die einzelnen Phasen im Detail: Sie geben zunächst eine Übersicht über die jeweilige Phase, sie beschreiben die technischen Anforderungen und die Gründe, sie in dieser Phase zu implementieren, sie benennen die wesentliche Herausforderung der jeweiligen Phase in den drei Bereichen Technik, Organisation und Gemeinschaft, sie definieren den Übergabe-Meilenstein für jede Phase, sie listen explizit auf, was nicht und weshalb nicht durch das Projekt umgesetzt wird und sie listen optionale Anforderungen auf, die hinzugefügt werden können, sofern dies bei der Projektentscheidung gewünscht wird.

Die drei Phasen bedeuten nicht, dass es nur drei Inbetriebnahmen von Code oder Versions-Updates geben wird. Wir werden vielmehr dem Credo „Gibt frühzeitig frei – gib häufig frei“ folgen, was es uns erlaubt, auf Nutzer-Rückmeldungen rasch zu reagieren und das System kontinuierlich zu verbessern.

Phase 1: Interwiki-Links[edit]

Bereits in Phase 1 wird Wikidata unter seiner endgültigen Adresse gestartet werden. Das Wiki wird für jedes Objekt, das durch einen Artikel in einer der Wikipedia-Sprachversionen beschrieben ist, eine eigene Seite enthalten. Auf dieser Seite werden die folgenden Angaben enthalten sein:

  • Links zu den Artikeln in den verschiedenen Wikipedia-Sprachversionen, die das Objekt dieser Seite beschreiben. Jede Wikipedia kann nur einen solchen Artikel enthalten.
  • Bezeichnungen und kurze Beschreibungen für jede derartige Einheit. Es gibt eine Bezeichnung und eine kurze Beschreibung für jede unterstützte Sprache.
  • Alternativnamen oder Aliase für jedes Objekt. Es kann mehrere Aliasnamen für jedes Objekt in jeder unterstützten Sprache geben.

Die Daten werden in verschiedenen Formaten, insbesondere RDF, SKOS und JSON exportiert. Wikidata wird auch über eine API zur Bearbeitung der Inhalte verfügen. Der Wiki-Quelltext wird nicht als Text bearbeitet, sondern nur durch spezielle API-Aufrufe wie „Füge Quelle hinzu“ oder „entferne Bezeichnung“ erfolgen. Wikidata stellt eine oder mehrere Benutzerschnittstellen zur Wikidata-API zur Verfügung. Weil Wikidata keine vollständigen Wikipedia-Artikel, sondern lediglich die Daten anbietet, benötigen wir die vollen Möglichkeiten des Wiki-Texts hierbei nicht. Das Format für Daten-Seiten wird mit einer vernünftigeren Syntax neu definiert, wobei JSON als der vielversprechendste Kandidat hierfür gilt. Darüber hinaus werden die Informationen mit Hilfe eines für strukturierte Daten geeigneten Speicher-Backends direkt gespeichert. Auf lange Sicht werden wir untersuchen, ob textbasierte Speicher vollständig ersetzt werden können.

Das Projekt wird eine MediaWiki-Erweiterung implementieren, die in den Wikipedien verwendet wird und die es diesen erlaubt, Interwiki-Links aus Wikidata abzufragen, anstatt lokal definierte Interwiki-Links zu verwenden. Dies erfordert ein Backend, das mit den Anforderungen der Wikipedia mitwachsen kann, und es bedarf der genauen Prüfung, wie Caching gehandhabt wird, d. h. innerhalb der einzelnen Wikipedia oder auf Wikidata oder auf beiden.

Technische Anforderungen und Voraussetzungen[edit]

Die folgenden Anforderungen müssen in dieser Phase realisiert werden:

  • P1.1. MediaWiki für verschiedene andere Inhaltstypen, insbesondere JSON, als die MediaWiki-Wiki-Syntax erweitern, um Daten für den internen Gebrauch zu serialisieren. Dies ermöglicht, die MediaWiki-basierten Werkzeuge in der technischen Umgebung der Wikimedia Foundation weiterhin zu nutzen, insbesondere zur Datensicherung, Wiederherstellung und Wartung der Dienste. Diese Forderung beinhaltet auch das Parsen von JSON-Inhalten und deren Speicherung auf dem durch P1.2 zur Verfügung gestellten Backend.
  • P1.2. Ein Backend zum Speichern der Daten implementieren. Das SMW-basierte Standard-Backend kann zwar für das Prototyping verwendet werden, aber eine weitere Entwicklung wird für die in Phase 1 gesammelte Art von Daten neue Implementierungen erfordern.
  • P1.3. Die Wikidata-API für die Bearbeitung und den Zugriff auf die Daten festlegen und implementieren. Die API muss ausreichend dokumentiert werden, so dass Dritte Anwendungen auf ihr aufsetzen können. Beachte, dass letzteres nicht für die Phase 1 erwartet wird. Shortipedia bietet ein praktikables Beispiel dafür, wie die Wikidata-API aussehen könnte.
  • P1.4. Benutzerschnittstellen auf der Wikidata-API implementieren und testen. Alle Benutzeroberflächen sind vollständig internationalisiert und teilweise auch lokalisiert. Für die Lokalisierung wird dies durch Zusammenarbeit mit dem TranslateWiki erreicht. Das UI muss mit allen Browsern, auf denen Wikipedia läuft, funktionieren. Das UI muss barrierefrei sein. Die Benutzeroberflächen sollten die Notwendigkeit Objekte umzubenennen, zusammenzuführen und zu teilen berücksichtigen. Die Wikidata-Webseite sollte die folgenden Benutzeroberflächen bieten:
    • Ein einfaches HTML-Frontend, das zur Ausführung kein JavaScript benötigt.
    • Einen Rich-Client basierend auf HTML5 und JavaScript für moderne Browser.
  • P1.5. Einen Diff-Algorithmus und einen Renderer implementieren, der für die Verwendung für Wikidata optimiert ist. Obwohl ein Diff, das einfach auf der Serialisierung jeder Entität im gewählten JSON-Format ansetzt, nicht falsch wäre, können wir die Bedeutung des Daten-Formats nutzen und so wesentlich intelligentere Diffs liefern.
  • P1.6. Eine API und ein wiederverwendbares Widget implementieren, mit dem ein Objekt aus der Datenbank ausgewählt wird. Das Widget sollte, wo es sinnvoll ist, eine automatische Vervollständigung anbieten und auch nahtlos auf mobilen Geräten laufen. Vergleichbare Widgets sind mit Freebase-Suggest, dem Entity-Selector in der Shortipedia, zu sehen.
  • P1.7. Eine MediaWiki-Erweiterung implementieren, die die relevanten Interwiki-Links aus Wikidata abfragt und sie auf der Artikelseite darstellt. Damit die derzeitige Verwendung der Interwiki-Links nicht gestört wird und um auf Besonderheiten und Spezialfälle eingehen zu können, wird mithilfe eines besonderen Schlüsselworts entschieden, ob ein bestimmter Artikel die aktuellen, lokal definierten oder die neuen, global definierten Interwiki-Links verwendet. Die Darstellung enthält außerdem einen Bearbeiten-Link, der die Bearbeitung der Interwiki-Daten direkt auf Wikidata ermöglicht.
  • P1.8. Einen passenden Caching-Mechanismus und eine Datenfluss-Infrastruktur implementieren, einrichten und testen, welche mit der Anzahl der Wikipedia-Zugriffe skaliert, ohne dabei die Aktualität der Interwiki-Links aufzugeben.

Meilenstein[edit]

Die Infrastruktur für die Ablösung der lokalen Interwiki-Links durch die globalen Links ist eingerichtet und mehrere Wikipedia-Ausgaben verwenden die Erweiterung, die es ihren Bearbeitern ermöglicht, die lokalen Interwiki-Links mittels eines bestimmtes Schlüsselworts durch das Wikidata-basierten System zu ersetzen. Wikidata wird auf seiner endgültigen URL gestartet. Dies wird den Wartungsaufwand für Interwiki-Links in Wikipedia erheblich reduzieren und eine Wikimedia-basierte Einheiten-Datenbank bereitstellen. Beachte, dass der Meilenstein weitere Phasen nicht blockiert, also dass noch vor dem offiziellen Start von Wikidata mit der Phase 2 begonnen werden kann.

Abgrenzung[edit]

Beim Start von Phase 1 strebt das Projekt noch keine riesige Anzahl von Mitarbeitern an. Wir erwarten eher eine kleine, aber mitteilsame Gruppe. Daher ist es zu diesem Zeitpunkt noch nicht sinnvoll, eine breite Aufmerksamkeit in der Wikipedia-Community anzustreben.

Das Projekt wird weder automatisch die Artikel zuordnen, noch wird es die Artikel automatisch aus den Wikipedias aufsammeln. Dies ist Aufgabe der Community. Die Community ist bereits sehr aktiv bei der Benutzung von Bots, die Interwiki-Links zuordnen, und wir werden ihnen Hilfe anbieten, damit ihre Bot-Frameworks auch nahtlos mit Wikidata funktionieren. Das Ziel des Projektes ist nicht, die Inhalte zu liefern, sondern lediglich, die technische Infrastruktur bereitzustellen, so dass die Community die gewünschten Inhalte erstellen kann.

Optionale Erweiterungen der Phase 1[edit]

  • O1.1. Dritte entwickeln mithilfe der Dokumentation der Wikidata-API eine Benutzeroberfläche. Die Benutzeroberfläche belegt, dass die Dokumentation ausreichend ist, und dass eine Vielzahl von Schnittstellen auf Wikidata aufgesetzt werden können.
  • O1.2. Ein externes Interwiki-Linker-Werkzeug einrichten, womit Bearbeiter die Zuordnungen leicht vornehmen können. Das System sammelt die Interwiki-Links aus den Wikipedias, überprüft deren Zuordnungen und bietet eine Schnittstelle an, um die Interwiki-Links aus den einzelnen Artikeln zu entfernen, durch das besondere Schlüsselwort zu ersetzen und die Links zu Wikidata einzufügen. Auch wenn die Änderung automatisiert durchgeführt wird, muss doch jede einzelne Bearbeitung von einem menschlichen Bearbeiter angestoßen werden.
  • O1.3. Das Systems erweitern, um externe IDs zu anderen Datensammlungen, wie Linked Open Data Cloud, URIs, ISBNs, IMDB-Kennungen, Eurostat-Kennungen, UN-Standards, PID, usw. zu speichern. Dadurch wird voraussichtlich die Unterstützung von Dritt-Datenanbietern deutlich zunehmen.
  • O1.4. [Abhängig von O1.3] Ein externes Werkzeug zum Auffinden von Zuordnungen bereitstellen, die dann mittels O1.3 automatisch gespeichert werden können. Die tatsächliche Zuordnung muss durch einen menschlichen Bearbeiter bestätigt werden.

Phase 2: Infoboxen[edit]

In Phase 2 können Entitäten in Wikidata mit Fakten, d. h. mit Eigenschaft-Wert-Paaren einschließlich ihrer Quellen und weiteren Auszeichnungen angereichert werden. Fakten können entweder typisierte Verknüpfungen zwischen Entitäten oder Eigenschaft-Wert-Paare mit typisierten Werten sein. Durch die im Entitäten-Speicher abgelegten Bezeichnungen kann die Verknüpfung zwischen den Entitäten mehrsprachig unterstützt werden. Damit erhöht sich auch der Anreiz, Entitäten zu benennen und zu erzeugen, die keinen direkten Bezug zu einem Wikipedia-Artikel haben (wodurch die aktuellen Relevanzkriterien umgangen und neue gebraucht werden).

Beispielsweise der Artikel über ein Unternehmen kann nun beliebige Informationen zu dem Unternehmen enthalten, wodurch neue benutzerdefinierte Eigenschaften eingeführt werden. Jeder Fakt kann durch eine Quelle belegt werden, was die Wahrscheinlichkeit von Diskussionen verringert, die in einer mehrsprachigen Umgebung problematisch sein dürften. Die Daten können vollständig in verschiedene Formate exportiert werden, insbesondere RDF und JSON. Wikidata wird auch eine API bereitstellen, um den erweiterten Inhalt zu bearbeiten. Das Projekt wird eine MediaWiki-Erweiterung zur Verwendung in den Wikipedias implementieren, mit denen Bearbeiter Infobox-Vorlagen mit Daten aus Wikidata anreichern können. Die Caching-Probleme sind die gleichen wie für die Phase 1, so dass wir uns in dieser Phase voll und ganz auf die wichtigste neue technischen Herausforderung konzentrieren können: Die Anreicherungs-Syntax, die mit der Vielfalt und Mächtigkeit von Wikidata umgehen kann.

Technische Anforderungen und Gründe[edit]

Die folgenden Anforderungen müssen in Phase 2 entwickelt werden:

  • P2.1. Das Semantic-MediaWiki-Typensystem an Wikidata anpassen. Dies beinhaltet die Möglichkeit, für Werte mit Einheiten lineare Transformationen (einschließlich der Präzision, damit die Transformation nicht übermäßig ausfällt) durchzuführen und die Internationalisierung für die Werte zu unterstützen. Einige Datentypen, die zwar grundlegenden sind, aber nicht in eine lineare Transformation passen (wie Zeit, Raum, Temperatur und Geld) müssen entsprechend umgesetzt werden.
  • P2.2. Ein System entwickeln und umsetzen, mit dem die Quellen der Fakten sowie weitere Auszeichnungen hinzugefügt werden können. Quellen gehen dabei über eine bloße URL (wie in Shortipedia) hinaus, und erlauben auch die Angabe von Offline-Quellen, strukturelle Beschreibung der Quellen (innerhalb von Wikidata selbst), und gegebenenfalls auch der eigentlichen Text-Schnipsel zur Unterstützung einer Quelle.
  • P2.3. Auswählen und Einrichten eines Back-End-Speichers für die Daten aus den Infoboxen. Dabei sollte P3.2 beachtet, aber nicht als Voraussetzung gesehen werden. Es ist denkbar, dass als Ergebnis des Leistungsvergleichs zwei unterschiedliche Systeme für dokument-ähnlichen Zugriff in Phase 2 und graph-basierte Abfragen in Phase 3 entstehen.
  • P2.4. Die Wikidata-API zur Bearbeitung von benutzerdefinierten Eigenschaften, insbesondere Quellen, erweitern. Diese sollten ausreichend beschrieben werden, damit externe Dritte Benutzeroberflächen, wie die in den optionalen Anforderungen beschriebenen spielerischen Schnittstellen, auf Wikidata entwickeln können.
  • P2.5. User Interfaces zur Bearbeitung und Anzeige von Wikidata entwickeln und umsetzen. Die erforderlichen Benutzerschnittstellen setzen die in P1.4 entwickelten Schnittstellen fort und sie werden das in P1.6 entwickelte Widget verwenden.
  • P2.6. Den Export der Daten in den entsprechenden Formaten, insbesondere JSON und RDF, implementieren. Außerdem sicherstellen, dass es neben dem XML-Dump des Wikis frühzeitig Dumps der gesamten Daten in RDF und JSON gibt. Einige der Datentypen – wie Werte mit Einheiten, Zeit, usw. – werden eine weitere Spezifikation erfordern.
  • P2.7. Eine MediaWiki-Erweiterung entwickeln und umsetzen, mit der Daten aus Wikidata innerhalb eines MediaWikis, insbesondere innerhalb der Infobox-Vorlagen in der Wikipedia, verwendet werden können. Dabei muss die Möglichkeit betrachtet werden, Wikidata-Werte in einem bestimmten Wikipedia-Eintrag zu überschreiben, nach Quellen zu priorisieren und zu filtern. Die Erweiterung ermöglicht auch die Erzeugung von Stub-InfoBoxen für Entitäten, die in einer bestimmten Sprache keinen eigenen Artikel haben. Dabei müssen auch Fragen zur Sperrung und aus den Wikipedias abgeleiteter Sperrung [Propagation] beachtet werden (siehe auch O2.5).

Meilenstein[edit]

Wikipedia ermöglicht es ihren Bearbeitern, die Infoboxen mit Daten aus Wikidata anzureichern. Dadurch wird die Konsistenz in den Wikipedias steigern, und Stubs werden angeboten, die vor allem für kleinere Sprachversionen nützlich sind. Der Wartungsaufwand in der Wikipedia wird deutlich sinken. Daten aus Wikidata können in kleineren Sprachen für viele Entitäten angezeigt werden, selbst wenn es dort keinen eigenen Artikel gibt.

Abgrenzung[edit]

Das Projekt wird die Daten nicht automatisch mit Wissen, das aus anderen Quellen extrahiert oder zur Verfügung gestellt wird, ergänzen. Es liegt an der Community, zu entscheiden, welche Quellen ausgewählt und wie die Daten importiert werden.

Wir werden kein System schaffen, das automatisch verknüpfte, offene Daten entdeckt, integriert und aus dem Web hochlädt, wie z. B. Shortipedia das tut. Wir werden keine automatischen Zuordnungen zu externen Vokabularien und Ontologien bereitstellen und werden auch keine internen Deduktionsautomaten verwenden. Wir werden auch keine Schnittstellen für Massen-Uploads aus verschiedenen Datenquellen bereitstellen. Die API-basierte Architektur von Wikidata wird die einfache Erstellung solcher Schnittstellen ermöglichen und wir erwarten, dass solche Schnittstellen geschaffen werden aber es ist nicht Aufgabe dieses Projektes, eine Vorauswahl bestimmter Datenquellen zu treffen, da dies zwangsläufig passieren würde, sobald wir einen Import für irgendein Datenformat implementieren würden.

Das Projekt wird die verfügbaren Eigenschaften nicht festlegen und der Community auch die Prozesse nicht vorgeben, mit denen über die zu verwendenden Eigenschaften entschieden wird. Das Projekt wird selbst nichts unternehmen, Zuordnungen zum Daten-Web zu liefern. Aber es wird eine Infrastruktur für andere bereitstellen, um dies zu bauen.

Optionale Erweiterungen der Phase 2[edit]

  • O2.1. Eine Infrastruktur bereitstellen, mit der automatische Vorschläge für die Fakten und Quellen gesammelt werden. Die Vorschläge können von Bots, Lernsystemen, Wissens-Extraktions-Werkzeugen usw. angeboten werden. Da diese Vorschläge nicht von menschlichen Bearbeitern bestätigt wurden, sollten sie von bereits geprüften Fakten getrennt werden. Eine einfache Benutzeroberfläche anbieten, mit der menschliche Bearbeiter die extrahierten Fakten bestätigen oder verwerfen können.
  • O2.2. [Abhängig von O2.1] Spielerische Oberflächen und Anreizsysteme zur Überprüfung von Daten und Quellen erstellen, die spontane enzyklopädische Arbeiten ermöglichen.
  • O2.3. [Abhängig von O2.1] Ein automatisches Wissens-Extraktions-System hinzufügen, das seine Daten direkt in O2.1 lädt. Dies könnte als Wettstreit organisiert werden.
  • O2.4. Das in P1.6 entwickelte Widget zur automatischen Vervollständigung mit zusätzlichen Informationen über die hinzugefügte Eigenschaft und Entität erweitern, z. B. deren Domäne und Wertebereich, die ursprünglich kommentierte Entität usw.
  • O2.5. Einen detaillierteren Ansatz zum Schutz einzelner Fakten anstelle der gesamten Entität ergänzen.
  • O2.6. Informationen zur Vertrauenswürdigkeit und Quellen zu den Fakten von Wikidata exportieren. Da die entsprechenden Normen noch nicht definiert sind, sollte dies durch eine sorgfältige Beobachtung der W3C-Provenance-Arbeitsgruppe erfolgen.
  • O2.7. Einen Export-Mechanismus entwickeln, der die On-the-fly-Transformation in ein bestimmtes RDF-Vokabular oder in eine bestimmte JSON-Projektion liefert.
  • O2.8. Eine für mobile Geräte optimierte Benutzeroberfläche. Mobile Geräte stellen besondere Anforderungen. Während die Bedienoberfläche in O1.1 extern bereitgestellt wird, wird sie für mobile Geräte Bestandteilteil von Wikidata sein.
  • O2.9. Eine reichhaltige und ansprechende Benutzeroberfläche für ein bestimmtes Thema, z. B. über die Olympischen Spiele 2012 in London, entwickeln.

Phase 3: Listen[edit]

Die Vision einer semantischen Wikipedia, wie sie ursprünglich vorgeschlagen wurde, ist bereits mit der Phase 2 erfüllt. Phase 3 ermöglicht es, komplexere Abfragen zu stellen, die aggregierte Ansichten auf die Daten liefern, so dass sich der Wartungsaufwand für Wikipedia weiter drastisch reduziert. Phase 3 ermöglicht auch den ordentlichen Abschluss des Projektes, um eine gute Wartbarkeit sowohl der Software als auch der Daten und der damit verbundenen Prozesse zu gewährleisten. Phase 3 wird die beliebige Erzeugung von Eigenschaften und ihre Auswirkungen auf die Leistung des Systems sowie die Nutzung der neuen Datenabfragemöglichkeiten genau beobachten. Dies beinhaltet eine skalierbare Methode für Inline-Abfragen, einer der attraktivsten und nützlichsten Funktionen des semantischen MediaWiki.

Technische Anforderungen und Gründe[edit]

Phase 3 wird das Erstellen von Listen und aggregierten Ansichten aus Wikidata ermöglichen.

  • P3.1. Entwicklung und Umsetzung eine Erweiterung, die Daten aus Wikidata abfragt und die Ergebnisse innerhalb eines bestimmten Wiki darstellt. Diese erweitert die aktuellen SMW-Abfragen auf zwei Arten: Erstens ermöglicht sie eine weitere Wissensbasis abzufragen und zweitens, behandelt sie die Vielfalt innerhalb von Wikidata, d.h. die Möglichkeit, mehrere qualifizierte Werte für eine Eigenschaft-Wert-Paar zu haben. Beide Themen wurden bereits im Rahmen des Projekts (insbesondere in P1.8 und P2.7) in Angriff genommen. Beachte, dass die Ausdrucksstärke der Abfragesprache sehr gering sein kann.
  • P3.2. Ein Back-End auswählen und einrichten, das die in P3.1 entwickelten Abfragen effizient ausführen kann. Die Ausführungsgeschwindigkeit der Abfragen genau beobachten und ihre Ausdrucksstärke verbessern. Diese Aufgabe wird durch die Evaluierung möglicher verwendbarer Implementierungen bereits während der anderen Phasen beginnen. Es könnte sein, dass in Wikidata mehrere Backends gleichzeitig für verschiedenen Zwecke, besonders für Infobox-Anreicherung und Listenerstellung verwendet werden.
  • P3.3. Enge Zusammenarbeit mit der Community eine Anzahl relevanter Formatierungshilfen für die Abfrage-Ergebnisse bereitstellen. Soweit machbar dabei auf Ergebnisse von Semantic Result Formats und Spark zurückgreifen. Andernfalls müssen auf Basis von Rückmeldungen aus der Community neue Formatierungshilfen entwickelt werden. Die Formatierungshilfen werden auf einer gut dokumentierten API aufgesetzt werden, so dass Dritte weitere Formatierungshilfen wie Listen, Diagramme, Karten usw. hinzufügen können.
  • P3.4. Die aktuellen Werkzeuge zur Verwaltung und Pflege erweitern und so anpassen, dass sie für Wikidata funktionieren. Dazu gehört auch die Aufdeckung von nicht typisierten Eigenschaften, ungültigen Werten, doppelten Eigenschaften und unbelegten Aussagen.
  • P3.5. Den Code bereinigen, so dass er außerhalb von Wikidata verwendet werden kann. Änderungen wieder in das Semantic MediaWiki zurückführen, so dass eine gemeinsame Code-Basis erhalten bleibt. Die für Wikidata neu entwickelten Erweiterungen veröffentlichen.

Meilenstein[edit]

Wikipedia ermöglicht es den Bearbeitern, Listen aus Wikidata zu integrieren. Die Wartung von Wikidata wird an die Wikimedia Foundation übertragen.

Abgrenzung[edit]

Das Projekt wird keine Forschung und Entwicklung zur Bereitstellung von komplexen [Trust-] Berechnungen durchführen. Da alle Daten exportierbar sind, können Dritte diese Mechanismen entwickeln, und wenn sie im Maßstab umsetzbar sind, können sie in Zukunft für Wikidata in Betracht gezogen werden; aber das Projekt selbst wird sie nicht anbieten.

Optionale Erweiterungen der Phase 3[edit]

  • O3.1. Einen SPARQL-Zugang zu den Daten entwickeln und ausarbeiten. Auch wenn ein vollwertiger SPARQL-Zugang zu den Daten wahrscheinlich unmöglich sein wird, können wir doch einen eingeschränkten SPARQL-Zugang anbieten, der abhängig von den Darstellungsmöglichkeiten des Back-Ends bestimmte Muster von Abfragen erlaubt.
  • O3.2. Einen intuitiven und reichhaltigen Abfrage-Editor für die Daten entwickeln. Ein einfacher textbasierter Abfrage-Editor ist automatisch verfügbar, aber eine mächtigerer Editor, der eine intelligente automatische Vervollständigung unterstützt und wahrscheinlich dem Benutzer erlaubt, Daten visuell abzufragen, würde das Wissen einem breiteren Nutzerkreis zugänglich machen.
  • O3.3. [Abhängig von O3.2] Ein Werkzeug zum einfachen Kopieren von Abfragen aus dem Abfrage-Editor in die Wikipedias entwickeln, mit welchem die Artikel leicht angereichert werden können.
  • O3.4. Eine mobile Anwendung zur Abfrage und eventuell zum Bearbeiten der Daten in Wikidata entwickeln.
  • O3.5. Eine schlüsselwortbasierte, intelligente Suche implementieren, in der die Schlüsselwort-Abfrage als strukturierte Abfrage der Daten interpretiert und das Abfrageergebnis dargestellt wird.
  • O3.6. Anhand der Abfrage und des Abfrage-Ergebnisses automatisch eine geeignete Darstellung auswählen.

Ressourcen[edit]

Siehe auch[edit]

Weblinks[edit]