Initiative für eine gesunde Gemeinschaft

From Meta, a Wikimedia project coordination wiki
Jump to navigation Jump to search
This page is a translated version of the page Community health initiative and the translation is 84% complete.

Outdated translations are marked like this.
Other languages:
Deutsch • ‎English • ‎Tiếng Việt • ‎Türkçe • ‎dansk • ‎español • ‎italiano • ‎polski • ‎português • ‎português do Brasil • ‎русский • ‎العربية • ‎فارسی • ‎हिन्दी • ‎বাংলা • ‎ไทย • ‎中文 • ‎日本語
Light-Bulb icon by Till Teenck green.svg

Initiative für eine gesunde Gemeinschaft
Der Wikimedia-Freiwilligengemeinschaft dabei helfen, den Grad an Belästigungen und Störverhalten in unseren Projekten zu verringern.

In der Wikimedia-Stiftung arbeiten die Teams für Anhörungen und Gemeinschaftsbetreuung an einem mehrjährigen Projekt aus Forschung, Produkt- und Regelentwicklung. Es soll der Freiwilligengemeinschaft dabei helfen, den Grad an Belästigungen und Störverhalten in unseren Projekten zu verringern.

Diese Initiative kümmert sich um die wichtigsten Belästigungsarten, die bei der 2015er Umfrage der Stiftung berichtet wurden. Dazu gehört ein breites Spektrum von Verhaltensweisen: Inhalte vandalieren, Stalken, Beleidigen, Trollen, Doxxen, Diskriminieren, alles was Einzelne unfair und schädigend bloßstellt.

Im Ergebnis werden sowohl die Werkzeuge der Mediawiki-Software (vgl. Anti-Harassment Tools) und die Regeln für Gruppen, die am meisten unter Störverhalten leiden (vgl. Policy Growth & Enforcement), verbessert. An diesen Verbesserungen müssen die Freiwilligen beteiligt werden, die die Werkzeuge einsetzen sollen, damit unsere Anstrengung Erfolg haben kann (vgl. Community input).

Laufende und kürzlich abgeschlossene Projekte

Current

Gegenwärtig baut das Team neue Sperrwerkzeuge. Wir möchten genauere und verfeinerte Tools bereitstellen, damit Administratoren passender auf Hounder reagieren können. Dieses Projekt umfasst Sperren für bestimmte Benutzerseiten, Namensräume, und Uploads.

Future

Wir haben auch mit der Entwicklung von verbesserten Werkzeugen und Abläufen für Belästigungsmeldungen begonnen. Das wird 2018 und 2019 ein Hauptarbeitsfeld sein.

Past

Hintergrund

Community Health Initiative Wikimania Poster.jpg

Belästigung auf Wikimedia-Projekten

In der Wikipedia und anderen Wikimedia-Projekten gibt es Belästigung vor allem auf (Artikel- Projekt- und Benutzer-)Diskussionsseiten, auf Ankündigungsseiten, Benutzerseiten, und in der Bearbeitungszusammenfassung. Auch Editwar und Wiki-Hounding kann belästigen. Streit über Verhalten entsteht meist aus Streit über Inhalte, etwa wenn man sich über die Verlässlichkeit einer Quelle, die Neutralität eines Standpunktes, Formatierungs- und Inhaltshirarchie uneinig ist. Diese Konflikte können zur Belästigung ausarten, wenn ein Autor die Auseinandersetzung über Ideen verlässt und den Gegner mit der Idee verbindet - ihn als Feind ansieht, den man vertreiben muss. Der ungesunde Verlauf ist wahrscheinlicher, wenn die Inhalte Identitätsbezug haben - Gender, Rasse, sexuelle Orientierung, Nationalität - denn das macht es dem Belästiger einfacher, sein Ziel als lebende Verkörperung der gegnerischen Idee zu sehen. Das trifft vor allem dann zu, wenn das Ziel Mitglied einer historisch benachteiligten Gruppe ist, und das während seiner Projektzeit offengelegt hat.

Die englischsprachigen Wikipedianer (und die meisten anderen Projekte) haben Verhaltensregeln für ihre Gemeinschaften entworfen. Darunter Regeln über Höflichkeit, Belästigung, persönliche Angriffe, und Streitschlichtung. Das ist der richtige Geist, aber ihn durchzusetzen fällt schwer, wegen Lücken in der Mediawiki-Software, und weil es viel mehr Mitarbeiter als aktive Administratoren gibt.[1] Die Streitschlichtungsprozesse fordern, dass die Benutzer ihre Probleme erst untereinander zu lösen versuchen, bevor sie die Administratoren auf deren Meldeseiten anrufen oder sogar das Schiedsgericht einschalten.[2]

Umfrage zu Belästigungen 2015 - Ergebnisbericht

Online-Belästigung ist ein Problem überall im Web, wo Benutzer interagieren. Das Pew Research Center kam 2017 zu dem Schluss, dass 41% aller Internetnutzer Opfer von Online-Belästigungen wurden.[3] 2015 befragte die Wikimedia Foundation 3.845 Wikimedia-Benutzer, um Belästigung in Wikimedia-Projekten besser zu verstehen. 38% der Antwortenden waren sich sicher, belästigt worden zu sein, während 51% die Belästigung anderer Personen gesehen hatten. 2016-17 benutzten Jigsaw und Wikimedia-Forscher im Detox-Projekt maschinelles Lernen, um Belästigungen in der Wikipedia zu bewerten. Nur 18% aller identifizierten Angriffe auf der englischsprachigen Wikipedia führten zu einer Warnung oder Benutzersperre, 67% der Angriffe kamen von angemeldeten Benutzern, und fast 50% aller Angriffe kamen von Benutzern mit mehr als 100 Edits pro Jahr.[4]

In Wikimedias 2017er Bericht über Erfahrungen in der Gemeinschaftsbetreuung sagen 31% der 4.500 Anwortenden, dass sie sich während ihrer ganzen Mitarbeit, und überall in den Wikimedia-Online- und -Offlinebereichen unsicher fühlten. 49% von 400 Benutzern vermieden Wikipedia, weil sie sie unangenehm fanden, und 47% von 370 Benutzern gaben an, während der vergangenen 12 Monate in der Wikipedia schikaniert oder belästigt worden zu sein. 60% der Leute, die einen Streitfall an Funktionäre gemeldet hatten, berichteten ferner, ihr Fall sei "überhaupt nicht gelöst" worden, und 54% bezeichneten ihre Interaktion mit den Funktionären "überhaupt nicht nützlich". Der 2018er Erfahrungsbericht beschreibt gleichartige Ergebnisse, mit leichter Abnahme der Befragten, die sich unsicher fühlten.

Diese erhellenden Untersuchungen sind Antrieb für unsere Initiative für eine gesunde Gemeinschaft, allerdings nur ein Anfang. Um erfolgreich zu sein, braucht diese Unternehmung mehr Forschung.

Wünsche für neue Werkzeuge aus der Gemeinschaft

Die Wikimedia-Gemeinschaft kämpft schon lange darum, ihre Mitglieder vor böswilligen oder schädlichen Benutzern zu schützen. Die Werkzeuge, mit denen Projektadministratoren störende Benutzer von ihren Projekten ausschliessen können, haben sich seit den ersten Tagen der Mediawiki-Software nicht geändert. Freiwillige haben der Stiftung Verbesserungen bei verschiedenen Gelegenheiten vorgeschlagen, etwa:

Bei der Vorbereitung dieser Initiative haben wir mit Administratoren und Funktionären über Probleme der bestehenden Werkzeuge und Abläufe gesprochen. Aus diesen Gesprächen stammen Verbesserungen in mehreren Schlüsselbereichen, wo Admins und Funktionäre sofortigen Bedarf sehen - bessere Meldesysteme für die Freiwilligen, klügere Wege zum frühzeitigen Erkennen und Bearbeiten von Problemen, und verbesserte Tools und Methoden bei den Sperrvorgängen. Wir werden diese Gespräche während des gesamten Ablaufs fortsetzen. Input und Teilnahme der Gemeinschaft werden für den Erfolg entscheidend sein.

Externe Finanzierung

Förderantrag 2017 für Werkzeuge für Wikimedia-Projekte gegen Belästigung

Im Januar 2017 erhielt die Wikimedia Foundation US$500.000 Erstfinanzierung von der Craig Newmark Foundation und dem craigslist Charitable Fund zugunsten dieser Initiative.[5] Beide Anschubförderungen über je US$250,000 werden bei der Entwicklung von Werkzeugen für freiwillige Autoren und Angestellte helfen, um Belästigungen in der Wikipedia zu vermindern und Belästiger auszusperren. Der Förderantrag kann auf Wikimedia Commons eingesehen werden.

Ziele

  • Das Ausmaß belästigenden Verhaltens auf Wikimedia-Projekten verringern.
  • Einen größeren Anteil von Belästigungen, die sich auf Wikimedia-Projekten ereignen, fair auflösen.

Mögliche Erfolgskennzahlen

Belästigung zu messen ist schwierig, aber wir wollen doch sicher sein, dass unsere Arbeit für die Gemeinschaft wirkt. Laufende Ideen sind:

  • Geringerer Prozentsatz an erkennbar persönlichen Angriffen in der englischsprachigen Wikipedia, gemessen via Detox, Sherloq, oder einen ähnlichen System.
  • Geringerer Prozentsatz von nichtadministrativen Benutzern, die Belästigungen melden, per Umfrage ermittelt.
  • Höheres Vertrauen von Administratoren in ihre Fähigkeit, Streitfälle richtig zu entscheiden, per Umfrage ermittelt.
  • Längerer Verbleib von neuen Benutzern

Jährliche und vierteljährliche Ziele

Für Hinweise zu unseren vierteljährlichen Fortschritten vgl. Initiative für eine gesunde Gemeinschaft / vierteljährliche Updates.

Beteiligung der Gemeinschaft

Den Input der Gemeinschaft zu sammeln, aufzunehmen, und zu diskutieren ist für den Erfolg dieser Initiative wesentlich. Wir bauen Funktionen, die unsere Gemeinschaften benutzen sollen - wenn wir im luftleeren Raum entwickeln, werden unsere Entscheidungen unausweichlich fehlschlagen.

Die im Förderantrag, auf dieser Seite, und anderswo vorgestellen Pläne werden sich natürlich ändern, während wir Rückmeldungen aus der Gemeinschaft sammeln (von Belästigungsopfern, Autoren, und Administratoren), aus unseren Untersuchungen lernen, und die Software erproben, die wir schreiben. Die Community zu beteiligen umfasst, ist aber nicht beschränkt auf:

  • unsere Ziele zu vergesellschaften
  • Ideen mit den Interessengruppen der Gemeinschaft zu erzeugen, zu verfeinern, zu erproben und fertigzustellen
  • Gespräche über das Recht auf freie Rede vs. politische Korrektheit. Bei diesem Projekt soll unbedingt wahrgenommen werden, dass es sich um Mißbrauch kümmert, über den sich alle einig sind (offensichtlicher Sockenpuppenvandalismus, Todesdrohungen), und um Mißbrauchvarianten, die umstritten sind (Gender, Kultur usw.). Das Projekt scheitert, wenn es nur als "Gutmenschen"-Machtspiel gesehen wird.[6]

Im Verlauf dieser Initiative planen wir mit der Gemeinschaft über die üblichen Wikiwege zu kommunizieren (Diskussionsseiten, E-Mail, IRC); zusätzlich zu live-übertragenen Workshops, zu Workshops mit persönlicher Anwesenheit auf Hack-a-thons und Wikimanias, und zu Online-Konsultationen. Im Moment ist Talk:Community health initiative der beste Ort, um über die Initiative für eine gesunde Gemeinschaft zu diskutieren.

Werkzeuge gegen Belästigung

Kurz gesagt wollen wir Software schreiben, die Autoren und Administratoren zu zeitnahen, informierten Entscheidungen befähigt, wenn es zu Belästigung kommt. Vier Schwerpunkte wurden identifiziert, in denen neue Werkzeuge helfen würden, Belästigungen zu bearbeiten und zu beantworten.

Erkennen

Wir möchten es Autoren erleichtern, belästigendes Verhalten zu erkennen und zu markieren. Wir hinterfragen zur Zeit, wie man Belästigung schon vorbeugend verhindern kann, und wie man kleinere Ereignisse auflösen kann, bevor sie sich zu größeren Auseinandersetzungen auswachsen.

Potentielle Funktionen:

  • Mißbrauchsfilter: Leistungsmanagement, Zugänglichkeit, und Funktionsverbesserungen
  • Höhere Zuverlässigkeit und Genauigkeit für den ProcseeBot
  • Verbesserung der einschlägigen Anti-spoof-Werkzeuge
  • Funktionen, die Inhaltsvandalismus, Editwarring, Stalking, und belästigende Sprache für Administratoren und Angestellte hervortreten lassen

Melden

Detox-Untersuchungen zufolge werden Belästigungen in der englischen Wikipedia zu selten gemeldet.[4] Kein Belästigungsopfer sollte die Mitarbeit aufgeben, weil es machtlos den Missbrauch nicht melden kann. Wir möchten den Betroffenen verbesserte Meldewege zur Vefügung stellen, die ihre Privatphäre respektieren, und weniger chaotisch und anstrengend sind als der derzeitige Ablauf. Gegenwärtig liegt die Beweislast auf dem Opfer, es muss seine eigene Unschuld und die Schuld des Belästigers beweisen. Wir denken aber, dass stattdessen die MediaWiki-Software die schwere Arbeit tun sollte.

Potentielle Funktionen:

Bewerten

Admins müssen mit MediaWiki-Diffs, Versionsgeschichten, und Spezialseiten sehr gut vertraut sein, um die wahren Abläufe hinter einer Meldung analysieren und bewerten zu können. Von Freiwilligen geschriebene Tools wie der Editor Interaction Analyzer und [[1]] helfen, aber das gegenwärtige Verfahren braucht viel Zeit. Wir möchten Werkzeuge bauen, die den Freiwilligen beim Verständnis und der Bewertung von Belästigungsfällen helfen und die beste Antwort vorschlagen.

Potentielle Funktionen:

  • Ein robustes Tool zur zeitlichen Interaktion, das den Wiki-Administratoren erlaubt, die Interaktion zweier Benutzer über die Zeit zu verstehen, und in Belästigungsfeällen informiert zu entscheiden.
  • Ein privates System für Wiki-Administratoren, um Informationen zur Vorgeschichte der Benutzer zu sammeln einschliesslich Auflagen und Schiedsentscheidungen.
  • Ein Armaturenbrett für Wiki-Administratoren, in dem sie laufende Untersuchungen und Disziplinarmassnahmen verwalten können.
  • Wiki-übergreifende Tools, mit denen Wiki-Administroren Belästigungsfälle projekt- und sprachübegreifend verwalten können.

Sperren

Wir möchten neue Werkzeuge entwickeln und bestehende verbessern, um problematische Akteure falls erforderlich aus Gemeinschaften oder bestimmten Bereichen zu entfernen, und um ausgesperrten Personen die Rückkehr zu erschweren.

Einige dieser Verbesserungen sind bereits in der Entwicklung, als Teil der Community-Wunschliste 2016. Mehr Informationen dazu unter Community Tech/Blocking tools.

Mögliche Funktionen:

  • Benutzersperren nach Seite und Kategorie setzen Topic-bans um und helfen den Wiki-Administratoren, störende Benutzer umzuleiten, ohne sie komplett von der Mitarbeit auszuschliessen. Das gibt den Admins mehr Sicherheit für zielgerichtetes Handeln in frühen Problemphasen.
  • Tools, mit denen individuelle Benutzer steuern können, wer mit ihnen via Echobenachrichtigungen, E-Mail, und Benutzerseiten kommunizieren kann.
  • Die globalen CheckUser-Tools projektübegreifend arbeiten lassen. Tools verbessern, die Benutzernamen mit IP-Adressen und User agents verknüpfen, um ihre Beiträge zu allen Wikimedia-Projekten in einer einzigen Abfrage zu prüfen.
  • Verbesserte Sperrwerkzeuge, einschliesslich solche gegen Sockenpupppen.

Priorisierung der Arbeit

Gegenwärtig sind unsere Projekte im Anti-Harassment Phabricator workboard in der 'epischer-Rückstau'-Spalte priorisiert. Wir laden alle ein, ihre Ansichten zu unserer Einstufung in den Phabricator-Tickets, auf der umseitigen Diskussionsseite, oder per Mail an uns zu teilen.

Projekte werden vom Produktmanager priorisiert unter Berücksichtigung von:

  • Reife — Was ist schon entworfen, definiert, und bereit zur Entwicklung? Gibt es Hinderungen?
  • Wert — Was wird für unsere Benutzer den größten Wert haben? Was wird die größten Probleme zuerst lösen? Hat unsere Forschung spannende Möglichkeiten gefunden? Haben unsere vorherigen Funktionen neue Möglichkeiten oder Probleme verdeutlicht?
  • Machbarkeit — Was können wir in der vorgegebenen Zeit und mit der Entwicklerkapazität erreichen? Sind wir technisch vorbereitet? Haben wir externe Entwicklerunterstützung, die unsere Arbeit beschleunigen wird?
  • Unterstützung — Was hat die Unterstützung der Benutzer, die am gegenwärtigen Workflow teilnehmen? Welche Ideen haben den Rückenwind der Leute, die in der Wikipedia gegenwärtig Belästigungen ausgesetzt sind?

Regeln entwickeln und durchsetzen

Neben der Toolentwicklung möchten wir zusammen mit unseren größten Communities sicherstellen, dass deren Verhaltensregeln klar und wirksam sind, und die für die Durchsetzung verantwortlichen Administratoren gut vorbereitet.

Um mit der englischen Wikipedia anzufangen, einer großen Gemeinschaft mit reichem Datenbestand, werden wir den Autoren Forschung und Analyse bereitstellen: wie problematisches Verhalten in der englischen Wikipedia a) in den Regeln abgebildet ist, und b) von der Community behandelt wird, insbesondere auf den zuständigen Funktionsseiten. Wir werden alternative Methoden für speziellen Problemen untersuchen, ihre Wirksamkeit erforschen, und abweichende Herangehensweisen identifizieren, die in anderen Wikimedia-Projekten Erfolg hatten. Das wird unseren Gemeinschaften helfen, die bestehenden Verfahren informiert zu verändern.

Siehe auch

Fußnoten