Jump to content

Meldesystem für Zwischenfälle

From Meta, a Wikimedia project coordination wiki
This page is a translated version of the page Incident Reporting System and the translation is 90% complete.
Outdated translations are marked like this.
Meldesystem für Zwischenfälle

    um ein sichereres und gesünderes Umfeld für Communities zu schaffen, möchte die Wikimedia Foundation dafür sorgen, dass Menschen, die Belästigungen und andere Formen von Missbrauch erfahren, solche schädlichen Vorfälle besser melden können.

    Das neu gegründete Trust and Safety Product Team hat die Aufgabe, das Incident Reporting System (IRS) aufzubauen. Wir wollen es Nutzer*innen leicht machen, schädliche Vorfälle sicher und vertraulich zu melden.

    Hintergrund des Projekts

    Das Melden und Bearbeiten von schädlichen Vorfällen war bereits seit vielen Jahren Thema in den Communities der Wikimedia. Da wir nun einen Universal Code of Conduct beschlossen haben, ist es wichtig, auch über ein Meldesystem zu diskutieren.

    Der Umgang mit Vorfällen, Fehlverhalten und Richtlinienverstößen in den Wikimedia-Räumen und -Projekten hat sich organisch entwickelt und ist in den verschiedenen Communities uneinheitlich.

    Jedes Wikimediaprojekt und jede Community hat ihre eigene Art, Dinge zu verwalten. Die Meldung und Bearbeitung von Vorfällen erfolgt auf unterschiedliche Weise:

    • auf Wiki-Diskussionsseiten
    • auf Meldeseiten
    • per Email
    • durch private Diskussionen in externen Kommunikationskanälen (Discord, IRC)

    Vielen Nutzer*innen ist unklar, was zu tun ist, wenn ein Vorfall passiert: wohin sich wenden, mit wem sprechen, wie Meldung machen, welche Informationen in die Meldung aufnehmen, wie die Meldung bearbeitet wird, was danach passiert, usw.  

    Nutzer*innen müssen wissen, wie und wo sie ein Problem melden können. Es gibt auch nur wenige Informationen darüber, was passiert, wenn eine Meldung gemacht wird und was die Nutzer*innen erwarten können.

    Einige Nutzer*innen fühlen sich nicht sicher, wenn sie Vorfälle melden, weil das Meldeverfahren zu kompliziert ist und sie Bedenken wegen des Datenschutzes haben.

    Derzeit gibt es keine standardisierte Möglichkeit für Nutzer*innen, Vorfälle privat zu melden.

    Schwerpunkt des Projektes

    Das übergeordnete Ziel dieses Projekts ist es daher, das Ansprechen von belästigenden und schädigenden Vorfällen zu erleichtern und sicherzustellen, dass diese Meldungen die zuständige Stelle erreichen, die sie bearbeiten muss.

    Wir wollen die Privatsphäre und die Sicherheit der Meldenden gewährleisten. Außerdem wollen wir sicherstellen, dass die Meldungen die richtigen Informationen enthalten und an die zuständige Stelle weitergeleitet werden, die sie weiterverarbeiten muss, ohne dabei zusätzlichen Druck auf diejenigen auszuüben, die die Prozesse durchführen.

    Das Trust and Safety Product Team betrachtet dieses System zur Meldung von Vorfällen als Teil des größeren Ökosystems der Wikimedia-Gemeinschaft für das Vorfallsmanagement. Wir untersuchen, wie die einzelnen Systeme funktionieren und wie alles miteinander verbunden werden kann.

    Neuigkeiten

    Teste die minimale testbare Version des Meldesystems für Zwischenfälle auf Beta – 10. November 2023

    Benutzer:innen sind eingeladen, die minimale testbare Version des Meldesystems für Zwischenfälle zu testen. Das Team Trust & Safety Product hat eine Basisproduktversion entwickelt, mit der Benutzer:innen einen Zwischenfall direkt von der Diskussionsseite aus, auf der er sich abgespielt hat, melden können. Hinweis: Diese Produktversion dient dazu, das Melden an eine private E-Mail-Adresse (z. B. emergency(_AT_)wikimedia.org oder eine Admin-Gruppe) zu lernen. Dies deckt nicht alle Szenarien ab, wie die Meldung auf einer öffentlichen Anfrageseite. Wir brauchen euer Feedback, um festzustellen, ob dieser erste Ansatz effektiv ist.

    Zum Testen:

    1. Besuche eine beliebige Wikipedia-Diskussionsseite auf Beta, die Diskussionen enthält. Unter User talk:Testing und Talk:African Wild Dog stehen Beispiel-Diskussionsseiten zur Verfügung, die du nutzen kannst, wenn du dich anmeldest.

    2. Klicke anschließend auf die Schaltfläche (Auslassungspunkte) neben dem Link Antworten eines beliebigen Kommentars, um das Menü zu öffnen, und klicke dann auf Melden (siehe Folie 1). Du kannst auch den Link Melden im Menü Werkzeuge verwenden (siehe Folie 2).

    3. Fahre mit der Meldung fort, indem du das Formular ausfüllst und absendest. Eine E-Mail wird an das Team Trust & Safety Product gesendet, das als einziges deinen Bericht sehen kann. Bitte beachte, dass es sich hierbei um einen Test handelt, und nutze dieses Formular nicht zur Meldung realer Zwischenfälle.

    4. Denk beim Testen über die folgenden Fragen nach:

    • Was hältst du von diesem Meldeprozess? Überlege vor allem, was dir daran gefällt oder nicht gefällt.
    • Wenn du mit Erweiterungen vertraut bist, wie würdest du es finden, dieses Meldesystem als Erweiterung in deinem Wiki zu haben?
    • Welche Probleme haben wir in dieser ersten Meldephase übersehen?

    5. Hinterlasse im Anschluss an deinen Test bitte deine Rückmeldung auf der Diskussionsseite.

    Wenn du das Menü oder die Meldelinks nicht finden kannst oder das Formular nicht gesendet werden kann, stelle bitte sicher, dass:

    • du angemeldet bist
    • die E-Mail-Adresse deines Beta-Kontos bestätigt ist
    • dein Konto vor mehr als drei Stunden erstellt wurde und mindestens eine Bearbeitung vorgenommen hat
    • du die Diskussionswerkzeuge aktiviert hast, da das MTP in die Diskussionswerkzeuge integriert ist.

    Wenn die Diskussionswerkzeuge nicht geladen werden, kann ein Bericht über das Werkzeugmenü eingereicht werden. Wenn du keinen zweiten Bericht einreichen kannst, beachte bitte, dass für nicht bestätigte Benutzer:innen ein Limit von einer Meldung pro Tag und für automatisch bestätigte Benutzer:innen ein Limit von fünf Meldungen pro Tag besteht. Diese Anforderungen für den Test tragen dazu bei, die Möglichkeit zu verringern, dass böswillige Benutzer:innen das System missbrauchen. Mehr dazu findest du im Abschnitt Forschung auf der Seite.

    Ablauf

    Projekt-Phasen
    Es ist nicht leicht, herauszufinden, wie man die Meldung von Vorfällen im Wikimedia-Bereich handhabt. Es gibt eine Menge Risiken und viele Unbekannte.

    Da dies ein sehr komplexes Projekt ist, muss es in viele Iterationen und Phasen aufgeteilt werden. Für jede Phase werden wir mehrmals Diskussionen durchführen, um sicherzustellen, dass wir auf den richtigen Weg sind, und um das Feedback der Community frühzeitig einzuholen, bevor wir in die große Arbeit einsteigen.

    Phase 1

    Vorbereitende Untersuchungen: Feedback sammeln, bestehende Dokumentationen durchlesen.

    Interviews durchführen, um ein besseres Verständnis von dem Problemfeld zu erhalten und kritische Fragen herauszufinden, die beantwortet werden müssen.

    Den möglichen Projektumfang und die Projektausrichtung definieren und diskutieren, mögliche Pilot-Wikis herausfinden.

    Am, Ende dieser Phase sollten wir ein vertieftes Verständnis von dem haben, was wir unternehmen.

    Phase 2

    Prototypen entwickeln, um die Ideen aus Phase 1 darzustellen.

    Eine Liste von Optionen für eine vertiefende Beratung und Überarbeitung erstellen.

    Phase 3

    Die besten Ideen erkennen und priorisieren.

    Diese Ideen in die Softwareentwicklung geben und in Phabricator-Tickets aufteilen.

    Den Zyklus interativ fortführen.

    Untersuchungen

    July 2024: Incident Reporting System user testing summary

    In March 2024, the Trust & Safety Product team conducted user testing of the Minimum Viable Product (MVP) of the Incident Reporting System to learn if users know where to go to report an emergency incident, and if the user flow makes sense and feels intuitive.

    We learned the following:

    • During user testing, all participants found the entry point to report an incident and the current user flow is well understood.
    • There was some confusion over two of the reporting options: “someone might cause self-harm” and “public harm threatening message”.

    Two participants also made assumptions about the system being automated. One participant was concerned about automation and wanted a human response, whereas the other participant felt assured by the idea it would check if the abuser had any past history of threats and offences, and delete the offensive comment accordingly. All participants expected a timely response (an average of 2-3 days) after submitting a report. Read more.

    21. September 2023 Update: Gemeinsame Nutzung von Forschungsergebnissen zur Meldung von Zwischenfällen

    Bericht über die Forschungsergebnisse zur Meldung von Vorfällen 2023

    Das Projekt Incident Reporting System hat Forschungen über Belästigungen in ausgewählten Pilot-Wikis abgeschlossen.

    Die Forschung, die Anfang 2023 begann, untersuchte die indonesische und die koreanische Wikipedia, um zu verstehen, wie Belästigungen gemeldet werden und wie die Bearbeiter/innen von Meldungen vorgehen.

    Die Ergebnisse der Studien sind veröffentlicht worden.

    Zusammenfassend lässt sich sagen, dass wir wertvolle Erkenntnisse darüber gewonnen haben, welche Verbesserungen sowohl im On- als auch im Off-Wiki für die Meldung von Vorfällen notwendig sind. Außerdem erfuhren wir mehr über die Bedarfe der Communities, die wir als wertvollen Input für das Incident Reporting Tool nutzen können.

    Wir möchten diese Ergebnisse gerne mit dir teilen; der Bericht enthält umfassendere Informationen.

    Bitte hinterlasse jegliches Feedback und Fragen auf der Diskussionsseite.

    Forschung im Vorfeld des Projekts

    Das folgende Dokument ist ein abgeschlossener Überblick der Untersuchungen von 2015 - 2022, die die Wikimedia-Projekte zu Online-Belästigungen durchgeführt haben. In diesem Überblick haben wir die wichtigsten Themen, Einsichten und Problembereiche herausgearbeitet und direkte Links zur zugehörigen Literatur zur Verfügung gestellt.

    Das Trust & Safety Tools-Team hat frühere Forschungen und Konsultationen in der Community studiert, um sich über unsere Arbeit zu informieren. Wir haben den Vorschlag für das Community health initiative User reporting system und die Konsultation für das User reporting system of 2019 erneut geprüft. Wir haben auch versucht, einige der Konfliktlösungsströme in den Wikis zu beschreiben, um zu verstehen, wie die Communities derzeit mit Konflikten umgehen. Unten siehst du eine Übersicht über den Konfliktlösungsprozess im italienischen Wiki. Sie enthält Hinweise auf Möglichkeiten zur Automatisierung.

    In der italienischen Wikipedia gibt es ein dreistufiges Verfahren zur Konfliktlösung. Diese Karte veranschaulicht diesen Prozess und versucht, Möglichkeiten zur Automatisierung für Autoren und Administratoren aufzuzeigen.

    Häufig gestellte Fragen (FAQ)

    Fragen und Antworten aus Phase 1 des Projekts

    Q: The project used to be called PIRS, Private Incident Reporting System. Why was the P dropped?

    Wir haben das Private Incident Reporting System in Incident Reporting System umbenannt. Das Wort "Privat" wurde gestrichen.

    Im Zusammenhang mit Belästigung und der UCoC bezieht sich das Wort "Privat" darauf, die Privatsphäre der Community-Mitglieder zu respektieren und ihre Sicherheit zu gewährleisten. Es bedeutet nicht, dass alle Phasen der Meldung vertraulich sind. Wir haben Rückmeldungen erhalten, dass dieser Begriff verwirrend und in anderen Sprachen schwer zu übersetzen ist, daher die Änderung.

    Q: Ist bekannt, wieviele Vorfälle pro Jahr gemeldet werden?

    A: Derzeit haben wir kein besonders klares Bild. Das hat mehrere Gründe. Erstens kommen die Meldungen in vielen Arten und variieren von Community zu Community; sie sauber und vollständig zu erfassen wäre hochkompliziert und zeitraubend. Zweitens unterscheidet sich auch die Wahrnehmung. Manche als Belästigung wahrgenommene Vorgänge sind eigentlich wiki-üblich (zum Beispiel das Löschen eines Werbeartikels). Um Belästigung einzuschätzen, braucht man vielleicht kulturellen oder gruppenbezogenen Kontext. Wir können das nicht automatisiert sammeln/visualisieren oder objektiv zählen. Das PIRS könnte einige dieser Schwierigkeiten beheben.

    Q: Wie definiert ihr Belästigung?

    A: Siehe unter Universal Code of Conduct.

    Q: Wieviele Mitarbeiter und Freiwillige wird das IRS benötigen?

    A: Derzeit ist das Ausmaß des Problems nicht bekannt. Daher weiß man auch nicht, wie viele Personen zur Unterstützung benötigt werden. Das Experimentieren mit dem Minimum Viable Product wird Aufschluss darüber geben, wie viele Personen für die Unterstützung des IRS benötigt werden.

    Q: Wozu ist das MVP (minimal viable product) gedacht?

    A: Das MVP dient als Experiment und Lernmöglichkeit. Dieser erste Versuch wird unsere aktuellen Fragen beantworten. Mit dem Ergebnis planen wir weiter.

    Q: Welche Fragen versucht ihr mit dem MVP zu beantworten?

    A: Hier sind die Fragen, die wir beantworten müssen:

    • Welche Dinge werden die Leute melden?
    • Wie viele Leute werden Meldungen einreichen?
    • Wie viele Leute würden wir brauchen, um sie zu bearbeiten?
    • Wie groß ist dieses Problem?
    • Können wir ein besseres Bild vom Umfang der Belästigungsproblematik bekommen? Können wir einige Daten zur Meldungszahl sammeln? Wird Belästigung zu oft oder zu selten gemeldet?
    • Melden derzeit Leute keine Belästigungen, weil es keine gibt, oder weil sie nicht wissen wie?
    • Wird das unsere gegenwärtige Struktur überlasten, oder nicht?
    • Wie viele Meldungen sind gültig, wieviele haben den Wikiprozess nicht verstanden? Können wir ungültige Meldungen ausfiltern, um den Freiwilligen und Angestellten Zeit zu sparen?
    • Werden wir massenhaft Beschwerden von Leuten bekommen, die sich ärgern, weil ihre Edits zurückgesetzt oder ihre Seiten gelöscht wurden? Was machen wir damit?

    Q: Wo stehen wir im Vergleich zu anderen großen Plattformen wie Facebook/Reddit beim Umgang mit Belästigung?

    A: Obwohl wir keine gleichartigen Bezugsgruppen haben, wird die Wikimedia-Bewegung im Hinblick auf den Umgang mit Belästigung oft mit Facebook und Reddit verglichen. Wichtig ist festzuhalten, dass niemand Belästigung abschaffen konnte. Andere Plattformen kämpfen mit Inhaltsmoderation, und sie bezahlen oft Angestellte, die versuchen sich darum zu kümmern. Zwei große Unterschiede zwischen uns und Reddit und Facebook sind: die globale kollaborative Arbeitsweise in unseren Projekten, und wie unsere Communities auf der Gruppenebene gegen Belästigung vorgehen.

    Q: Versucht die WMF, bestehende Communityprozesse zu ändern?

    A: Wir planen nicht, für das IRS Communityprozesse zu ändern. Das Ziel ist, die existierenden Prozesse zu verbinden. Am Ende sollen:

    • ...Menschen, die belästigt werden, leichter Hilfe finden.
    • Situationen verschwinden, in denen jemand nicht meldet, weil er/sie nicht weiss, wie das geht.
    • Belästigungsmeldungen die richtigen Stellen erreichen, die sie in den lokalen Communityprozessen behandeln.
    • Zuständige gute Meldungen bekommen, und unbegründete Meldungen und Vorgänge weiterleiten können.