Meldesystem für Zwischenfälle
um ein sichereres und gesünderes Umfeld für Communities zu schaffen, möchte die Wikimedia Foundation dafür sorgen, dass Menschen, die Belästigungen und andere Formen von Missbrauch erfahren, solche schädlichen Vorfälle besser melden können.
Das neu gegründete Trust and Safety Product Team hat die Aufgabe, das Incident Reporting System (IRS) aufzubauen. Wir wollen es Nutzer*innen leicht machen, schädliche Vorfälle sicher und vertraulich zu melden.
Hintergrund des Projekts
Das Melden und Bearbeiten von schädlichen Vorfällen war bereits seit vielen Jahren Thema in den Communities der Wikimedia. Da wir nun einen Universal Code of Conduct beschlossen haben, ist es wichtig, auch über ein Meldesystem zu diskutieren.
Der Umgang mit Vorfällen, Fehlverhalten und Richtlinienverstößen in den Wikimedia-Räumen und -Projekten hat sich organisch entwickelt und ist in den verschiedenen Communities uneinheitlich.
Jedes Wikimediaprojekt und jede Community hat ihre eigene Art, Dinge zu verwalten. Die Meldung und Bearbeitung von Vorfällen erfolgt auf unterschiedliche Weise:
- auf Wiki-Diskussionsseiten
- auf Meldeseiten
- per Email
- durch private Diskussionen in externen Kommunikationskanälen (Discord, IRC)
Vielen Nutzer*innen ist unklar, was zu tun ist, wenn ein Vorfall passiert: wohin sich wenden, mit wem sprechen, wie Meldung machen, welche Informationen in die Meldung aufnehmen, wie die Meldung bearbeitet wird, was danach passiert, usw.
Nutzer*innen müssen wissen, wie und wo sie ein Problem melden können. Es gibt auch nur wenige Informationen darüber, was passiert, wenn eine Meldung gemacht wird und was die Nutzer*innen erwarten können.
Einige Nutzer*innen fühlen sich nicht sicher, wenn sie Vorfälle melden, weil das Meldeverfahren zu kompliziert ist und sie Bedenken wegen des Datenschutzes haben.
Derzeit gibt es keine standardisierte Möglichkeit für Nutzer*innen, Vorfälle privat zu melden.
Schwerpunkt des Projektes
Das übergeordnete Ziel dieses Projekts ist es daher, das Ansprechen von belästigenden und schädigenden Vorfällen zu erleichtern und sicherzustellen, dass diese Meldungen die zuständige Stelle erreichen, die sie bearbeiten muss.
Wir wollen die Privatsphäre und die Sicherheit der Meldenden gewährleisten. Außerdem wollen wir sicherstellen, dass die Meldungen die richtigen Informationen enthalten und an die zuständige Stelle weitergeleitet werden, die sie weiterverarbeiten muss, ohne dabei zusätzlichen Druck auf diejenigen auszuüben, die die Prozesse durchführen.
Das Trust and Safety Product Team betrachtet dieses System zur Meldung von Vorfällen als Teil des größeren Ökosystems der Wikimedia-Gemeinschaft für das Vorfallsmanagement. Wir untersuchen, wie die einzelnen Systeme funktionieren und wie alles miteinander verbunden werden kann.
Neuigkeiten
Incident reporting update: November 7, 2024
We’re continuing the work on the Incident Reporting System.
The next step is to develop an MVP (Minimum Viable Product) that we can test in production on a few pilot wikis. Following our Minimum Testing Product (MTP) user testing some months ago, we have made improvements to the design:
- Emergency incidents - Incidents relating to immediate threats of physical harm. These incidents need to be handled by the Wikimedia Foundation emergency team.
- Non-emergency incidents - Incidents that are not immediate threats of harm, for example bullying, sexual harassment and other unacceptable user behavior. These incidents are handled through local community processes.
The Emergency user flow will direct users to file a report that will be sent to the Wikimedia Foundation emergency team.
The Non-emergency user flow will direct users to reach out to their local community for support, as outlined in community policies. This will be done through a “Get support” page that will contain links and information specific to each community. The intention is to have configuration options on this page so that each local community can add the relevant links as necessary.
We have some screenshots to demonstrate how this might work. For the next deployment the main focus is to test the emergency user flow in production.
Designs
Emergency flow:
Non-emergency user flow:
We’d love to hear your thoughts on the current designs! Please comment on the discussion page.
Teste die minimale testbare Version des Meldesystems für Zwischenfälle auf Beta – 10. November 2023
Benutzer:innen sind eingeladen, die minimale testbare Version des Meldesystems für Zwischenfälle zu testen. Das Team Trust & Safety Product hat eine Basisproduktversion entwickelt, mit der Benutzer:innen einen Zwischenfall direkt von der Diskussionsseite aus, auf der er sich abgespielt hat, melden können. Hinweis: Diese Produktversion dient dazu, das Melden an eine private E-Mail-Adresse (z. B. emergency wikimedia.org oder eine Admin-Gruppe) zu lernen. Dies deckt nicht alle Szenarien ab, wie die Meldung auf einer öffentlichen Anfrageseite. Wir brauchen euer Feedback, um festzustellen, ob dieser erste Ansatz effektiv ist.
Zum Testen:
1. Besuche eine beliebige Wikipedia-Diskussionsseite auf Beta, die Diskussionen enthält. Unter User talk:Testing und Talk:African Wild Dog stehen Beispiel-Diskussionsseiten zur Verfügung, die du nutzen kannst, wenn du dich anmeldest.
2. Klicke anschließend auf die Schaltfläche (Auslassungspunkte) neben dem Link Antworten eines beliebigen Kommentars, um das Menü zu öffnen, und klicke dann auf Melden (siehe Folie 1). Du kannst auch den Link Melden im Menü Werkzeuge verwenden (siehe Folie 2).
-
Folie 1
-
Folie 2
3. Fahre mit der Meldung fort, indem du das Formular ausfüllst und absendest. Eine E-Mail wird an das Team Trust & Safety Product gesendet, das als einziges deinen Bericht sehen kann. Bitte beachte, dass es sich hierbei um einen Test handelt, und nutze dieses Formular nicht zur Meldung realer Zwischenfälle.
4. Denk beim Testen über die folgenden Fragen nach:
- Was hältst du von diesem Meldeprozess? Überlege vor allem, was dir daran gefällt oder nicht gefällt.
- Wenn du mit Erweiterungen vertraut bist, wie würdest du es finden, dieses Meldesystem als Erweiterung in deinem Wiki zu haben?
- Welche Probleme haben wir in dieser ersten Meldephase übersehen?
5. Hinterlasse im Anschluss an deinen Test bitte deine Rückmeldung auf der Diskussionsseite.
Wenn du das Menü oder die Meldelinks nicht finden kannst oder das Formular nicht gesendet werden kann, stelle bitte sicher, dass:
- du angemeldet bist
- die E-Mail-Adresse deines Beta-Kontos bestätigt ist
- dein Konto vor mehr als drei Stunden erstellt wurde und mindestens eine Bearbeitung vorgenommen hat
- du die Diskussionswerkzeuge aktiviert hast, da das MTP in die Diskussionswerkzeuge integriert ist.
Wenn die Diskussionswerkzeuge nicht geladen werden, kann ein Bericht über das Werkzeugmenü eingereicht werden. Wenn du keinen zweiten Bericht einreichen kannst, beachte bitte, dass für nicht bestätigte Benutzer:innen ein Limit von einer Meldung pro Tag und für automatisch bestätigte Benutzer:innen ein Limit von fünf Meldungen pro Tag besteht. Diese Anforderungen für den Test tragen dazu bei, die Möglichkeit zu verringern, dass böswillige Benutzer:innen das System missbrauchen. Mehr dazu findest du im Abschnitt Forschung auf der Seite.
Ablauf
Da dies ein sehr komplexes Projekt ist, muss es in viele Iterationen und Phasen aufgeteilt werden. Für jede Phase werden wir mehrmals Diskussionen durchführen, um sicherzustellen, dass wir auf den richtigen Weg sind, und um das Feedback der Community frühzeitig einzuholen, bevor wir in die große Arbeit einsteigen.
Phase 1
Vorbereitende Untersuchungen: Feedback sammeln, bestehende Dokumentationen durchlesen.
Interviews durchführen, um ein besseres Verständnis von dem Problemfeld zu erhalten und kritische Fragen herauszufinden, die beantwortet werden müssen.
Den möglichen Projektumfang und die Projektausrichtung definieren und diskutieren, mögliche Pilot-Wikis herausfinden.
Am, Ende dieser Phase sollten wir ein vertieftes Verständnis von dem haben, was wir unternehmen.
Phase 2
Prototypen entwickeln, um die Ideen aus Phase 1 darzustellen.
Eine Liste von Optionen für eine vertiefende Beratung und Überarbeitung erstellen.
Phase 3
Die besten Ideen erkennen und priorisieren.
Diese Ideen in die Softwareentwicklung geben und in Phabricator-Tickets aufteilen.
Den Zyklus interativ fortführen.
Untersuchungen
July 2024: Incident Reporting System user testing summary
In March 2024, the Trust & Safety Product team conducted user testing of the Minimum Viable Product (MVP) of the Incident Reporting System to learn if users know where to go to report an emergency incident, and if the user flow makes sense and feels intuitive.
We learned the following:
- During user testing, all participants found the entry point to report an incident and the current user flow is well understood.
- There was some confusion over two of the reporting options: “someone might cause self-harm” and “public harm threatening message”.
Two participants also made assumptions about the system being automated. One participant was concerned about automation and wanted a human response, whereas the other participant felt assured by the idea it would check if the abuser had any past history of threats and offences, and delete the offensive comment accordingly. All participants expected a timely response (an average of 2-3 days) after submitting a report. Read more.
21. September 2023 Update: Gemeinsame Nutzung von Forschungsergebnissen zur Meldung von Zwischenfällen
Das Projekt Incident Reporting System hat Forschungen über Belästigungen in ausgewählten Pilot-Wikis abgeschlossen.
Die Forschung, die Anfang 2023 begann, untersuchte die indonesische und die koreanische Wikipedia, um zu verstehen, wie Belästigungen gemeldet werden und wie die Bearbeiter/innen von Meldungen vorgehen.
Die Ergebnisse der Studien sind veröffentlicht worden.
Zusammenfassend lässt sich sagen, dass wir wertvolle Erkenntnisse darüber gewonnen haben, welche Verbesserungen sowohl im On- als auch im Off-Wiki für die Meldung von Vorfällen notwendig sind. Außerdem erfuhren wir mehr über die Bedarfe der Communities, die wir als wertvollen Input für das Incident Reporting Tool nutzen können.
Wir möchten diese Ergebnisse gerne mit dir teilen; der Bericht enthält umfassendere Informationen.
Bitte hinterlasse jegliches Feedback und Fragen auf der Diskussionsseite.
Das folgende Dokument ist ein abgeschlossener Überblick der Untersuchungen von 2015 - 2022, die die Wikimedia-Projekte zu Online-Belästigungen durchgeführt haben. In diesem Überblick haben wir die wichtigsten Themen, Einsichten und Problembereiche herausgearbeitet und direkte Links zur zugehörigen Literatur zur Verfügung gestellt.
Das Trust & Safety Tools-Team hat frühere Forschungen und Konsultationen in der Community studiert, um sich über unsere Arbeit zu informieren. Wir haben den Vorschlag für das Community health initiative User reporting system und die Konsultation für das User reporting system of 2019 erneut geprüft. Wir haben auch versucht, einige der Konfliktlösungsströme in den Wikis zu beschreiben, um zu verstehen, wie die Communities derzeit mit Konflikten umgehen. Unten siehst du eine Übersicht über den Konfliktlösungsprozess im italienischen Wiki. Sie enthält Hinweise auf Möglichkeiten zur Automatisierung.
Häufig gestellte Fragen (FAQ)
Q: The project used to be called PIRS, Private Incident Reporting System. Why was the P dropped?
Wir haben das Private Incident Reporting System in Incident Reporting System umbenannt. Das Wort "Privat" wurde gestrichen.
Im Zusammenhang mit Belästigung und der UCoC bezieht sich das Wort "Privat" darauf, die Privatsphäre der Community-Mitglieder zu respektieren und ihre Sicherheit zu gewährleisten. Es bedeutet nicht, dass alle Phasen der Meldung vertraulich sind. Wir haben Rückmeldungen erhalten, dass dieser Begriff verwirrend und in anderen Sprachen schwer zu übersetzen ist, daher die Änderung.
Q: Ist bekannt, wieviele Vorfälle pro Jahr gemeldet werden?
A: Derzeit haben wir kein besonders klares Bild. Das hat mehrere Gründe. Erstens kommen die Meldungen in vielen Arten und variieren von Community zu Community; sie sauber und vollständig zu erfassen wäre hochkompliziert und zeitraubend. Zweitens unterscheidet sich auch die Wahrnehmung. Manche als Belästigung wahrgenommene Vorgänge sind eigentlich wiki-üblich (zum Beispiel das Löschen eines Werbeartikels). Um Belästigung einzuschätzen, braucht man vielleicht kulturellen oder gruppenbezogenen Kontext. Wir können das nicht automatisiert sammeln/visualisieren oder objektiv zählen. Das PIRS könnte einige dieser Schwierigkeiten beheben.
Q: Wie definiert ihr Belästigung?
A: Siehe unter Universal Code of Conduct.
Q: Wieviele Mitarbeiter und Freiwillige wird das IRS benötigen?
A: Derzeit ist das Ausmaß des Problems nicht bekannt. Daher weiß man auch nicht, wie viele Personen zur Unterstützung benötigt werden. Das Experimentieren mit dem Minimum Viable Product wird Aufschluss darüber geben, wie viele Personen für die Unterstützung des IRS benötigt werden.
Q: Wozu ist das MVP (minimal viable product) gedacht?
A: Das MVP dient als Experiment und Lernmöglichkeit. Dieser erste Versuch wird unsere aktuellen Fragen beantworten. Mit dem Ergebnis planen wir weiter.
Q: Welche Fragen versucht ihr mit dem MVP zu beantworten?
A: Hier sind die Fragen, die wir beantworten müssen:
- Welche Dinge werden die Leute melden?
- Wie viele Leute werden Meldungen einreichen?
- Wie viele Leute würden wir brauchen, um sie zu bearbeiten?
- Wie groß ist dieses Problem?
- Können wir ein besseres Bild vom Umfang der Belästigungsproblematik bekommen? Können wir einige Daten zur Meldungszahl sammeln? Wird Belästigung zu oft oder zu selten gemeldet?
- Melden derzeit Leute keine Belästigungen, weil es keine gibt, oder weil sie nicht wissen wie?
- Wird das unsere gegenwärtige Struktur überlasten, oder nicht?
- Wie viele Meldungen sind gültig, wieviele haben den Wikiprozess nicht verstanden? Können wir ungültige Meldungen ausfiltern, um den Freiwilligen und Angestellten Zeit zu sparen?
- Werden wir massenhaft Beschwerden von Leuten bekommen, die sich ärgern, weil ihre Edits zurückgesetzt oder ihre Seiten gelöscht wurden? Was machen wir damit?
Q: Wo stehen wir im Vergleich zu anderen großen Plattformen wie Facebook/Reddit beim Umgang mit Belästigung?
A: Obwohl wir keine gleichartigen Bezugsgruppen haben, wird die Wikimedia-Bewegung im Hinblick auf den Umgang mit Belästigung oft mit Facebook und Reddit verglichen. Wichtig ist festzuhalten, dass niemand Belästigung abschaffen konnte. Andere Plattformen kämpfen mit Inhaltsmoderation, und sie bezahlen oft Angestellte, die versuchen sich darum zu kümmern. Zwei große Unterschiede zwischen uns und Reddit und Facebook sind: die globale kollaborative Arbeitsweise in unseren Projekten, und wie unsere Communities auf der Gruppenebene gegen Belästigung vorgehen.
Q: Versucht die WMF, bestehende Communityprozesse zu ändern?
A: Wir planen nicht, für das IRS Communityprozesse zu ändern. Das Ziel ist, die existierenden Prozesse zu verbinden. Am Ende sollen:
- ...Menschen, die belästigt werden, leichter Hilfe finden.
- Situationen verschwinden, in denen jemand nicht meldet, weil er/sie nicht weiss, wie das geht.
- Belästigungsmeldungen die richtigen Stellen erreichen, die sie in den lokalen Communityprozessen behandeln.
- Zuständige gute Meldungen bekommen, und unbegründete Meldungen und Vorgänge weiterleiten können.