Meldesystem für Zwischenfälle

This page is a translated version of the page Incident Reporting System and the translation is 100% complete.
Vertrauliches Meldesystem für Zwischenfälle - Ein einfacheres und sichereres Meldesystem für alle

Worum es geht

um ein sichereres und gesünderes Umfeld für Communities zu schaffen, möchte die Wikimedia Foundation dafür sorgen, dass Menschen, die Belästigungen und andere Formen von Missbrauch erfahren, solche schädlichen Vorfälle besser melden können.

Das neu gegründete Trust and Safety Product Team hat die Aufgabe, das Incident Reporting System (IRS) aufzubauen. Wir wollen es Nutzer*innen leicht machen, schädliche Vorfälle sicher und vertraulich zu melden.

Hintergrund des Projekts

Das Melden und Bearbeiten von schädlichen Vorfällen war bereits seit vielen Jahren Thema in den Communities der Wikimedia. Da wir nun einen Universal Code of Conduct beschlossen haben, ist es wichtig, auch über ein Meldesystem zu diskutieren.

Der Umgang mit Vorfällen, Fehlverhalten und Richtlinienverstößen in den Wikimedia-Räumen und -Projekten hat sich organisch entwickelt und ist in den verschiedenen Communities uneinheitlich.

Jedes Wikimediaprojekt und jede Community hat ihre eigene Art, Dinge zu verwalten. Die Meldung und Bearbeitung von Vorfällen erfolgt auf unterschiedliche Weise:

  • auf Wiki-Diskussionsseiten
  • auf Meldeseiten
  • per Email
  • durch private Diskussionen in externen Kommunikationskanälen (Discord, IRC)

Vielen Nutzer*innen ist unklar, was zu tun ist, wenn ein Vorfall passiert: wohin sich wenden, mit wem sprechen, wie Meldung machen, welche Informationen in die Meldung aufnehmen, wie die Meldung bearbeitet wird, was danach passiert, usw.  

Nutzer*innen müssen wissen, wie und wo sie ein Problem melden können. Es gibt auch nur wenige Informationen darüber, was passiert, wenn eine Meldung gemacht wird und was die Nutzer*innen erwarten können.

Einige Nutzer*innen fühlen sich nicht sicher, wenn sie Vorfälle melden, weil das Meldeverfahren zu kompliziert ist und sie Bedenken wegen des Datenschutzes haben.

Derzeit gibt es keine standardisierte Möglichkeit für Nutzer*innen, Vorfälle privat zu melden.

Schwerpunkt des Projektes

Das übergeordnete Ziel dieses Projekts ist es daher, das Ansprechen von belästigenden und schädigenden Vorfällen zu erleichtern und sicherzustellen, dass diese Meldungen die zuständige Stelle erreichen, die sie bearbeiten muss.

Wir wollen die Privatsphäre und die Sicherheit der Meldenden gewährleisten. Außerdem wollen wir sicherstellen, dass die Meldungen die richtigen Informationen enthalten und an die zuständige Stelle weitergeleitet werden, die sie weiterverarbeiten muss, ohne dabei zusätzlichen Druck auf diejenigen auszuüben, die die Prozesse durchführen.

Das Trust and Safety Product Team betrachtet dieses System zur Meldung von Vorfällen als Teil des größeren Ökosystems der Wikimedia-Gemeinschaft für das Vorfallsmanagement. Wir untersuchen, wie die einzelnen Systeme funktionieren und wie alles miteinander verbunden werden kann.

Neuigkeiten zu Produkt und Technik

Teste die minimale testbare Version des Meldesystems für Zwischenfälle auf Beta – 10. November 2023

Benutzer:innen sind eingeladen, die minimale testbare Version des Meldesystems für Zwischenfälle zu testen.

Das Team Trust & Safety Product hat eine Basisproduktversion entwickelt, mit der Benutzer:innen einen Zwischenfall direkt von der Diskussionsseite aus, auf der er sich abgespielt hat, melden können.

Hinweis: Diese Produktversion dient dazu, das Melden an eine private E-Mail-Adresse (z. B. emergency wikimedia.org oder eine Admin-Gruppe) zu lernen. Dies deckt nicht alle Szenarien ab, wie die Meldung auf einer öffentlichen Anfrageseite.

Wir brauchen euer Feedback, um festzustellen, ob dieser erste Ansatz effektiv ist.

Zum Testen:

1. Besuche eine beliebige Wikipedia-Diskussionsseite auf Beta, die Diskussionen enthält. Unter User talk:Testing und Talk:African Wild Dog stehen Beispiel-Diskussionsseiten zur Verfügung, die du nutzen kannst, wenn du dich anmeldest.

2. Klicke anschließend auf die Schaltfläche (Auslassungspunkte) neben dem Link Antworten eines beliebigen Kommentars, um das Menü zu öffnen, und klicke dann auf Melden (siehe Folie 1). Du kannst auch den Link Melden im Menü Werkzeuge verwenden (siehe Folie 2).

3. Fahre mit der Meldung fort, indem du das Formular ausfüllst und absendest. Eine E-Mail wird an das Team Trust & Safety Product gesendet, das als einziges deinen Bericht sehen kann. Bitte beachte, dass es sich hierbei um einen Test handelt, und nutze dieses Formular nicht zur Meldung realer Zwischenfälle.

4. Denk beim Testen über die folgenden Fragen nach:

  • Was hältst du von diesem Meldeprozess? Überlege vor allem, was dir daran gefällt oder nicht gefällt.
  • Wenn du mit Erweiterungen vertraut bist, wie würdest du es finden, dieses Meldesystem als Erweiterung in deinem Wiki zu haben?
  • Welche Probleme haben wir in dieser ersten Meldephase übersehen?

5. Hinterlasse im Anschluss an deinen Test bitte deine Rückmeldung auf der Diskussionsseite.

Update: Sharing incident reporting research findings – September 20, 2023

The Incident Reporting System project has completed research about harassment on selected pilot wikis.

The research, which started in early 2023, studied the Indonesian and Korean Wikipedias to understand harassment, how harassment is reported and how responders to reports go about their work.

The findings of the studies have been published.

Mehr dazu findest du im Abschnitt Forschung auf der Seite.

Vier Updates zum Projekt "Incident Reporting" - 27. Juli 2023

In den letzten Monaten hat das Team von Trust and Safety Tools daran gearbeitet, Phase 1 des Projekts Vertrauliches Meldesystem abzuschließen.

In dieser Phase ging es darum, mit deinem Feedback die mögliche Richtung und den Bereich des Projekts zu definieren. Wir wissen jetzt besser, was wir als Nächstes tun müssen. 'Mehr lesen.

8. November 2022 - Projektumfang & MVP

Unser Hauptziel in den letzten Monaten war es, den Problembereich und die Erwartungen der Benutzer/innen an dieses Projekt zu verstehen. Wir möchten etwas Kleines bauen, ein Minimum Viable Product (MVP), mit dem wir herausfinden können, ob die grundlegende Erfahrung, die wir anstreben, tatsächlich funktioniert. Lies mehr.

Ablauf

Projekt-Phasen
Es ist nicht leicht, herauszufinden, wie man die Meldung von Vorfällen im Wikimedia-Bereich handhabt. Es gibt eine Menge Risiken und viele Unbekannte.

Da dies ein sehr komplexes Projekt ist, muss es in viele Iterationen und Phasen aufgeteilt werden. Für jede Phase werden wir mehrmals Diskussionen durchführen, um sicherzustellen, dass wir auf den richtigen Weg sind, und um das Feedback der Community frühzeitig einzuholen, bevor wir in die große Arbeit einsteigen.

Phase 1

Vorbereitende Untersuchungen: Feedback sammeln, bestehende Dokumentationen durchlesen.

Interviews durchführen, um ein besseres Verständnis von dem Problemfeld zu erhalten und kritische Fragen herauszufinden, die beantwortet werden müssen.

Den möglichen Projektumfang und die Projektausrichtung definieren und diskutieren, mögliche Pilot-Wikis herausfinden.

Am, Ende dieser Phase sollten wir ein vertieftes Verständnis von dem haben, was wir unternehmen.

Phase 2

Prototypen entwickeln, um die Ideen aus Phase 1 darzustellen.

Eine Liste von Optionen für eine vertiefende Beratung und Überarbeitung erstellen.

Phase 3

Die besten Ideen erkennen und priorisieren.

Diese Ideen in die Softwareentwicklung geben und in Phabricator-Tickets aufteilen.

Den Zyklus interativ fortführen.

Untersuchungen

<span id="New!_21_September_2023_Update:_Sharing_incident_reporting_research_findings">

New! 21. September 2023 Update: Gemeinsame Nutzung von Forschungsergebnissen zur Meldung von Zwischenfällen

 
Bericht über die Forschungsergebnisse zur Meldung von Vorfällen 2023

Das Projekt Incident Reporting System hat Forschungen über Belästigungen in ausgewählten Pilot-Wikis abgeschlossen.

Die Forschung, die Anfang 2023 begann, untersuchte die indonesische und die koreanische Wikipedia, um zu verstehen, wie Belästigungen gemeldet werden und wie die Bearbeiter/innen von Meldungen vorgehen.

Die Ergebnisse der Studien sind veröffentlicht worden.

Zusammenfassend lässt sich sagen, dass wir wertvolle Erkenntnisse darüber gewonnen haben, welche Verbesserungen sowohl im On- als auch im Off-Wiki für die Meldung von Vorfällen notwendig sind. Außerdem erfuhren wir mehr über die Bedarfe der Communities, die wir als wertvollen Input für das Incident Reporting Tool nutzen können.

Wir möchten diese Ergebnisse gerne mit dir teilen; der Bericht enthält umfassendere Informationen.

Bitte hinterlasse jegliches Feedback und Fragen auf der Diskussionsseite.

Forschung im Vorfeld des Projekts
Das folgende Dokument ist ein abgeschlossener Überblick der Untersuchungen von 2015 - 2022, die die Wikimedia-Projekte zu Online-Belästigungen durchgeführt haben. In diesem Überblick haben wir die wichtigsten Themen, Einsichten und Problembereiche herausgearbeitet und direkte Links zur zugehörigen Literatur zur Verfügung gestellt.
 

Bisherige Arbeit

Das Trust & Safety Tools-Team hat frühere Forschungen und Konsultationen in der Community studiert, um sich über unsere Arbeit zu informieren. Wir haben den Vorschlag für das Community health initiative User reporting system und die Konsultation für das User reporting system of 2019 erneut geprüft. Wir haben auch versucht, einige der Konfliktlösungsströme in den Wikis zu beschreiben, um zu verstehen, wie die Communities derzeit mit Konflikten umgehen. Unten siehst du eine Übersicht über den Konfliktlösungsprozess im italienischen Wiki. Sie enthält Hinweise auf Möglichkeiten zur Automatisierung.

 
In der italienischen Wikipedia gibt es ein dreistufiges Verfahren zur Konfliktlösung. Diese Karte veranschaulicht diesen Prozess und versucht, Möglichkeiten zur Automatisierung für Autoren und Administratoren aufzuzeigen.

Häufig gestellte Fragen (FAQ)

Fragen und Antworten aus Phase 1 des Projekts
Q: Ist bekannt, wieviele Vorfälle pro Jahr gemeldet werden?

A: Derzeit haben wir kein besonders klares Bild. Das hat mehrere Gründe. Erstens kommen die Meldungen in vielen Arten und variieren von Community zu Community; sie sauber und vollständig zu erfassen wäre hochkompliziert und zeitraubend. Zweitens unterscheidet sich auch die Wahrnehmung. Manche als Belästigung wahrgenommene Vorgänge sind eigentlich wiki-üblich (zum Beispiel das Löschen eines Werbeartikels). Um Belästigung einzuschätzen, braucht man vielleicht kulturellen oder gruppenbezogenen Kontext. Wir können das nicht automatisiert sammeln/visualisieren oder objektiv zählen. Das PIRS könnte einige dieser Schwierigkeiten beheben.

Q: Wie definiert ihr Belästigung?

A: Siehe unter Universal Code of Conduct.

Q: Wieviele Mitarbeiter und Freiwillige wird das IRS benötigen?

A: Derzeit ist das Ausmaß des Problems nicht bekannt. Daher weiß man auch nicht, wie viele Personen zur Unterstützung benötigt werden. Das Experimentieren mit dem Minimum Viable Product wird Aufschluss darüber geben, wie viele Personen für die Unterstützung des IRS benötigt werden.

Q: Wozu ist das MVP (minimal viable product) gedacht?

A: Das MVP dient als Experiment und Lernmöglichkeit. Dieser erste Versuch wird unsere aktuellen Fragen beantworten. Mit dem Ergebnis planen wir weiter.

Q: Welche Fragen versucht ihr mit dem MVP zu beantworten?

A: Hier sind die Fragen, die wir beantworten müssen:

  • Welche Dinge werden die Leute melden?
  • Wie viele Leute werden Meldungen einreichen?
  • Wie viele Leute würden wir brauchen, um sie zu bearbeiten?
  • Wie groß ist dieses Problem?
  • Können wir ein besseres Bild vom Umfang der Belästigungsproblematik bekommen? Können wir einige Daten zur Meldungszahl sammeln? Wird Belästigung zu oft oder zu selten gemeldet?
  • Melden derzeit Leute keine Belästigungen, weil es keine gibt, oder weil sie nicht wissen wie?
  • Wird das unsere gegenwärtige Struktur überlasten, oder nicht?
  • Wie viele Meldungen sind gültig, wieviele haben den Wikiprozess nicht verstanden? Können wir ungültige Meldungen ausfiltern, um den Freiwilligen und Angestellten Zeit zu sparen?
  • Werden wir massenhaft Beschwerden von Leuten bekommen, die sich ärgern, weil ihre Edits zurückgesetzt oder ihre Seiten gelöscht wurden? Was machen wir damit?

Q: Wo stehen wir im Vergleich zu anderen großen Plattformen wie Facebook/Reddit beim Umgang mit Belästigung?

A: Obwohl wir keine gleichartigen Bezugsgruppen haben, wird die Wikimedia-Bewegung im Hinblick auf den Umgang mit Belästigung oft mit Facebook und Reddit verglichen. Wichtig ist festzuhalten, dass niemand Belästigung abschaffen konnte. Andere Plattformen kämpfen mit Inhaltsmoderation, und sie bezahlen oft Angestellte, die versuchen sich darum zu kümmern. Zwei große Unterschiede zwischen uns und Reddit und Facebook sind: die globale kollaborative Arbeitsweise in unseren Projekten, und wie unsere Communities auf der Gruppenebene gegen Belästigung vorgehen.

Q: Versucht die WMF, bestehende Communityprozesse zu ändern?

A: Wir planen nicht, für das IRS Communityprozesse zu ändern. Das Ziel ist, die existierenden Prozesse zu verbinden. Am Ende sollen:

  • ...Menschen, die belästigt werden, leichter Hilfe finden.
  • Situationen verschwinden, in denen jemand nicht meldet, weil er/sie nicht weiss, wie das geht.
  • Belästigungsmeldungen die richtigen Stellen erreichen, die sie in den lokalen Communityprozessen behandeln.
  • Zuständige gute Meldungen bekommen, und unbegründete Meldungen und Vorgänge weiterleiten können.