Initiative für eine gesunde Gemeinschaft
Diese page wird aus historischen Gründen behalten. Vereinbarungen auf dieser Seite können überholt sein. The Community Health Initiative 2017-19 was completed. Building on the initiative, the Foundation has established the Anti-Harassment Program. |
In der Wikimedia-Stiftung arbeiten die Teams für Anhörungen und Gemeinschaftsbetreuung an einem mehrjährigen Projekt aus Forschung, Produkt- und Regelentwicklung. Es soll der Freiwilligengemeinschaft dabei helfen, den Grad an Belästigungen und Störverhalten in unseren Projekten zu verringern.
Initiative für eine gesunde Gemeinschaft
Der Wikimedia-Freiwilligengemeinschaft dabei helfen, den Grad an Belästigungen und Störverhalten in unseren Projekten zu verringern.
Diese Initiative kümmert sich um die wichtigsten Belästigungsarten, die bei der 2015er Umfrage der Stiftung berichtet wurden. Dazu gehört ein breites Spektrum von Verhaltensweisen: Inhalte vandalieren, Stalken, Beleidigen, Trollen, Doxxen, Diskriminieren, alles was Einzelne unfair und schädigend bloßstellt.
Im Ergebnis werden sowohl die Werkzeuge der Mediawiki-Software (vgl. Anti-Harassment Tools) und die Regeln für Gruppen, die am meisten unter Störverhalten leiden (vgl. Policy Growth & Enforcement), verbessert. An diesen Verbesserungen müssen die Freiwilligen beteiligt werden, die die Werkzeuge einsetzen sollen, damit unsere Anstrengung Erfolg haben kann (vgl. Community input).
Projekte
Laufende Projekte
Gegenwärtig baut das Team neue Sperrwerkzeuge. Wir möchten genauere und verfeinerte Tools bereitstellen, damit Administratoren passender auf Störenfriede reagieren können. Dieses Projekt umfasst Sperren für bestimmte Benutzerseiten und Namensräume.
Zukünftige Projekte
Wir haben auch mit der Entwicklung von verbesserten Werkzeugen und Abläufen für Belästigungsmeldungen begonnen. Das wird 2018 und 2019 ein Hauptarbeitsfeld sein.
Abgeschlossene Projekte
- Interaction Timeline Tool auf Tool Forge
Hintergrund
Belästigung auf Wikimedia-Projekten
In der Wikipedia und anderen Wikimedia-Projekten gibt es Belästigung vor allem auf (Artikel- Projekt- und Benutzer-)Diskussionsseiten, auf Ankündigungsseiten, Benutzerseiten, und in der Bearbeitungszusammenfassung. Auch Editwar und Wiki-Hounding kann belästigen. Streit über Verhalten entsteht meist aus Streit über Inhalte, etwa wenn man sich über die Verlässlichkeit einer Quelle, die Neutralität eines Standpunktes, Formatierungs- und Inhaltshirarchie uneinig ist. Diese Konflikte können zur Belästigung ausarten, wenn ein Autor die Auseinandersetzung über Ideen verlässt und den Gegner mit der Idee verbindet - ihn als Feind ansieht, den man vertreiben muss. Der ungesunde Verlauf ist wahrscheinlicher, wenn die Inhalte Identitätsbezug haben - Gender, Rasse, sexuelle Orientierung, Nationalität - denn das macht es dem Belästiger einfacher, sein Ziel als lebende Verkörperung der gegnerischen Idee zu sehen. Das trifft vor allem dann zu, wenn das Ziel Mitglied einer historisch benachteiligten Gruppe ist, und das während seiner Projektzeit offengelegt hat.
Die englischsprachigen Wikipedianer (und die meisten anderen Projekte) haben Verhaltensregeln für ihre Gemeinschaften entworfen. Darunter Regeln über Höflichkeit, Belästigung, persönliche Angriffe, und Streitschlichtung. Das ist der richtige Geist, aber ihn durchzusetzen fällt schwer, wegen Lücken in der Mediawiki-Software, und weil es viel mehr Mitarbeiter als aktive Administratoren gibt.[1] Die Streitschlichtungsprozesse fordern, dass die Benutzer ihre Probleme erst untereinander zu lösen versuchen, bevor sie die Administratoren auf deren Meldeseiten anrufen oder sogar das Schiedsgericht einschalten.[2]
Online-Belästigung ist ein Problem überall im Web, wo Benutzer interagieren. Das Pew Research Center kam 2017 zu dem Schluss, dass 41% aller Internetnutzer Opfer von Online-Belästigungen wurden.[3] 2015 befragte die Wikimedia Foundation 3.845 Wikimedia-Benutzer, um Belästigung in Wikimedia-Projekten besser zu verstehen. 38% der Antwortenden waren sich sicher, belästigt worden zu sein, während 51% die Belästigung anderer Personen gesehen hatten.
In Wikimedias 2017er Bericht über Erfahrungen in der Gemeinschaftsbetreuung sagen 31% der 4.500 Anwortenden, dass sie sich während ihrer ganzen Mitarbeit, und überall in den Wikimedia-Online- und -Offlinebereichen unsicher fühlten. 49% von 400 Benutzern vermieden Wikipedia, weil sie sie unangenehm fanden, und 47% von 370 Benutzern gaben an, während der vergangenen 12 Monate in der Wikipedia schikaniert oder belästigt worden zu sein. 60% der Leute, die einen Streitfall an Funktionäre gemeldet hatten, berichteten ferner, ihr Fall sei "überhaupt nicht gelöst" worden, und 54% bezeichneten ihre Interaktion mit den Funktionären "überhaupt nicht nützlich". Der 2018er Erfahrungsbericht beschreibt gleichartige Ergebnisse, mit leichter Abnahme der Befragten, die sich unsicher fühlten.
Diese erhellenden Untersuchungen sind Antrieb für unsere Initiative für eine gesunde Gemeinschaft, allerdings nur ein Anfang. Um erfolgreich zu sein, braucht diese Unternehmung mehr Forschung.
Wünsche für neue Werkzeuge aus der Gemeinschaft
Die Wikimedia-Gemeinschaft kämpft schon lange darum, ihre Mitglieder vor böswilligen oder schädlichen Benutzern zu schützen. Die Werkzeuge, mit denen Projektadministratoren störende Benutzer von ihren Projekten ausschliessen können, haben sich seit den ersten Tagen der Mediawiki-Software nicht geändert. Freiwillige haben der Stiftung Verbesserungen bei verschiedenen Gelegenheiten vorgeschlagen, etwa:
- bei einer Umfrage unter deutschsprachigen Wikipedianern 2013
- innerhalb der Inspire-Kampagne zur Genderlücke 2014. Gruppenmitglieder [sich bessere Meldesystem für die von Belästigung betroffenen Personen]. Dies war auch ein wiederkehrendes Thema bei den einschlägigen Umfragen, Konsultationen, und Workshops.
- in der 2015er Umfrage "Wunschliste der Gemeinschaft"
- in zahlreichen IdeaLab-Förderanträgen. (In der Liste sieht man, welche Anträge Bezug zu unserer Arbeit haben.)
- und in einigen Phabricator-Anfragen, wie etwa "Bei jeder Sperre ein Cookie senden" (November 2015), "Vom User agent (UA) abhängige IP-Sperren ermöglichen" (Mai 2015), und "Kontenanlagen und Mailversand pro Browser und pro IP-Adresse verlangsamen" (Juli 2015). Vgl. dieses Ticket zur Koordination vieler Sperrtool-bezogenen Aufgaben.
- im Erfahrungsbericht der Gemeinschaftsbetreuung 2017. Dort forderten 84% von 300 Benutzern bessere Meldewerkzeuge, 77% bessere Meldeseiten, 74% bessere Sperrwerkzeuge, und 75% bessere Wikiregeln.
Bei der Vorbereitung dieser Initiative haben wir mit Administratoren und Funktionären über Probleme der bestehenden Werkzeuge und Abläufe gesprochen. Aus diesen Gesprächen stammen Verbesserungen in mehreren Schlüsselbereichen, wo Admins und Funktionäre sofortigen Bedarf sehen - bessere Meldesysteme für die Freiwilligen, klügere Wege zum frühzeitigen Erkennen und Bearbeiten von Problemen, und verbesserte Tools und Methoden bei den Sperrvorgängen. Wir werden diese Gespräche während des gesamten Ablaufs fortsetzen. Input und Teilnahme der Gemeinschaft werden für den Erfolg entscheidend sein.
Externe Finanzierung
Im Januar 2017 erhielt die Wikimedia Foundation US$500.000 Erstfinanzierung von der Craig Newmark Foundation und dem craigslist Charitable Fund zugunsten dieser Initiative.[4] Beide Anschubförderungen über je US$250,000 werden bei der Entwicklung von Werkzeugen für freiwillige Autoren und Angestellte helfen, um Belästigungen in der Wikipedia zu vermindern und Belästiger auszusperren. Der Förderantrag kann auf Wikimedia Commons eingesehen werden.
Ziele
- Das Ausmaß belästigenden Verhaltens auf Wikimedia-Projekten verringern.
- Einen größeren Anteil von Belästigungen, die sich auf Wikimedia-Projekten ereignen, fair auflösen.
Mögliche Erfolgskennzahlen
Belästigung zu messen ist schwierig, aber wir wollen doch sicher sein, dass unsere Arbeit für die Gemeinschaft wirkt. Laufende Ideen sind:
- Geringerer Prozentsatz an erkennbar persönlichen Angriffen in der englischsprachigen Wikipedia.
- Geringerer Prozentsatz von nichtadministrativen Benutzern, die Belästigungen melden, per Umfrage ermittelt.
- Höheres Vertrauen von Administratoren in ihre Fähigkeit, Streitfälle richtig zu entscheiden, per Umfrage ermittelt.
- Längerer Verbleib von neuen Benutzern
Jährliche und vierteljährliche Ziele
Für Hinweise zu unseren vierteljährlichen Fortschritten vgl. Initiative für eine gesunde Gemeinschaft / vierteljährliche Updates.
- Fiscal year 2017-2018
- Fiscal year 2017-2018, Quarter 1 (July-September 2017)
- Fiscal year 2017-2018, Quarter 2 (October-December 2017)
- Fiscal year 2017-2018, Quarter 3 (January-March 2018)
- Fiscal year 2017-2018, Quarter 4 (April-June 2018)
- Fiscal year 2018-2019
- Fiscal year 2018-2019, Quarter 1 (July-September 2018)
- Fiscal year 2018-2019, Quarter 2 (October-December 2018)
Beteiligung der Gemeinschaft
Den Input der Gemeinschaft zu sammeln, aufzunehmen, und zu diskutieren ist für den Erfolg dieser Initiative wesentlich. Wir bauen Funktionen, die unsere Gemeinschaften benutzen sollen - wenn wir im luftleeren Raum entwickeln, werden unsere Entscheidungen unausweichlich fehlschlagen.
Die im Förderantrag, auf dieser Seite, und anderswo vorgestellen Pläne werden sich natürlich ändern, während wir Rückmeldungen aus der Gemeinschaft sammeln (von Belästigungsopfern, Autoren, und Administratoren), aus unseren Untersuchungen lernen, und die Software erproben, die wir schreiben. Die Community zu beteiligen umfasst, ist aber nicht beschränkt auf:
- unsere Ziele zu vergesellschaften
- Ideen mit den Interessengruppen der Gemeinschaft zu erzeugen, zu verfeinern, zu erproben und fertigzustellen
- Gespräche über das Recht auf freie Rede vs. politische Korrektheit. Bei diesem Projekt soll unbedingt wahrgenommen werden, dass es sich um Mißbrauch kümmert, über den sich alle einig sind (offensichtlicher Sockenpuppenvandalismus, Todesdrohungen), und um Mißbrauchvarianten, die umstritten sind (Gender, Kultur usw.). Das Projekt scheitert, wenn es nur als "Gutmenschen"-Machtspiel gesehen wird.[5]
Im Verlauf dieser Initiative planen wir mit der Gemeinschaft über die üblichen Wikiwege zu kommunizieren (Diskussionsseiten, E-Mail, IRC); zusätzlich zu live-übertragenen Workshops, zu Workshops mit persönlicher Anwesenheit auf Hack-a-thons und Wikimanias, und zu Online-Konsultationen. Im Moment ist Talk:Community health initiative der beste Ort, um über die Initiative für eine gesunde Gemeinschaft zu diskutieren.
Werkzeuge gegen Belästigung
Kurz gesagt wollen wir Software schreiben, die Autoren und Administratoren zu zeitnahen, informierten Entscheidungen befähigt, wenn es zu Belästigung kommt. Vier Schwerpunkte wurden identifiziert, in denen neue Werkzeuge helfen würden, Belästigungen zu bearbeiten und zu beantworten.
Erkennen
Wir möchten es Autoren erleichtern, belästigendes Verhalten zu erkennen und zu markieren. Wir hinterfragen zur Zeit, wie man Belästigung schon vorbeugend verhindern kann, und wie man kleinere Ereignisse auflösen kann, bevor sie sich zu größeren Auseinandersetzungen auswachsen.
Potentielle Funktionen:
- Mißbrauchsfilter: Leistungsmanagement, Zugänglichkeit, und Funktionsverbesserungen
- Höhere Zuverlässigkeit und Genauigkeit für den ProcseeBot
- Verbesserung der einschlägigen Anti-spoof-Werkzeuge
- Funktionen, die Inhaltsvandalismus, Editwarring, Stalking, und belästigende Sprache für Administratoren und Angestellte hervortreten lassen
Melden
Kein Belästigungsopfer sollte die Mitarbeit aufgeben, weil es machtlos den Missbrauch nicht melden kann. Wir möchten den Betroffenen verbesserte Meldewege zur Vefügung stellen, die ihre Privatphäre respektieren, und weniger chaotisch und anstrengend sind als der derzeitige Ablauf. Gegenwärtig liegt die Beweislast auf dem Opfer, es muss seine eigene Unschuld und die Schuld des Belästigers beweisen. Wir denken aber, dass stattdessen die MediaWiki-Software die schwere Arbeit tun sollte.
Potentielle Funktionen:
- Ein neues System, um Belästigungen zu melden, nimmt die Beweislast von den Belästigungsopfern und verstimmt sie nicht noch mehr.
Bewerten
Admins müssen mit MediaWiki-Diffs, Versionsgeschichten, und Spezialseiten sehr gut vertraut sein, um die wahren Abläufe hinter einer Meldung analysieren und bewerten zu können. Von Freiwilligen geschriebene Tools wie der Editor Interaction Analyzer und [[1]] helfen, aber das gegenwärtige Verfahren braucht viel Zeit. Wir möchten Werkzeuge bauen, die den Freiwilligen beim Verständnis und der Bewertung von Belästigungsfällen helfen und die beste Antwort vorschlagen.
Potentielle Funktionen:
- Ein robustes Tool zur zeitlichen Interaktion, das den Wiki-Administratoren erlaubt, die Interaktion zweier Benutzer über die Zeit zu verstehen, und in Belästigungsfeällen informiert zu entscheiden.
- Ein privates System für Wiki-Administratoren, um Informationen zur Vorgeschichte der Benutzer zu sammeln einschliesslich Auflagen und Schiedsentscheidungen.
- Ein Armaturenbrett für Wiki-Administratoren, in dem sie laufende Untersuchungen und Disziplinarmassnahmen verwalten können.
- Wiki-übergreifende Tools, mit denen Wiki-Administroren Belästigungsfälle projekt- und sprachübegreifend verwalten können.
Sperren
Wir möchten neue Werkzeuge entwickeln und bestehende verbessern, um problematische Akteure falls erforderlich aus Gemeinschaften oder bestimmten Bereichen zu entfernen, und um ausgesperrten Personen die Rückkehr zu erschweren.
Einige dieser Verbesserungen sind bereits in der Entwicklung, als Teil der Community-Wunschliste 2016. Mehr Informationen dazu unter Community Tech/Blocking tools.
Mögliche Funktionen:
- Benutzersperren nach Seite und Kategorie setzen Topic-bans um und helfen den Wiki-Administratoren, störende Benutzer umzuleiten, ohne sie komplett von der Mitarbeit auszuschliessen. Das gibt den Admins mehr Sicherheit für zielgerichtetes Handeln in frühen Problemphasen.
- Tools, mit denen individuelle Benutzer steuern können, wer mit ihnen via Echobenachrichtigungen, E-Mail, und Benutzerseiten kommunizieren kann.
- Die globalen CheckUser-Tools projektübegreifend arbeiten lassen. Tools verbessern, die Benutzernamen mit IP-Adressen und User agents verknüpfen, um ihre Beiträge zu allen Wikimedia-Projekten in einer einzigen Abfrage zu prüfen.
- Verbesserte Sperrwerkzeuge, einschliesslich solche gegen Sockenpuppen.
Priorisierung der Arbeit
Gegenwärtig sind unsere Projekte im Anti-Harassment Phabricator workboard in der 'epischer-Rückstau'-Spalte priorisiert. Wir laden alle ein, ihre Ansichten zu unserer Einstufung in den Phabricator-Tickets, auf der umseitigen Diskussionsseite, oder per Mail an uns zu teilen.
Projekte werden vom Produktmanager priorisiert unter Berücksichtigung von:
- Reife — Was ist schon entworfen, definiert, und bereit zur Entwicklung? Gibt es Hinderungen?
- Wert — Was wird für unsere Benutzer den größten Wert haben? Was wird die größten Probleme zuerst lösen? Hat unsere Forschung spannende Möglichkeiten gefunden? Haben unsere vorherigen Funktionen neue Möglichkeiten oder Probleme verdeutlicht?
- Machbarkeit — Was können wir in der vorgegebenen Zeit und mit der Entwicklerkapazität erreichen? Sind wir technisch vorbereitet? Haben wir externe Entwicklerunterstützung, die unsere Arbeit beschleunigen wird?
- Unterstützung — Was hat die Unterstützung der Benutzer, die am gegenwärtigen Workflow teilnehmen? Welche Ideen haben den Rückenwind der Leute, die in der Wikipedia gegenwärtig Belästigungen ausgesetzt sind?
Regeln entwickeln und durchsetzen
Neben der Toolentwicklung möchten wir zusammen mit unseren größten Communities sicherstellen, dass deren Verhaltensregeln klar und wirksam sind, und die für die Durchsetzung verantwortlichen Administratoren gut vorbereitet.
Um mit der englischen Wikipedia anzufangen, einer großen Gemeinschaft mit reichem Datenbestand, werden wir den Autoren Forschung und Analyse bereitstellen: wie problematisches Verhalten in der englischen Wikipedia a) in den Regeln abgebildet ist, und b) von der Community behandelt wird, insbesondere auf den zuständigen Funktionsseiten. Wir werden alternative Methoden für speziellen Problemen untersuchen, ihre Wirksamkeit erforschen, und abweichende Herangehensweisen identifizieren, die in anderen Wikimedia-Projekten Erfolg hatten. Das wird unseren Gemeinschaften helfen, die bestehenden Verfahren informiert zu verändern.
Siehe auch
- Community health initiative/Links mehr Links.
- Community health initiative/Meeting notes Notizen zu den zweiwöchentlichen Sitzungen.
- Community health initiative/The Team eine Liste der WMF-Angestellten, die in dieser Initiative arbeiten.
- Phabricator workboard
- Forschung: Umfrage zu Belästigung 2015
- Inspire-Kampagne "Belästigung angehen" (Juni 2016)
- Stellungnahme des Stiftungsrates über gesunde Gemeinschaftskultur, Inklusivität, und Sichere Räume (November 2016)
Fußnoten
- ↑ "Wikipedia:List of administrators/Active". 2017-02-13.
- ↑ "Wikipedia:Harassment § Dealing with harassment.". 2017-02-12. Retrieved 2017-02-12.
- ↑ Duggan, Maeve (2017-07-11). "Online Harassment 2017". Pew Research Center: Internet, Science & Tech. Archived from the original on 2019-12-18. Retrieved 2017-07-25.
- ↑ "Wikimedia Foundation receives $500,000 from the Craig Newmark Foundation and craigslist Charitable Fund to support a healthy and inclusive Wikimedia community – Wikimedia Blog". Archived from the original on 2019-12-18. Retrieved 2017-02-13.
- ↑ "File:Wikimedia Foundation grant proposal - Anti-Harassment Tools For Wikimedia Projects - 2017.pdf - Meta" (PDF). meta.wikimedia.org. Retrieved 2017-02-14.