Bearbeiten als IP: Verbesserung der Privatsphäre und Verminderung des Missbrauchs

This page is a translated version of the page IP Editing: Privacy Enhancement and Abuse Mitigation and the translation is 67% complete.

Überblick

In den vergangenen Jahren wurde den Internetbenutzenden bewusster, welche Bedeutung die Kenntnis des Sammelns ihrer privaten Daten hat. Regierungen verschiedener Länder haben neue Gesetze erlassen, um die Privatsphäre der Nutzenden besser zu schützen. Die Abteilungen der Wikimedia Foundation für Rechtsfragen und Verhaltensregeln verfolgen aufmerksam die Entwicklungen in verschiedenen Rechtssystem in der ganzen Welt. Sie wollen die Privatsphäre der Nutzenden bestmöglich zu schützen, die Erwartungen der Nutzenden bestmöglich zu erfüllen und die Werte der Wikimedia Bewegung zu bewahren. Vor diesem Hintergrund wurden wir gebeten, eine technische Verbesserung der Projekte zu prüfen und einzuleiten. Wir müssen das mit Euch zusammen machen.

MediaWiki speichert und veröffentlicht die IP-Adressen von nicht-registrierten Beitragenden als Teil ihrer Signatur, in der Seitenhistorie und in Logs. MediaWiki macht die IP-Adressen für alle sichtbar, die unsere Websites besuchen. Die Veröffentlichung dieser IP-Adressen kompromittiert die Sicherheit und Anonymität dieser Nutzenden. In einigen Fällen führt sie sogar zum Risiko der staatlichen Verfolgung. Obgleich wir unseren Nutzenden sagen, dass ihre IP-Adressen sichtbar sein werden, verstehen nur wenige die Ausmaße dieser Information. Wir arbeiten an einem stärkeren Schutz der Privatsphäre für nicht-registrierte Beitragende, indem wir deren IP-Adresse verschleiern, wenn sie zu den Projekten beitragen ganz so wie durchschnittliche Lesende die IPs von angemeldeten Nutzenden nicht sehen können. Dazu wird die Schaffung eines Nutzendennamens für maskierte IPs gehören. Dieser Nutzendenname wird automatisch generiert, aber von Menschen lesbar sein. Wir haben verschiedene Ideen dazu, wie wir das am besten umsetzen können. Du kannst Kommentare hinterlassen, um uns Deine Bedürfnisse mitzuteilen.

Wikimedia Projekte haben sehr gute Gründe für das Speichern und Veröffentlichen von IP-Adressen: sie spielen eine wesentliche Rolle bei der Abwehr von Vandalismus und Belästigung in unseren Wikis. Es ist sehr wichtig, das Sichtende, Administrierende und Funktionstragende Werkzeuge haben, um Vandalierende, Sockenpuppen, Bearbeitende mit Interessenkonflikten und andere böswillig agierende zu identifizieren und zu blockieren.

Wir wollen mit Dir zusammenarbeiten, um Wege zu finden, um die Privatsphäre unserer Nutzenden zu schützen. Gleichzeitig sollen Anti-Vandalismus-Werkzeuge weiterhin so funktionieren, wie sie es bisher tun. Der wichtigste Teil dieser Entwicklung neuer Werkzeuge ist die Unterstützung des Anti-Vandalismus. Wenn das getan ist, hoffen wir an dem Schutz der IP-Adressen in unseren Wikis arbeiten zu können – einschließlich der Begrenzung der Anzahl von Leuten, die die IP-Adressen anderer Nutzenden sehen können und der Reduzierung der Speicherdauer der IP-Adressen in unseren Datenbanken und Logs. Es ist wichtig zu beachten, dass ein kritischer Teil dieser Arbeit sein wird, dass unsere Wikis weiterhin Zugriff auf gleichwertige – oder besssere – Anti-Vandalismmus-Werkzeuge haben und nicht dem Risiko ausgesetzt werden, missbraucht zu werden.

Das Ziel der Wikimedia Foundation ist es, ein Set von Moderationswerkzeugen zu schaffen. Diese Werkzeuge sollen die Notwendigkeit beseitigen, dass alle direkten Zugriff auf die IP-Adressen haben. Mit dieser Evolution unserer Moderationswerkzeuge werden wir in der Lage sein, die IPs der nicht-registrierten Benutzenden-Konten zu maskieren. Wir sind uns bewusst, dass diese Änderung die gegenwärtigen Moderationsarbeitsabläufe beeinflussen wird. Wir wollen sicherstellen, dass die neuen Werkzeuge eine effektive Moderation ermöglichen, die Projekte vor Vandalismus beschützen und die Aufsicht der Gemeinschaft unterstützt.

Wir erreichen die Entscheidungspunkt nur, wenn wir partnerschaftlich mit CheckUsers, Stewards, Admins und anderen Vandalismusbekämpfenden zusammenarbeiten.

Das ist ein sehr herausforderndes Problem. Es gibt Risiken für unsere Fähigkeit, unsere Wikis zu beschützen, wenn wir Fehler machen. Darum haben wir uns jahrelang darum gedrückt. Aber im Licht der aufkommenden Standards für den Schutz der Privatsphäre im Internet, neuen Gesetzen und geänderten Erwartungen der Nutzenden glaubt die Wikimedia Foundation, dass es nun Zeit ist, dieses Problem anzugehen.

Updates

30. August 2021

Hello. This is a brief update about Portuguese Wikipedia’s metrics since they started requiring registration to edit. We have a comprehensive report on the Impact report page. This report includes metrics captured through data as well as a survey that was conducted among active Portuguese Wikipedia contributors. All in all, the report presents the change in a positive light. We have not seen any significant disruption over the time period these metrics have been captured. In light of this, we are now encouraged to run an experiment on two more projects to see if we observe similar impact. All projects are unique in their own ways and what holds true for Portuguese Wikipedia might not hold true for another project. We want to run a limited-time experiment on two projects where registration will be required in order to edit. We estimate that it will take approximately 8 months for us to collect enough data to see significant changes. After that time period, we will return to not requiring registration to edit while we analyse the data. Once the data is published, the community will be able to decide for themselves whether or not they want to continue to disallow unregistered editing on the project.

We are calling this the Login Required Experiment. You will find more detail as well as a timeline on that page. Please use that page and its talk page to discuss this further.

10. Juni 2021

Hi everyone. It has been a few months since our last update on this project. We have taken this time to talk to a lot of people — across the editing community and within the Foundation. We have put careful consideration towards weighing all the concerns raised in our discussions with experienced community members about the impact this will have on anti-vandalism efforts across our projects. We have also heard from a significant number of people who support this proposal as a step towards improving privacy of unregistered editors and reducing the legal threat that exposing IPs to the world poses to our projects.

When we talked about this project in the past, we did not have a clear idea of the shape this project will take. Our intention was to understand how IP addresses are helpful to our communities. We have since received a lot of feedback on this front from a number of conversations in different languages and in different communities. We are very grateful to all the community members who took the time to educate us about how moderation works on their wikis or in their specific cross-wiki environment.

Proposal for sharing IP addresses with those who need access

We now have a more concrete proposal for this project that we hope will allow for most of the anti-vandalism work to happen undeterred while also restricting access to IP addresses from people who don’t need to see them. I want to emphasize the word “proposal” because it is in no way, shape or form a final verdict on what will happen. Our intention is to seek your feedback about this idea – What do you think will work? What do you think won’t work? What other ideas can make this better? We developed these ideas during several discussions with experienced community members, and we’ve refined them in collaboration with our Legal department. Here’s the outline:

  • Checkusers, stewards and admins should be able to see complete IP addresses by opting-in to a preference where they agree not to share it with others who don't have access to this information.
  • Editors who partake in anti-vandalism activities, as vetted by the community, can be granted a right to see IP addresses to continue their work. This could be handled in a similar manner as adminship on our projects. The community approval is important to ensure that only editors who truly need this access can get it. The editors will need to have an account that is at least a year old and have at least 500 edits.
  • All users with accounts over a year old and at least 500 edits will be able to access partially unmasked IPs without permission. This means an IP address will appear with its tail octet(s) – the last part(s) – hidden. This will be accessible via a preference where they agree not to share it with others who don't have access to this information.
  • All other users will not be able to access IP addresses for unregistered users.

IP address access will be logged so that due scrutiny can be performed if and when needed. This is similar to the log we maintain for checkuser access to private data. This is how we hope to balance the need for privacy with the communities’ need to access information to fight spam, vandalism and harassment. We want to give the information to those who need it, but we need a process, we need it to be opt-in so that only those with an actual need will see it and we need the accesses to be logged.

We would like to hear your thoughts about this proposed approach. Please give us your feedback on the talk page.

  • What do you think will work?
  • What do you think won’t work?
  • What other ideas can make this better?

Update on tool development

As you might already know, we are working on building some new tools, partly to soften the impact of IP Masking, but also just to build better anti-vandalism tools for everyone. It is not a secret that the state of moderation tools on our projects doesn’t give the communities the tools they deserve. There is a lot of scope for improvement. We want to build tools that make it easier for anti-vandalism fighters to work effectively. We also want to reduce the barrier to entry into these roles for non-technical contributors.

We have talked about ideas for these tools before and I will provide a brief update on these below. Note that progress on these tools has been slow in the last few months as our team is working on overhauling SecurePoll to meet the needs of the upcoming WMF Board elections.

IP Info feature

 
Mockup for IP Info

We are building a tool that will display important information about an IP address which is commonly sought in investigations. Typically patrollers, admins and checkusers rely on external websites to provide this information. We hope to make this process easier for them by integrating information from reliable IP-vendors within our websites. We recently built a prototype and conducted a round of user testing to validate our approach. We found that a majority of the editors in the interview set found the tool helpful and indicated they would like to use it in the future. There is an update on the project page that I would like to draw your attention to. Key questions that we would like to have your feedback on the project talk page:

  • When investigating an IP what kinds of information do you look for? Which page are you likely on when looking for this information?
  • What kinds of IP information do you find most useful?
  • What kinds of IP information, when shared, do you think could put our anonymous editors at risk?

Editor matching feature

This project has also been referred to as "Nearby editors" and "Sockpuppet detection" in earlier conversations. We are trying to find a suitable name for it that is understandable even to people who don't understand the word sockpuppetry. We are in the early stages of this project. Wikimedia Foundation Research has a project that could assist in detecting when two editors exhibit similar editing behaviors. This will help connect different unregistered editors when they edit under different auto-generated account usernames. We heard a lot of support for this project when we started talking about it a year ago. We also heard about the risks of developing such a feature. We are planning to build a prototype in the near term and share it with the community. There is a malnourished project page for this project. We hope to have an update for it soon. Your thoughts on this project are very welcome on the project talk page.

Data on Portuguese Wikipedia disabling IP edits

Portuguese Wikipedia banned unregistered editors from making edits to the project last year. Over the last few months, our team has been collecting data about the repercussions of this move on the general health of the project. We have also talked to several community members about their experience. We are working on the final bits to compile all the data that presents an accurate picture of the state of the project. We hope to have an update on this in the near future.

Vorangegangenes Update

30. Oktober 2020

Wir haben die FAQ mit weiteren Fragen aktualisiert, die auf der Diskussionsseite gestellt wurden. Die Rechtsabteilung der Wikimedia Foundation hat auf Anfrage auf der Diskussionsseite eine Stellungnahme hinzugefügt, und wir haben sie hier auf der Hauptseite hinzugefügt. Auf der Diskussionsseite haben wir versucht, grob zu erklären, wie wir darüber denken, den Vandalenbekämpfenden Zugang zu den Daten zu geben, die sie brauchen, ohne dass sie CheckUser oder Admins sein müssen.

15. Oktober 2020

Diese Seite war größtenteils veraltet und wir haben uns entschlossen, Teile davon neu zu schreiben, um zu zeigen, wo wir im Prozess stehen. So sah sie früher aus. Wir haben sie mit den neuesten Informationen über die Werkzeuge, an denen wir arbeiten, und die Forschung aktualisiert, die Motivationen ausgearbeitet und ein paar Dinge in der FAQ hinzugefügt. Besonders relevant sind wahrscheinlich unsere Arbeit an der IP-Info-Funktion, das neue CheckUser-Werkzeug, das jetzt auf vier Wikis live ist, und unsere Forschung über den besten Weg, die IP-Identifikation zu handhaben: Lasst uns wissen, was Ihr braucht, die möglichen Probleme, die Ihr seht, und ob eine Kombination aus IP und einem Cookie für Eure Arbeitsabläufe nützlich sein könnte.

Werkzeuge

Wie zuvor erwähnt, ist unser oberstes Ziel, unseren Communities bessere Anti-Vandalismus-Werkzeuge zur Verfügung zu stellen. Das soll eine bessere Moderationserfahrung für unsere Vandalismusbekämpfenden bieten. Gleichzeit arbeiten wir daran, IP-Adressen weniger wichtig für sie zu machen. An anderer wichtiger Grund dafürist, dass IP-Adressen schwer zu verstehen und nur für technisch versierte Nutzende äußerst nützlich sind. Das erschafft für neue Nutzende ohne technischen Hintergrund eine Barriere für den Einstieg in Funktionsrollen. Durch die Arbeit mit IP-Adressen gibt es eine größere Lernkurve für sie. Wir hoffen zu erreichen, dass Moderationswerkzeuge von allen auch ohne große Vorkenntnisse verwendet werden können.

Wir haben uns entschieden, uns zuerst darauf zu fokussieren, das CheckUser-Tool flexibler, mächtiger und einfacher bedienbar zu machen. Es ist ein wichtiges Werkzeug, dass der Notwendigkeit dient, in vielen unserer Projekte böswillige Akteure aufzuspüren und zu blockieren (insbesondere Langzeittäter). Das CheckUser-Tool wurde viele Jahre schlecht verwaltet. Es wirkt darum veraltet und es fehlen notwendige Funktionen.

Wir erwarten zudem einen Anstieg der Anzahl von Nutzenden, die CheckUser in unseren Projekten werden möchten, wenn das IP-Maskieren angeschaltet wird. Das erneuerte die Notwendigkeit für eine bessere, einfachere CheckUser-Erfahrug für unsere Nutzenden. Darum verbrachte das Team der Anti-Belästigungs-Werkzeuge das vergangene Jahr damit, das CheckUser-Tool zu verbessern – um es deutlich effizienter und nutzendenfreundlicher zu machen. Bei dieser Arbeit wurden eine Menge ausstehender Funktionswünsche der Community berücksichtigt. Wir haben während des Projekts stetig mit den CheckUsern und Stewards gesprochen. Wir haben unser bestes gegeben, um deren Erwartungen zu erfüllen. Die neuen Funktionen sollen in allen Projekten im Oktober 2020 freigeschaltet werden.

Die nächste Funktion, an der wir arbeiten, ist IP info. Wir haben uns für dieses Projekt nach eine Runde von Beratungen in sechs Wikis entschieden. Die Beratungen haben uns geholfen, die Anwendungsfälle für die Nutzung von IP-Adressen in unseren Projekten einzugrenzen. Es wurde früh klar, dass IP-Adressen einige kritische Informationen bieten, die die Patroller brauchen, um ihre Rollen effektiv auszufüllen. Das Ziel von IP Info war darum, wesentliche Informationen über eine IP-Adresse schnell und einfach anzuzeigen. IP-Adressen bieten wichtige Informationen, wie Ort, Organisation, mögliche verwendung von Tor/VPN-Knoten und rDNS, um nur einige Beispiele zu nennen. Indem wir das schnell und einfach ohne externe Werkzeuge anzeigen, die nicht alle verwenden kann, hoffen wir den Patrollern ihre Arbeit zu erleichtern. Die zur Verfügung gestellten Informationen sind unspezifisch genug, um die Privatsphäre der anonymen Nutzenden nicht zu gefährden. Gleichzeitig sind es genug Informationen, damit die Patroller qualifizierte Entscheidungen zu einer IP-Adresse treffen können.

Nach IP Info werden wir uns auf die Funktion Ähnliche Bearbeitende finden konzentrieren. Wir werden ein Maschinenlernmodell verwenden, dass mit CheckUsers zusammenarbeitet und mit historischen CheckUser-Daten trainiert wird, um Nutzendenverhalten zu vergleichen und zu markieren, wenn zwei oder mehr Nutzende sich zu ähnlich zu verhalten scheinen. Das Modell wird berücksichtigen, auf welchen Seiten Nutzende aktiv sind, ihre Schreibstile, Bearbeitungszeiten etc. um Vorhersagen zur Ähnlichkeit zweier Nutzender zu treffen. Wir kommen unserer Sorgfaltspflicht nach, indem wir sicherstellen, dass das Modell zu akkurat wie möglich ist.

Wenn es fertig ist, gibt es vieles, was so ein Modell tun kann. In einem ersten Schritt werden wir es verwenden, damit CheckUsers Sockenpuppen einfach und ohne viel händische Arbeit auffinden kann. Für die Zukunft können wir darüber nachdenken, wie dieses Werkzeug mehr Leuten zur Verfügung stellen können und es verwenden können, um bösartige Sockenpuppenringe und Falschinformationskampagnen aufzuspüren.

Du kannst auf unserer Projektseite für Werkzeuge mehr erfahren und Kommentare hinterlassen.

Motivation

Wir, die wir hieran arbeiten, tun das, weil die Teams für Recht und Öffentliche Richtlinien uns angewiesen hat, den Umgang der Projekte mit IP-Adressen zu verbessern, um mit den gegenwärtigen Datenschutzstandards, Gesetzen und Erwartungen der Nutzenden in Einklang zu stehen. Das ist tatsächlich der Hauptgrund.

Wir denken auch, dass auch andere zwingende Gründe gibt, daran zu arbeiten. Wenn Leute beitragen wollen und die Auswirkungen der öffentlichen Speicherung ihrer IP-Adressen nicht verstehen, dann führt der Wunsch, die Welt und das Wiki zu einem besseren Ort zu machen zu einem ungewollten Teilen ihrer persönlichen Daten mit der Öffentlichkeit. Das ist keine neue Diskussion: wir führen sie, seit es Wikimedia-Wikis gibt. Eine IP-Adresse kann verwendet werden, um den geografischen Ort, die Institution und andere persönlich zuortbaren Daten von Nutzenden herauszufinden, abhängig davon, wie die IP-Adresse zugeordnet wurde und von wem. Das kann manchmal bedeuten, dass eine IP-Adresse verwendet werden kann, genau zuzuordnen, wer eine Bearbeitung gemacht hat und von wo, insbesondere wenn es nur wenige Benutzende in einem geografischen Gebiet gibt. Bedenken wegen der Offenlegung von IP-Adressen in unseren Projekten wurden immer wieder von unseren Communities vorgebracht und in der gesamten Wikimedia Bewegung wurde seit mindestens 15 Jahren diskutiert, wie dieses Problem gelöst werden könnte. Hier ist eine (unvollständige) List einiger vorangegangener Diskussionen zum Thema.

Wir erkennen an, dass es sich um ein kniffliges Thema handelt. Es hat das Potenzial, Arbeitsabläufe zu unterbrechen, die wir sehr schätzen, und wirklich nicht unterbrechen wollen. Wir machen diese Arbeit nur aus einem sehr guten Grund. Das sind unabhängig voneinander wichtige Themen und zusammen haben sie uns zu diesem Projekt inspiriert: unser eigenes Bedürfnis und unsere Verpflichtung, die zu schützen, die zu den Wikis beitragen wollen und die Entwicklungen in der Welt, in der wir leben, und Online-Umgebung, in der die Projekte existieren.

Forschung

 
Ein von der Wikimedia Foundation unterstützter Bericht zum Einfluss, den IP-MAskierung auf unsere Community haben wird.

Einfluss der IP-Maskierung

IP-Adressen sind wertvoll als halbverlässliche Identifizierungsmerkmale, die von den damit verbundenen Nutzenden nicht so einfach manipuliert werden können. Abhängig vom Provider und der Gerätekonfiguration sind die Informationen aus der IP-Adresse nicht immer akkurat oder präzise. Zudem sind tiefe technische Kenntnis und Erfahrung notwendig, um die IP-Adressen bestmöglich zu nutzen. Trotzdem müssen Administrierende derzeit keine solche Erfahrung nachweisen, um Zugriff zu haben. Diese technische Information wird verwendet, um, wenn möglich, zusätzliche Informationen zu stützen (genannt “Verhaltenswissen”, engl. “behavioural knowledge”). Die aus der IP-Adresse gewonnenen Informationen haben einen wesentlichen Einfluss auf die Richtung der administrativen Handlungen.

Auf der sozialen Seite war die Frage, ob nicht-registrierte Nutzende Bearbeitungen vornehmen dürfen, Gegenstand einer umfangreichen Diskussion. Derzeit ist die Tendenz, nicht-registrierten Nutzenden das Bearbeiten zu erlauben. Die ist eingerahmt von dem Bedürfnis, Vandalismus Einhalt zu gebieten gegenüber der Erhaltung der Möglichkeit pseudo-anonymen Bearbeitens und dem Senken der Barriere zum Einstieg in die Bearbeitung. Man geht von einer Voreingenommenheit gegenüber nicht-registrierten Nutzenden aus, da sie mit Vandalismus in Verbindung gebracht werden. Das spiegelt sich auch als algorithmische Voreingenommenheit in Werkzeugen wir ORES wider. Zusätzlich gibt es wesentliche Kommunikationsprobleme, wenn man sich an nicht-registrierte Nutzende wenden will. Dies ergibt sich vor allem daraus, dass sie keine Meldungen erhalten können und weil es keine Garantie gibt, dass die richtige Person die Nachrichten liest, die man auf der Diskussionsseite eines IP-Accounts hinterlässt.

Was die potenziellen Auswirkungen der IP-Maskierung betrifft, so wird sie erheblichen Einfluss auf die Arbeitsabläufe der Administratoren haben und kann die Belastung für CheckUsers kurzfristig erhöhen. Falls oder wenn IP-Adressen maskiert werden, sollten wir erwarten, dass die Fähigkeit unserer Admins, Vandalismus zu verwalten, stark beeinträchtigt wird. Dies kann durch die Bereitstellung von Werkzeugen mit gleichwertiger oder größerer Funktionalität gemildert werden, aber wir sollten mit einer Übergangszeit rechnen, die durch eine reduzierte Effektivität der Admins gekennzeichnet ist. Um die Arbeit unserer Administratoren angemessen zu unterstützen, müssen wir darauf achten, die folgenden Funktionen, die derzeit von IP-Informationen erfüllt werden, beizubehalten oder Alternativen dazu bereitzustellen:

  • Effektivität und Sicherheitenabschätzung blockieren
  • Eine Möglichkeit, Ähnlichkeiten oder Muster unter unregistrierten Benutzern zu erkennen, wie z. B. geografische Ähnlichkeit, bestimmte Institutionen (z. B. wenn Bearbeitungen von einer Schule oder Universität kommen)
  • Die Möglichkeit, bestimmte Gruppen nicht-registrierter Nutzender anzusprechen, z. B. Vandalen, die wechselnde IPs innerhalb eines bestimmten Bereichs haben
  • Orts- oder institutionsspezifische Aktionen (nicht notwendigerweise Sperren); z. B. die Möglichkeit, festzustellen, ob Bearbeitungen von einem offenen Proxy oder einem öffentlichen Ort wie einer Schule oder öffentlichen Bibliothek vorgenommen werden.

Je nachdem, wie wir mit temporären Konten oder Identifikatoren für nicht-registrierte Nutzende umgehen, können wir die Kommunikation mit nicht-registrierten Nutzenden verbessern. Die zugrundeliegenden Diskussionen und Bedenken bezüglich des unregistrierten Editierens, des anonymen Vandalismus und der Voreingenommenheit gegenüber nicht-registrierten Nutzenden werden sich wahrscheinlich nicht wesentlich ändern, wenn wir IPs maskieren, vorausgesetzt, wir behalten die Möglichkeit, Projekte zu bearbeiten, während sie abgemeldet sind.

CheckUser-Arbeitsablauf

Während unseres Prozesses zur Entwicklung des neuen Special:Investigate-Werkzeugs haben wir CheckUser zu mehreren Projekten befragt. Basierend auf Interviews und Walkthroughs von realen Fällen haben wir den allgemeinen CheckUser-Arbeitsablauf in fünf Abschnitte unterteilt:

  • Triaging: Bewertung der Fälle auf Machbarkeit und Komplexität.
  • Profiling: Erstellen eines Verhaltensmusters, das die nutzende Person hinter mehreren Konten identifiziert.
  • Checking: Untersuchung von IPs und Benutzeragenten mit dem CheckUser-Werkzeug.
  • Beurteilung: Abgleich dieser technischen Informationen mit den im Schritt Profiling ermittelten Verhaltensinformationen, um eine endgültige Entscheidung über die zu ergreifenden administrativen Maßnahmen zu treffen.
  • Closing: Berichterstattung über das Ergebnis der Untersuchung auf öffentlichen und privaten Plattformen, falls erforderlich, und angemessene Archivierung der Informationen für die zukünftige Verwendung.

Wir haben auch mit Mitarbeitern von Trust and Safety zusammengearbeitet, um ein Gefühl dafür zu bekommen, wie das CheckUser-Werkzeug in die Untersuchungen der Wikimedia Foundation und die Fälle, die an T&S eskaliert werden, einfließt.

Die häufigsten und offensichtlichsten Schmerzpunkte drehten sich alle um die nicht-intuitive Informationsdarstellung des CheckUser-Tools und die Notwendigkeit, jeden einzelnen Link in einem neuen Tab zu öffnen. Dies führte zu massiver Verwirrung, da die Masse der Tabs schnell außer Kontrolle geriet. Erschwerend kommt hinzu, dass die Informationen, die CheckUser anzeigt, sehr technisch und auf den ersten Blick nicht leicht zu verstehen sind, so dass die Tabs schwer zu verfolgen sind. Alle Interviewten gaben an, dass sie auf separate Software oder physisch auf Stift und Papier zurückgriffen, um den Überblick über die Informationen zu behalten.

Wir haben auch einige grundlegende Analysen der Sockenpuppenuntersuchungen der englischsprachigen Wikipedia-Seite durchgeführt, um einige grundlegende Metriken zu erhalten, wie viele Fälle sie bearbeiten, wie viele abgelehnt werden und wie viele Sockenpuppen ein bestimmter Bericht enthält.

Verwendung von IP-Adressen für das Patrolling

Frühere Forschungen über das Patrolling in unseren Projekten haben sich im Allgemeinen auf die Arbeitsbelastung oder den Arbeitsablauf von Patrouillierenden konzentriert. Die jüngste Studie Patrolling on Wikipedia konzentriert sich auf die Arbeitsabläufe der Patrouillierenden und die Identifizierung potenzieller Bedrohungen für die aktuellen Anti-Vandalismus-Praktiken. Ältere Studien, wie die New Page Patrol survey und die Patroller work load study, konzentrieren sich auf die englischsprachige Wikipedia. Sie befassen sich ebenfalls ausschließlich mit der Arbeitsbelastung der Patrouillierenden und insbesondere damit, wie sich die Bot-Patrolling-Werkzeuge auf die Arbeitsbelastung der Patrouillierenden ausgewirkt haben.

In unserer Studie wurde versucht, aus fünf Ziel-Wikis zu rekrutieren:

  • Japanischsprachige Wikipedia
  • Niederländischsprachige Wikipedia
  • Deutschsprachige Wikipedia
  • Chinesischsprachige Wikipedia
  • Englischsprachige Wikiquote

Sie wurden wegen der der bekannten Einstellungen zu IP-Bearbeitungen, dem Prozentsatz der monatlichen Bearbeitungen, die von IPs vorgenommen wurden, und anderen einzigartigen oder ungewöhnlichen Umständen ausgewählt, mit denen IP-Bearbeitende konfrontiert sind, nämlich die Verwendung der Funktion "Pending Changes" (eine Art "gesichtete Versionen") und die weit verbreitete Verwendung von Proxies. Die Teilnehmenden wurden über offene Aufrufe auf Village Pumps oder dem lokalen Äquivalent rekrutiert. Wo möglich, haben wir auch auf Wiki-Botschaftsseiten gepostet. Leider hatten wir zwar Dolmetscherunterstützung für die Interviews selbst, aber keine Übersetzungsunterstützung für die Botschaften, was möglicherweise für die niedrigen Antwortraten verantwortlich war. Alle Interviews wurden über Zoom durchgeführt, wobei eine protokollierende Person anwesend war.

Die Ergebnisse früherer Studien bestätigend, fanden wir keine systematische oder einheitliche Verwendung von IP-Informationen. Außerdem wurden diese Informationen erst ab einer bestimmten Schwelle des Verdachts gesucht. Die meisten weiteren Untersuchungen verdächtiger Nutzendenaktivitäten beginnen mit öffentlich zugänglichen On-Wiki-Informationen, wie z. B. der Überprüfung früherer lokaler Bearbeitungen, globaler Beiträge oder der Suche nach früheren Sperren.

Präzision und Genauigkeit waren weniger wichtige Eigenschaften für IP-Informationen: Als wir sahen, dass eine ausgewählte IP-Informationsseite drei verschiedene Ergebnisse für den geografischen Standort derselben IP-Adresse lieferte, erwähnte einer unserer Interviewpartner, dass die Präzision des Standorts nicht so wichtig sei wie die Konsistenz. Das heißt, solange eine IP-Adresse konsistent als aus einem Land stammend angezeigt wurde, spielte es weniger eine Rolle, ob sie korrekt oder präzise war. Dies deckt sich mit unserem Verständnis davon, wie IP-Adressinformationen verwendet werden: als eine halbwegs eindeutige Information, die mit einem einzelnen Gerät oder einer einzelnen Person assoziiert wird und die für den Durchschnittsbürger relativ schwer zu fälschen ist. Die Genauigkeit oder Präzision der dem Benutzer zugeordneten Informationen ist weniger wichtig als die Tatsache, dass sie zugeordnet und schwer zu ändern sind.

Unsere Ergebnisse heben einige wichtige Designaspekte für das IP-Info-Werkzeug hervor:

  • Liefere auf einen Blick Schlussfolgerungen über Rohdaten
  • Die die wichtigsten Aspekte von IP-Informationen ab:
    • Geolokalisierung (wenn möglich auf Stadt- oder Bezirksebene)
    • Registrierte Organisation
    • Verbindungstyp (hoher Datenverkehr, wie von einem Rechenzentrum oder Mobilfunknetz, gegenüber niedrigem Datenverkehr, wie bei privatem Breitband)
    • Proxy-Status als binäres Ja oder Nein

Als ethischer Punkt wird es wichtig sein, erklären zu können, wie alle Schlussfolgerungen erreicht werden, und die Ungenauigkeit oder Unpräzision erklären zu können, die mit dem Abrufen von IP-Informationen einhergeht. Obwohl dies für die Patrouilleure, mit denen wir gesprochen haben, kein großes Problem darstellte, sollten wir, wenn wir ein Tool erstellen, das zur Begründung von Verwaltungsmaßnahmen verwendet wird, darauf achten, dass wir die Grenzen unseres Tools deutlich machen.

FAQ

Frage: Werden Nutzende mit erweiterten Rechten, wie CheckUser, Admins und Stewards weiterhin Zugriff auf die IP-Adressen haben, wenn dieses Projekt abgeschlossen ist?

Antwort: Wir haben noch keine abschließende Antwort auf diese Frage. Im besten Fall sollten IP-Adressen von so wenig Leuten wie möglich eingesehen werden können (einschließlich WMF-Angestellten). Wir hoffen, den Zugang zu den IP-Adressen nur auf die Nutzenden einschränken zu können, die das brauchen.

Frage: Wie können Anti-Vandalismus-Werkzeuge ohne IP-Adressen funktionieren?

Antwort: Es gibt einige vielversprechende Ideen, wie man dieses Ziel erreichen kann. Zunächst könnten wir andere relevante Informationen über die Nutzenden anstelle der IP-Adressen anzeigen, die aber denselben Informationsgehalt bieten. Zusätzlich könnte es möglich sein, automatisch zu prüfen, ob zwei Accounts dieselbe IP-Adresse verwenden, ohne die IP-Adressen anzuzeigen - für Fälle von Sockenpuppen-Untersuchungen. Es ist auch möglich, dass Anti-Vandalismus-Werkzeuge weiterhin IP-Adressen verwenden, aber eingeschränkten Zugang haben. Wir müssen eng mit der Community zusammenarbeiten, um optimale Lösungen zu finden.

Frage: Wenn wir die IP-Adressen nicht sehen, was würden wir denn sehen, wenn Bearbeitungen von nicht-registrierten Nutzenden gemacht werden?

Antwort: Anstelle von IP-Adressen könnten Nutzende einen eindeutigen, automatisch generierten, menschenlesbaren Nutzendennamen sehen. Das könnte beispielsweise wie “Anonymous 12345” aussehen.

Frage: Wird der neue Nutzendenname für jede unregistrierte Bearbeitungen generiert werden?

Antwort: Nein. Wir wollen einige Methoden erstellen, um den generierten Nutzendennamen wenigstens teilweise persistent zu machen. Zum Beispiel könnte er mit einem Cookie, der IP-Adresse des Nutzenden, oder beidem verbunden werden.

Frage: Werdet ihr im Rahmen dieses Projektes auch die bestehenden IP-Adressen aus den Wikis entfernen?

Antwort: Wir werden für dieses Projekt keine existierenden IP-Adressen in der Historie, den Logs oder Signaturen verbergen. Es werden nur Bearbeitungen betroffen sein, die nach dem Start dieses Projekts gemacht werden.

Frage: Ist dieses Projekt das Ergebnis eines bestimmten erlassenen Gesetzes?

Antwort: Nein. Datenschutzstandards kommen in vielen Ländern und Regionen in der ganzen Welt auf, wie auch entsprechende Erwartungen der Nutzenden. Wir haben immer hart am Schutz der Privatsphäre der Nutzenden gearbeitet. Wir lernen weiterhin von den besten Umsetzungen und wenden sie auf Basis neuer Standards und Erwartungen an. Dieses Projekt ist der nächste Schritt unserer eigenen Evolution.

Frage: Wie ist der Zeitplan dieses Projekts?

Antwort: Wie oben erwähnt, werden wir keine verbindlichen Entscheidungen für dieses Projekt treffen, bevor wir Input von den Communities eingeholt haben. Wir wollen sinnvolle erste Schritte herausfinden, an denen ein Entwicklungsteam bald arbeiten kann. So können wir bald mit diesem Projekt starten, dass sehr lange laufen wird. Aber wir müssen uns nicht beeilen, um eine bestimmte Deadline zu erreichen.

Frage: Wie kann ich mitmachen?

Antwort: Wir würden gern wissen, ob Du Ideen und Feedback zu diesem Projekt hast! Wir würden insbesondere gern wissen, ob Du Arbeitsabläufe (Workflows) oder Prozesse kennst, die von diesem Projekt betroffen sein könnten. Du kannst Deine Gedanken auf der Diskussionsseite hinterlassen. Oder Du füllst dieses Google-Formular aus. Wir melden uns dann bei Dir. Einige von uns werden bei der Wikimania dabei sein und würden Dich auch gern dort treffen.

Frage: Warum ist dieser Entwurf so unklar?

Antwort: Es ist eigentlich kein Entwurf und sollte nicht so genannt werden. Wir haben keine Lösung. Aber wir wollen die besten Lösungen mit unseren Communities finden. Es könnte hilfreich sein dies als technische Untersuchung zu verstehen, um herauszufinden, wie IP-Maskierung funktionieren könnte.

Frage: Warum schaltet ihr nicht einfach die Möglichkeit ab, Bearbeitungen ohne Anmeldung vorzunehmen?

Antwort: Bearbeitungen ohne Registrierung funktioniert über verschiedene Wikimedia-Wikis hinweg. Zum Beispiel wurden in der schwedischsprachigen Wikipedia ihm Rahmen dieser Untersuchung Bearbeitungen ohne Registrierung diskutiert. Dort wurde entschieden, dass es weiterhin möglich sein soll, ohne Anmeldung Bearbeitungen vorzunehmen. In der japanischsprachigen Wikipedia gibt es einen viel höheren Anteil von Bearbeitungen ohne Registrierung als in der englischsprachigen Wikipedia. Aber die Rate der rückgängig gemachten Bearbeitungen nicht registrierter Beitragender beträgt im Vergleich nur ein Drittel – 9,5 % verglichen mit 27,4 %. Daraus kann man schließen, dass sie viel nützlicher sind. Wir denken, sich dafür zu entscheiden, in allen Wikis Bearbeitungen ohne Registrierung zu unterbinden eine zerstörerische Lösung ist. Die Untersuchung von Bearbeitungen ohne Registrierung lässt auch darauf schließen, dass sie wichtig für die Gewinnung von neuen Beitragenden ist.

Frage: Wer wird nun Zugriff auf die IPs nicht registrierter Nutzender haben?

Antwort: Wir werden diese Last nicht allein auf z. B. die CheckUsers und Stewards übertragen. Wir werden ein neues Nutzendenrecht bekommen oder die Möglichkeit, sich für die Einsicht von IPs anzumelden, wenn man bestimmte Anforderungen erfüllt. Andere könnten einen Teil der IP-Adressen sehen. Wir sprechen gerade mit den Communities, um herauszufinden, wie das am besten funktionieren könnte.

Frage: Wurde das bereits entschieden?

Antwort: Ja. Die Rechtsabteilung der Wikimedia Foundation hat festgestellt, dass das notwendig ist. Als die Organisation, die rechtlich für den Schutz der Privatsphäre der Wikimedia-Nutzenden verantwortlich ist, hat die Wikimedia Foundation diesen Rat akzeptiert. Sie arbeitet nun daran, den besten Weg für eine Umsetzung zu finden. Gleichzeitig unterstützt und spricht sie mit den Communities der Nutzenden. Einige Wikmedians werden damit unglücklich sein. Aber rechtliche Entscheidungen wie diese sind nicht Gegenstand eines Community-Konsens. Die Communities können sich an der Entscheidung beteiligen, wie wir das machen werden. Das muss unbedingt zusammen mit den Wikimedia-Communities festgelegt werden.

Frage. Wird die Maskierung global, für alle Wikimedia-Wikis, oder lokal, für nur ein Wiki funktionieren?

Antwort: Global. Eine maskierte IP wird über alle Wikimedia-Wikis hinweg gleich aussehen.

Frage: Werden alle unregistrierten Nutzenden entsperrt, wenn das passiert? Wenn nicht, könnte man die Information in den Logs verfolgen.

Antwort: Nein. Das würde Chaos in den Wikis anrichten. Diese Lösung muss auf einem Kompromiss basieren. Wir müssen zwischen dem Schutz der Privatsphäre unserer nicht registrierten Beitragenden und unserer Fähigkeit abwägen, die Wikis zu schützen.

Q: Will those who have access to the IPs of unregistered users be able to unmask more than one IP in one action?

A: Yes. We don't want this to be a tedious and time-consuming task, when necessary. We will include this in our proposal.

Stellungnahme der Rechtsabteilung der Wikimedia Foundation

Juli 2021

First of all, we’d like to thank everyone for participating in these discussions. We appreciate the attention to detail, the careful consideration, and the time that has gone into engaging in this conversation, raising questions and concerns, and suggesting ways that the introduction of masked IPs can be successful. Today, we’d like to explain in a bit more detail how this project came about and the risks that inspired this work, answer some of the questions that have been raised so far, and briefly talk about next steps.

Hintergrund

To explain how we arrived here, we’d like to briefly look backwards. Wikipedia and its sibling projects were built to last. Sharing the sum of all knowledge isn’t something that can be done in a year, or ten years, or any of our lifetimes. But while the mission of the communities and Foundation was created for the long term, the technical and governance structures that enable that mission were very much of the time they were designed. Many of these features have endured, and thrived, as the context in which they operate has changed. Over the last 20 years, a lot has evolved: the way societies use and relate to the internet, the regulations and policies that impact how online platforms run as well as the expectations that users have for how a website will handle their data.

In the past five years in particular, users and governments have become more and more concerned about online privacy and the collection, storage, handling, and sharing of personal data. In many ways, the projects were ahead of the rest of the internet: privacy and anonymity are key to users’ ability to share and consume free knowledge. The Foundation has long collected little information about users, not required an email address for registration, and recognized that IP addresses are personal data (see, for example, the 2014–2018 version of our Privacy policy). More recently, the conversation about privacy has begun to shift, inspiring new laws and best practices: the European Union’s General Data Protection Regulation, which went into effect in May 2018, has set the tone for a global dialogue about personal data and what rights individuals should have to understand and control its use. In the last few years, data protection laws around the world have been changing—look at the range of conversations, draft bills, and new laws in, for example, Brazil, India, Japan, or the United States.

Rechtliche Risken

The Foundation’s Privacy team is consistently monitoring this conversation, assessing our practices, and planning for the future. It is our job to look at the projects of today, and evaluate how we can help prepare them to operate within the legal and societal frameworks of tomorrow. A few years ago, as part of this work, we assessed that the current system of publishing IP addresses of non-logged-in contributors should change. We believe it creates risk to users whose information is published in this way. Many do not expect it—even with the notices explaining how attribution works on the projects, the Privacy team often hears from users who have made an edit and are surprised to see their IP address on the history page. Some of them are in locations where the projects are controversial, and they worry that the exposure of their IP address may allow their government to target them. The legal frameworks that we foresaw are in operation, and the publication of these IP addresses pose real risks to the projects and users today.

We’ve heard from several of you that you want to understand more deeply what the legal risks are that inspired this project, whether the Foundation is currently facing legal action, what consequences we think might result if we do not mask IP addresses, etc. (many of these questions have been collected in the expanded list at the end of this section). We’re sorry that we can’t provide more information, since we need to keep some details of the risks privileged. “Privileged” means that a lawyer must keep something confidential, because revealing it could cause harm to their client. That’s why privilege is rarely waived; it’s a formal concept in the legal systems of multiple countries, and it exists for very practical reasons—to protect the client. Here, waiving the privilege and revealing this information could harm the projects and the Foundation. Generally, the Legal Affairs team works to be as transparent as possible; however, an important part of our legal strategy is to approach each problem on a case by case basis. If we publicly discuss privileged information about what specific arguments might be made, or what risks we think are most likely to result in litigation, that could create a road map by which someone could seek to harm the projects and the communities.

That said, we have examined this risk from several angles, taking into account the legal and policy situation in various countries around the world, as well as concerns and oversight requests from users whose IP addresses have been published, and we concluded that IP addresses of non-logged-in users should no longer be publicly visible, largely because they can be associated with a single user or device, and therefore could be used to identify and locate non-logged-in users and link them with their on-wiki activity.

Despite these concerns, we also understood that IP addresses play a major part in the protection of the projects, allowing users to fight vandalism and abuse. We knew that this was a question we’d need to tackle holistically. That’s why a working group from different parts of the Wikimedia Foundation was assembled to examine this question and make a recommendation to senior leadership. When the decision was taken to proceed with IP masking, we all understood that we needed to do this with the communities—that only by taking your observations and ideas into account would we be able to successfully move through this transition.

I want to emphasize that even when IP addresses are masked and new tools are in place to support your anti-vandalism work, this project will not simply end. It’s going to be an iterative process—we will want feedback from you as to what works and what doesn’t, so that the new tools can be improved and adapted to fit your needs.

Fragen

Over the past months, you’ve had questions, and often, we’ve been unable to provide the level of detail you’re hoping for in our answers, particularly around legal issues.

What specific legal risks are you worried about?

We cannot provide details about the individual legal risks that we are evaluating. We realize it’s frustrating to ask why and simply get, “that’s privileged” as an answer. And we’re sorry that we cannot provide more specifics, but as explained above, we do need to keep the details of our risk assessment, and the potential legal issues we see on the horizon, confidential, because providing those details could help someone figure out how to harm the projects, communities, and Foundation.

There are settled answers to some questions.

Is this project proceeding?

Yes, we are moving forward with finding and executing on the best way to hide IP addresses of non-logged-in contributors, while preserving the communities’ ability to protect the projects.

Can this change be rolled out differently by location?

No. We strive to protect the privacy of all users to the same standard; this will change across the Wikimedia projects.

If other information about non-logged-in contributors is revealed (such as location, or ISP), then it doesn’t matter if the IP address is also published, right?

That’s not quite the case. In the new system, the information we make available will be general information that is not linked to an individual person or device—for example, providing a city-level location, or noting that an edit was made by someone at a particular university. While this is still information about the user, it’s less specific and individual than an IP address. So even though we are making some information available in order to assist with abuse prevention, we are doing a better job of protecting the privacy of that specific contributor.

If we tell someone their IP address will be published, isn’t that enough?

No. As mentioned above, many people have been confused to see their IP address published. Additionally, even when someone does see the notice, the Foundation has legal responsibilities to properly handle their personal data. We have concluded that we should not publish the IP addresses of non-logged-in contributors because it falls short of current privacy best practices, and because of the risks it creates, including risks to those users.

How will masking impact CC-BY-SA attribution?

IP masking will not affect CC license attribution on Wikipedia. The 3.0 license for text on the Wikimedia projects already states that attribution should include “​​the name of the Original Author (or pseudonym, if applicable)” (see the license at section 4c) and use of an IP masking structure rather than an IP address functions equally well as a pseudonym. IP addresses already may vary or be assigned to different people over time, so using that as a proxy for un-registered editors is not different in quality from an IP masking structure and both satisfy the license pseudonym structure. In addition, our Terms of use section 7 specify that as part of contributing to Wikipedia, editors agree that links to articles (which include article history) are a sufficient method of attribution.

And sometimes, we don’t know the answer to a question yet, because we’d like to work with you to find the solution.

What should the specific qualifications be for someone to apply for this new user right?

There will be an age limit; we have not made a definitive decision about the limit yet, but it’s likely they will need to be at least 16 years old. Additionally, they should be active, established community members in good standing. We’d like to work through what that means with you.

I see that the team preparing these changes is proposing to create a new userright for users to have access to the IP addresses behind a mask. Does Legal have an opinion on whether access to the full IP address associated with a particular username mask constitutes nonpublic personal information as defined by the Confidentiality agreement for nonpublic information, and will users seeking this new userright be required to sign the Access to nonpublic personal data policy or some version of it?
1 If yes, then will I as a checkuser be able to discuss relationships between registered accounts and their IP addresses with holders of this new userright, as I currently do with other signatories?
2 If no, then could someone try to explain why we are going to all this trouble for information that we don't consider nonpublic?
3 In either case, will a checkuser be permitted to disclose connections between registered accounts and unregistered username masks?

This is a great question. The answer is partially yes. First, yes, anyone who has access to the right will need to acknowledge in some way that they are accessing this information for the purposes of fighting vandalism and abuse on the projects. We are working on how this acknowledgement will be made;the process to gain access is likely to be something less complex than signing the access to non-public personal data agreement.

As to how this would impact CUs, right now, the access to non-public personal data policy allows users with access to non-public personal data to share that data with other users who are also able to view it. So a CU can share data with other CUs in order to carry out their work. Here, we are maintaining a distinction between logged-in and logged-out users, so a CU would not be able to share IP addresses of logged-in users with users who have this new right, because users with the new right would not have access to such information.

Presuming that the CU also opts in to see IP addresses of non-logged-in users, under the current scheme, that CU would be able to share IP address information demonstrating connections between logged-in users and non-logged-in users who had been masked with other CUs who had also opted in. They could also indicate to users with the new right that they detected connections between logged-in and non-logged-in users. However, the CU could not directly the share IP addresses of the logged-in users with non-CU users who only have the new right.

Please let us know if this sounds unworkable. As mentioned above, we are figuring out the details, and want to get your feedback to make sure it works.

Nächste Schritte

Over the next few months, we will be rolling out more detailed plans and prototypes for the tools we are building or planning to build. We’ll want to get your feedback on these new tools that will help protect the projects. We’ll continue to try to answer your questions when we can, and seek your thoughts when we should arrive at the answer together. With your feedback, we can create a plan that will allow us to better protect non-logged-in editors’ personal data, while not sacrificing the protection of Wikimedia users or sites. We appreciate your ideas, your questions, and your engagement with this project.

OKtober 2020

Diese Stellungnahme der Rechtsabteilung der Wikimedia Foundation wurde auf Anfrage für die Diskussionsseite geschrieben und stammt aus diesem Kontext. Aus Gründen der Sichtbarkeit wollten wir, dass Ihr sie auch hier lesen können.

Hallo an alle. Dies ist eine Nachricht vom Legal Affairs-Team. Zunächst einmal möchten wir uns bei allen für ihre durchdachten Kommentare bedanken. Bitte habt Verständnis dafür, dass wir als Juristen manchmal nicht alle Details unserer Überlegungen öffentlich teilen können; aber wir lesen Eure Kommentare und Perspektiven, und sie sind sehr hilfreich für uns bei der Beratung der Foundation.

In manchen Fällen müssen wir Einzelheiten unserer Arbeit oder unseren Rat an die Organisation vertraulich behandeln, und zwar aufgrund der Regeln der Rechtsethik und des Anwaltsgeheimnisses, die regeln, wie Anwälte mit Informationen über ihre Arbeit umgehen müssen. Wir sind uns bewusst, dass unsere Unfähigkeit, genau zu sagen, was wir denken und warum wir etwas tun oder nicht tun, in manchen Fällen frustrierend sein kann, so auch in diesem Fall. Obwohl wir nicht immer alle Details offenlegen können, können wir bestätigen, dass unsere allgemeinen Ziele darin bestehen, das Beste zu tun, um die Projekte und die Communities zu schützen und gleichzeitig sicherzustellen, dass die Foundation die geltenden Gesetze befolgt.

Innerhalb des Teams für Rechtsangelegenheiten konzentriert sich die Datenschutzgruppe darauf, sicherzustellen, dass die von der Foundation gehosteten Websites und unsere Praktiken der Datenerfassung und -verarbeitung im Einklang mit den einschlägigen Gesetzen, unseren eigenen Datenschutzrichtlinien und unseren Datenschutzwerten stehen. Wir sind der Meinung, dass der Schutz der Privatsphäre von Mitwirkenden und Lesenden notwendig ist, um die Erstellung, den Austausch und den Konsum von Freiem Wissen weltweit zu ermöglichen. Als Teil dieser Arbeit betrachten wir zunächst das geltende Recht, das durch ein Mosaik von Fragen, Bedenken und Wünschen der Nutzenden, Bedenken wegen der öffentlichen Leitlinien, organisatorischer Richtlinien und bewährter Praktiken der Branche ergänzt wird, um die datenschutzbezogene Arbeit der Foundation zu steuern. Auf der Grundlage dieser Eingaben entwerfen wir eine rechtliche Strategie für die Foundation, die unsere Herangehensweise an den Datenschutz und verwandte Themen bestimmt. In diesem speziellen Fall hat uns die sorgfältige Abwägung dieser Faktoren zu der Bemühung geführt, die IPs von nicht eingeloggten Editoren vor allen Besuchern der Wikimedia-Projekte zu verbergen. Wir können die genauen Details unserer Überlegungen oder die internen Diskussionen und Analysen, die dieser Entscheidung zugrunde liegen, aus den oben genannten Gründen bezüglich der rechtlichen Ethik und des Privilegs nicht darlegen.

Wir möchten betonen, dass die Einzelheiten, wie wir dies tun, flexibel sind; wir suchen nach dem besten Weg, dieses Ziel im Einklang mit der Unterstützung der Bedürfnisse der Community zu erreichen. Es liegen mehrere mögliche Optionen auf dem Tisch, und wir möchten sicherstellen, dass wir die Umsetzung in Partnerschaft mit Euch finden. Wir sind uns bewusst, dass Ihr vielleicht noch weitere Fragen habt, und wir möchten im Vorfeld klarstellen, dass wir in diesem Dialog möglicherweise nicht in der Lage sind, die Fragen zu beantworten, die rechtliche Aspekte haben. Vielen Dank an alle, die sich die Zeit genommen haben, sich mit dieser Arbeit auseinanderzusetzen und ihre Meinungen, Bedenken und Ideen einzubringen.