Das Referendum endete am 30. August 2011. Stimmen werden nicht mehr angenommen.
Die Ergebnisse (englisch) wurden am 3. September 2011 veröffentlicht.

Bildfilterreferendum

Organisation

Die Wikimedia Foundation hält vom 15. bis zum 30. August 2011 ein Referendum ab, um weitere Ideen zur Entwicklung und Benutzung eines persönlich konfigurierbaren Bildfilters zu erhalten. Dieser ermöglicht es dem Leser, auf freiwilliger Basis und nur auf sein eigenes Benutzerkonto beschränkt, die Darstellung bestimmter Typen von Bildern auf seinem Bildschirm zu unterdrücken. Die Entwicklung des Filters folgt einem Beschluss des Kuratoriums vom 29. Mai 2011.

Das Referendum wird auf Servern der gemeinnützigen Organisation Software in the Public Interest abgehalten. Weitere Details und Informationen sind auf dieser Seite bereitgestellt.

Hintergrund edit

Das Kuratorium der Wikimedia Foundation hat beschlossen, auf Basis einer Abstimmung einen persönlichen Bildfilter zu entwickeln und zu implementieren. Zweck dieses Filters ist es, den Lesern auf Wikimedia-Projekten das Ausblenden von Bildern, die sie nicht sehen wollen, auf einfachem Wege zu ermöglichen. Dies kann über die persönlichen Einstellungen oder beim erstmaligen Betrachten des Bildes geschehen. Das Tool soll Lesern mehr Wahlfreiheit ermöglichen und wird daher so benutzerfreundlich und einfach wie möglich ausgestaltet werden. Wir werden es ebenfalls so Community-freundlich wie möglich machen.

Das Werkzeug wird für alle Wikimedia-Projekte entwickelt und auf allen Projekten eingesetzt. Es wird kein Bild permanent entfernt, sondern lediglich die Datei auf Anfrage hin verborgen. Für die Entwicklung haben wir einige Leitsätze festgelegt, aber es werden während des Prozesses notwendigerweise Kompromisse gemacht werden müssen. Um die Entwickler dabei zu unterstützen, bitten wir um deine Mithilfe durch die Teilnahme an diesem Referendum.

Warum ist das wichtig? edit

Zwei der Empfehlungen des Harris-Reports von 2010 (7 und 9) behandeln die Möglichkeit für Leser, Inhalte, die sie nicht sehen möchten, auszublenden.

Es gibt mehrere gute Gründe für ein solches Werkzeug. Bilder, die z. B. gewalttätige oder sexuelle Inhalte darstellen, sind notwendige Bestandteile der Wikimedia-Projekte, um ihrem Auftrag, offene, freie und bildende Inhalte bereitzustellen, gerecht werden zu können. Andererseits haben diese Bilder das Potential, Kinder oder zufällige Besucher abzuschrecken. Das zu entwickelnde opt-in Tool soll diese negativen Effekte abmildern helfen und folgt darin unserem Prinzip der geringst-möglichen Überraschung.

Andererseits sind wir davon überzeugt, dass die Präsentation der Inhalte nicht unterbunden, sondern nur verzögert werden sollte. Der Zugang zu Informationen auf Wikimedia-Seiten sollte nur so viel reguliert werden, wie unbedingt nötig ist. Dies verlangt unsere Verantwortung, alle Leser- und Benutzergruppen gleichermaßen zu respektieren. Ein auf Wunsch verschleiertes Bild, statt eines entfernten, genügt dieser Verantwortung.

Welche Fragen werden gestellt? edit

Auf einer Skala von 0 bis 10, auf der 0 = „sehr dagegen“, 5 = „neutral“ und 10 = „sehr dafür“ bedeuten, beantworte bitte die folgenden Fragen:

  • Es ist wichtig für die Wikimedia-Projekte, Lesern diese Funktion anzubieten.
  • Es ist wichtig, dass die Funktion sowohl für angemeldete als auch für nicht angemeldete Benutzer verfügbar ist.
  • Es ist wichtig, dass das Ausblenden rückgängig gemacht werden kann. Lesern muss auch die Möglichkeit geboten werden, ihre Meinung zu ändern.
  • Es ist wichtig, dass Leser Bilder melden oder markieren können, die sie als kontrovers betrachten, die aber nicht in diesem Sinne markiert sind.
  • Es ist wichtig, dass es die Funktion den Lesern schnell und leicht ermöglicht, die Arten von Bildern auszuwählen, die sie verstecken möchten (beispielsweise 5–10 Kategorien), so dass sie z. B. Bilder mit sexuellem Inhalt ausblenden, aber Bilder mit Gewalt zulassen können.
  • Es ist wichtig, dass der Zusatz kulturell neutral ausgeführt wird: Soweit möglich soll ein globaler, multi-kultureller Standpunkt eingenommen werden.

Du kannst „?“ wählen, wenn du dich nicht gut genug informiert fühlst, um die Frage beantworten zu können.

Wie wird das Werkzeug aussehen? edit

Da die Entwicklung des Tools noch nicht begonnen hat, steht nur ein Rohentwurf zur Verfügung. Die tatsächliche Ausgestaltung hängt vom Ausgang des Referendums und den Gegebenheiten im Entwicklungsprozess ab, aber es ist wahrscheinlich, dass das Resultat dem Rohentwurf ähneln wird. Vorgeschlagen werden drei Möglichkeiten für Leser um die Einstellungen zu personalisieren: über die Navigation, über ein angezeigtes Bild und über ein verstecktes Bild. Die folgenden Screenshots zeigen, wie das Tool für einen nicht angemeldeten Leser aussehen könnte:

Regeln edit

Stimmberechtigung edit

Autoren

Du kannst mit jedem deiner registrierten Benutzerkonten auf einem Wiki der Foundation abstimmen (Bitte stimme, unabhängig von der Anzahl deiner Konten, nur einmal ab.). Stimmberechtigt ist das Konto, wenn:

  • das Konto nicht auf mehr als einem Projekt gesperrt ist; und
  • das Konto nicht auf dem Projekt, auf dem du abstimmen willst, gesperrt ist; und
  • es kein Bot ist; und
  • mindestens 10 Bearbeitungen vor dem 1. August 2011 vorgenommen hat (transwiki, wenn dein Konto ein SUL-Account ist.).
Entwickler

MediaWiki-Entwickler sind stimmberechtigt, wenn sie:

  • Wikimedia-Serveradministratoren mit shell access sind; oder
  • commit access auf Wikimedia's SVN haben und dort mindestens einmal tätig waren.
Angestellte und Auftragnehmer

Angestellte der Wikimedia Foundation und Auftragnehmer sind stimmberechtigt, wenn sie am Tag ihrer Stimmabgabe in einem Beschäftigungsverhältnis zur WMF stehen und dieses zudem vor dem 1. August 2011 bereits bestand.

Kuratoriumsmitglieder und Mitglieder des Beirats

Gegenwärtige und ehemalige Kuratoriumsmitglieder und Angehörige des Beirats sind stimmberechtigt.

Abstimmen edit

Wenn du stimmberechtigt bist, dann:

  1. Rufe „Special:SecurePoll“ auf dem Wiki, auf dem du stimmberechtigt bist und abstimmen möchtest, auf. Wenn du beispielsweise hier auf Meta am aktivsten bist und hier abstimmen möchtest, dann findest du die Seite unter http://meta.wikimedia.org/wiki/Special:SecurePoll. Wenn du in der deutschsprachigen Wikipedia abstimmen willst, ist das der richtige Link: http://de.wikipedia.org/wiki/Spezial:Sichere_Abstimmung
  2. Lies bitte die Fragen und entscheide dich bezüglich deiner Position zur Thematik.
  3. Befolge die Hinweise auf der Abstimmungsseite.

Um vom Abstimmungsmodus fehlerfrei anerkannt zu werden, musst du die so genannten Cookies für wikimedia.amellus.net erlauben. Wenn du die Fehlermeldung: „Sorry, you are not in the predetermined list of users authorised to vote in this election.“ angezeigt bekommen solltest, dann bist du auf der falschen Seite: Bitte versuche „Special:SecurePoll“ auf deinem Heimatwiki aufzurufen und dort zu wählen.

Organisation edit

Zeitplan edit

  • 30.06.2011: Veröffentlichung der Ankündigung; Beginn der Vorarbeiten für die Übersetzungen.
  • 25.07.2011: Veröffentlichung der Details zum Referendum und der FAQ; Beginn der Übersetzungsphase.
  • 08.08.2011: Alle relevanten Dokumente sind übersetzt (optimal).
  • 15.08.2011: Start des Referendums.
  • 17.08.2011: Versendung des Teilnahmeaufrufs per E-Mail.
  • 30.08.2011: Ende des Referendums; Beginn der Auswertungsphase.
  • 03.09.2011: Veröffentlichung der Ergebnisse Die Ergebnisveröffentlichung wurde vom 01.09.2011 auf den 03.09.2011 verschoben.

Übersetzungen edit

Um eine repräsentative Teilnahme der Gemeinschaft sicherzustellen, ist es wichtig, die relevanten Seiten und Dokumente in möglichst viele Sprachen zu übersetzen. Wenn du dabei mithelfen möchtest, dann findest du die relevanten Informationen zum Übersetzungsprozess hier.


Argumente aus dem Meinungsbild in der deutschsprachigen Wikipedia edit

In der deutschsprachigen Wikipedia findet derzeit ein Meinungsbild statt. Darin wurden Argument für und gegen die Einführung der Bildfilter erarbeitet. (de:Wikipedia:Meinungsbilder/Einführung persönlicher Bildfilter)

Argumente gegen die Einführung der Filter edit

  • Die Wikipedia wurde nicht begründet, um Informationen zu verbergen, sondern um sie zugänglich zu machen. Das Ausblenden von Dateien reduziert unter Umständen wichtige Informationen, die in einem Wikipedia-Artikel dargeboten werden. Dadurch könnte jede Art der Aufklärung und des Erkennens von Zusammenhängen eingeschränkt werden. Beispiele: Artikel über Künstler, Kunstwerke und medizinische Themen könnten absichtlich oder ohne Absicht des Lesers wesentliche Teile ihrer Informationen verlieren. Das Ziel, ein Thema neutral und in seiner Gesamtheit darzustellen, wäre dadurch gefährdet.
  • Die Kategorisierung von Inhalten nach Zumutbarkeit widerspricht dem Grundsatz von de:Wikipedia:Neutraler Standpunkt. In ähnlicher Weise argumentiert auch die de:American Library Association (ALA), die ein Markieren von Inhalten in Bibliotheken nach nicht-neutralen Gesichtspunkten strikt ablehnt und sogar als „Mittel der Zensur“ ansieht, wenn damit versucht wird, den Lesern bestimmte Empfehlungen zu geben oder sie vor Inhalten zu warnen.[1] Entsprechende Richtlinien hat die ALA in ihrer Library Bill of Rights festgehalten.[2]
  • Rücksichtnahme auf Interessen oder Vorlieben einzelner Leser oder Gruppen ist nicht Aufgabe einer Enzyklopädie (de:Wikipedia:Grundprinzipien). Für Wünsche an die Bildauswahl sind die Leser selbst verantwortlich (z. B. indem sie die Software ihres eigenen Endgerätes entsprechend einstellen oder eigene Filtersoftware einsetzen).
  • Gegner der beabsichtigten Filterkategorien und Dateienfilter sehen in deren Einsatz eine Zensur von Inhalten, welche dem Anspruch einer Enzyklopädie entgegenläuft.[1] Insbesondere wird hier die Gefahr einer Ausweitung der Filterung, eine Pflicht zur Filterung (Anmeldepflicht zum Deaktivieren des Filters) betont, wenn erst einmal eine entsprechende Infrastruktur geschaffen wurde.
  • Auch in Schul- und sonstigen Lehrbüchern finden sich Darstellungen von Gewalt oder expliziter Sexualität. Offenbar wird dies didaktisch nicht in Zweifel gezogen.
  • Schulen könnten ihre Schüler anweisen, u.a. bei Benutzung der deutschsprachigen Wikipedia die Filter zu aktivieren und keinen Gebrauch von der Bilder-Einblendmöglichkeit zu machen. Für Schüler, die diese Anweisung befolgen und keinen anderweitigen Internetzugang haben, käme das einer Zensur gleich. Entsprechendes ist auch für andere Organisationen, die Internetzugänge bereitstellen wie Bibliotheken, Parteien und Religionsgemeinschaften denkbar.
  • Der Filter ist keine Content-Sperre oder eine Jugendschutz-Software. Der Filter ist nur auf den Projekten von Wikimedia aktiv und soll sich problemlos von jedem Leser abschalten lassen. Da der Filter nicht den Zugriff auf Inhalte blockiert, dürfte dies kein Grund sein, weshalb de:Contentfilter-Betreiber ihre Mittel (Domainsperre, Sperren von Artikeln) zurückschrauben werden oder Wikipedia aus dem Index nehmen. Effektiv würde zweimal gefiltert werden.
  • Durch die Einführung von Bildfiltern entfällt nicht die Diskussion darüber, welche Bilder einem bestimmten Leser zuzumuten sind. Auch die Einordnung der Inhalte in bestimmte Ausschlusskategorien kann dadurch auf unterschiedliche Interessen und Vorstellungen treffen. Es ist unsinnig, bestimmte Inhalte noch und noch in Filterkategorien einzuordnen, da es nicht absehbar ist, dass klare Richtlinien darüber entwickelt werden können, welche Dateien in die verschiedenen Ausschlusskategorien gehören.
  • Die Vorstellungen davon, was als anstößig bzw. unerwünscht angesehen wird, können je nach Benutzer, kulturellem Hintergrund und Sprachversion voneinander abweichen. Die Verwendung global gültiger Filterkategorien ist daher nicht sinnvoll, da damit das Ziel, Filter zu erstellen, die allen Lesern und allen Kulturen gerecht werden, technisch nicht umsetzbar ist. Ein Leser, der selbst entscheiden will, was er zu sehen bekommt und was nicht, müsste sich die Bilder ansehen, was in einem Widerspruch endet.
  • Die Aufgabe, Filterkategorien einzurichten und aktuell zu halten, wird den Benutzern übertragen, die dafür Zeit und Mühe aufwenden müssen. Diese Ressourcen könnten stattdessen für anderweitige technische und inhaltliche Verbesserungen eingesetzt werden (Eine Übernahme bestehender Kategorien von Commons als Filterkategorien ist allenfalls eingeschränkt möglich. So finden sich beispielsweise in der Kategorie Violence (Gewalt) und deren Unterkategorien nicht nur Gewaltdarstellungen, sondern auch Bilder von Mahnmalen, Demonstrationen, Portraits, kritischen Karikaturen usw.).
  • Auch ist fraglich, in wie weit die Wikipedia die Filter überhaupt betreiben sollte, schließlich wurde der Inhalt von den eigenen freiwilligen Mitarbeitern nach den de:Wikipedia:Grundprinzipien erstellt und in einem kollektiven Prozess als behaltenswert anerkannt. Eine Ausblendungsmöglichkeit eigener Inhalte zu ermöglichen erscheint daher paradox.
  • Es könnte ein Bumerang-Effekt eintreten: Bearbeiter würden dann nach dem Motto „Dafür gibt es Filter“ ungehemmter potentiell Anstößiges in Artikeln unterbringen.
  • Die fachliche Qualifikation und methodische Vorgehensweise von Robert Harris und dessen Tochter Dory Carr-Harris, den beiden Autoren des Harris-Reports, auf dem der Beschluss des WMF-Kuratoriums maßgeblich fußt, sind fragwürdig. Robert Harris ist ein Rundfunkmoderator und -journalist, der 30 Jahre bei der de:Canadian Broadcasting Corporation (CBC) gearbeitet und dort u. a. mehrere Sendereihen über klassische Musik produziert hat. Zudem hat er einige Einführungsbücher zu klassischer Musik verfasst. Bei der CBC hat Harris 17 Jahre mit der heutigen Wikimedia-Geschäftsführerin Sue Gardner zusammengearbeitet und wurde 2010 von der Wikimedia Foundation als Berater angeworben. Es ist unklar, wodurch sich Harris über seine journalistische Erfahrung hinaus als Gutachter für umstrittene Inhalte der Wikimedia qualifiziert. Harris vergleicht Wikipedia mit CBC,[3] aber eine wissenschaftliche und allgemeinbildende Enzyklopädie hat andere Ziele und Methoden als eine journalistische Institution. Der Bericht ignoriert den kritischen Diskurs zur bewertenden Kennzeichnung von Medien, wie ihn z. B. die American Library Association führt.
  • Das Argument der Foundation (de:Principle of Least Surprise), welches voraussetzt, dass Menschen lieber wenige Überraschungen erleben, ist aus den Computerwissenschaften (Ergonomie von Computerprogrammen) übernommen. Sowohl psychologisch betrachtet, als auch in den Kommunikationswissenschaften, wird überwiegend eine gegenteilige Meinung vertreten. In der Presse beispielsweise werden Fotos zur Verdeutlichung als auch zur Weckung des Interesses verwendet (vgl. bspw. [2]).
  • Die Filter verstoßen gegen die enzyklopädische Säkularität. Der Harris-Report empfiehlt einen besonderen Umgang mit sogenannten „Bildern des Heiligen“,[4] aber schlägt Filter nur ausdrücklich für sexuelle und gewalttätige Bilder vor. Die Resolution des Kuratoriums geht davon aus, dass Benutzer nicht nur sexuelle und gewalttätige, sondern auch religiöse Inhalte als anstößig empfinden können und verweist zudem auf die Verschiedenartigkeit nach Alter, Herkunft und Wertorientierung von Benutzergruppen.[5] Im Rohentwurf der Foundation wird nun ausdrücklich auch ein Filter nach der Kategorie „Bilder des Propheten Mohammed“ geplant.[6] Eine Filterung nach religiösen Vorlieben widerspricht aber der Neutralität und dem universellen Bildungsanspruch einer Enzyklopädie.
  • Bestrebungen, potenziell anstößige und strafrechtlich relevante Inhalte vollständig zu entfernen (zum Beispiel durch Löschung von Bilddateien), wird der Wind aus den Segeln genommen. Auch nach amerikanischem Recht ist es gesetzlich verboten, pornographische Bilder zur freien Ansicht bereit zu halten (also ohne Alterabfrage etc.), dessen ungeachtet werden solche Bilder in Löschdiskussionen als behaltenswert eingestuft, da sie "von erzieherischem Wert" seien; zunehmend wird nun argumentiert, dass man diese Bilder ja zukünftig ausfiltern könne! (vgl. "pro", eingefügt von Axpde, Commons-Administrator)

Argumente für die Einführung der Filter edit

  • Leser, die zum Beispiel die Darstellung von Gewalt oder Sexualität als anstößig empfinden, sich davon in ihren Gefühlen verletzt sehen oder nicht von davon überrascht werden wollen, können entsprechend kategorisierte Dateien ausblenden.
  • Am Arbeitsplatz oder in einer öffentlichen Bibliothek kann es für den Benutzer der Wikipedia von Nachteil sein, als unpassend oder anstößig empfundene Bilder auf dem Bildschirm zu haben. Die Filter wären ein Hilfsmittel, derartige Situationen zu vermeiden.
  • Bestrebungen, potenziell anstößige Inhalte vollständig zu entfernen (zum Beispiel durch Löschung von Bilddateien), wird der Wind aus den Segeln genommen. (vgl. "contra")
  • Durch die Einführung der Filter könnten öffentlich geäußerte Vorbehalte gegenüber der Wikipedia, die auf der Darstellung von angeblich fragwürdigen Inhalten beruhen, reduziert werden (→ Diskussion).
  • Es handelt sich nicht um Zensur, da es sich ausdrücklich um persönliche Filter (siehe Problembeschreibung) handeln soll, die nur auf Benutzerwunsch aktiviert werden. Die freie Wahl eines jeden Benutzers soll über mehrere Funktionen sichergestellt werden:
    • Der Benutzer wird über die Möglichkeit informiert, für ihn unangenehme Inhalte zu filtern.
    • Der Benutzer entscheidet selbst, ob er die Filterung aktivieren möchte (de:Opt-in).
    • Der Benutzer kann die Filterung jederzeit wieder deaktivieren oder die ausgeblendeten Bilder einzeln einblenden.
    • Dies gilt nach derzeitiger Planung auch für unangemeldete Benutzer [3]. Wahlweise – je nach Ausgang des Referendums („Es ist wichtig, dass die Funktion sowohl für angemeldete als auch für nicht angemeldete Benutzer verfügbar ist“) – ist es auch möglich, dass es für unangemeldete Benutzer gar keine Filter geben wird.
  • Angemeldete Benutzer können schon jetzt über ihre CSS-Einstellungen einzelne Inhalte ausblenden; es sehen also ohnehin nicht alle Benutzer dasselbe.
  • Die Wikimedia Foundation begründet die Einführung der Filter auch mit dem z. B. in der englischsprachigen Wikipedia geltenden[7] „Prinzip der geringsten Überraschung“. Dies bedeute, dass der Inhalt einer Seite den Lesern auf eine Art dargestellt werde, die ihre Erwartungen respektiert.[8]
  • Der Harris-Report empfiehlt, Benutzern zu ermöglichen, Bilder (mit Darstellung von Sexualität und Gewalt) „in einklappbare Galerien zu platzieren, damit z. B. Kinder diese Bilder nicht versehentlich oder unerwartet zu sehen bekommen“.[9]

Fußnoten edit

  1. Template:Internetquelle
  2. Template:Internetquelle
  3. „The CBC is an interesting place. Like Wikipedia, it is a powerful (in its world) and respected information-providing institution, dedicated to public service and the provision of unbiased (the analog equivalent of NPOV) news and information to the Canadian public. However, like your projects, the power of the institution, and its public-service character, make it the focus of intense and perfectly legitimate discussions over content, balance, mandate, and the need to serve different publics simultaneously.“, Robert Harris, meta:2010_Wikimedia_Study_of_Controversial_Content/Archive
  4. Images of the „sacred“, Harris-Report, 2010
  5. „Some kinds of content, particularly that of a sexual, violent or religious nature, may be offensive to some viewers; […] We recognize that we serve a global and diverse (in age, background and values) audience, and we support access to information for all“, Resolution, 29. Mai 2011
  6. „pictures of the prophet (sic) Mohammed“, Personal image filter, Overview of this system, Mediawiki
  7. Wikipedia:Writing better articles - Principle of least astonishment in der englischsprachigen Wikipedia
  8. „We support the principle of least astonishment: content on Wikimedia projects should be presented to readers in such a way as to respect their expectations of what any page or feature might contain“, Resolution, 29. Mai 2011
  9. „The major recommendation we have made to deal with children and their parents is our recommendation to allow users (at their discretion, and only for their personal use) to place some images (of sexuality and violence) in collapsible galleries so that children (for example) might not come across these images unintentionally or unexpectedly. As we noted in our section on basic principles, we did so because we believed it would show some basic respect and service to one group of our users (those worried about exposure to these images) without compromising the different needs and desires of another (those desiring, even insisting, the projects stay open).“ Children, Harris-Report, 2010