Système de signalement d’incidents

This page is a translated version of the page Incident Reporting System and the translation is 72% complete.
Outdated translations are marked like this.
Système de signalement d’incidents

    Wikimedia Foundation souhaite améliorer la façon dont les personnes victimes de harcèlement ou d’autres formes d’abus signalent ces incidents pour obtenir un environnement sûr et sain pour les communautés.

    La nouvelle équipe des Produits de confiance et de sécurité a été missionnée pour la réalisation du Système de signalement d’incidents (IRS, de son acronyme anglais ; auparavant « Système de signalement confidentiel d’incidents », PIRS). Nous visons à rendre facile aux utilisateurs le signalement d’incidents en toute sécurité et confidentialité.

    Prémisses du projet

    Le signalement et le traitement des incidents violents est un sujet qui préoccupe les communautés Wikimedia depuis des années. Avec la mise en place du nouveau Code de conduite universel, il est crucial de discuter des systèmes pour signaler les incidents.

    La manière dont les incidents, dérives de conduites et violations des règles sont traités dans les différents espaces et projets Wikimedia s’est développée naturellement et varie selon les différentes communautés.

    Chaque projet ou communauté Wikimedia a sa propre manière de gérer les choses. Le signalement et le traitement des incidents peut se dérouler de multiples façons :

    • via les pages de discussion des wiki ;
    • via les tableaux d’alerte (bulletin des administrateurs…) ;
    • par courriel ;
    • à travers des discussions privées sur des canaux hors-wiki (Discord, IRC).

    Pour de nombreux utilisateurs, ce qu’il faut faire en cas d’incident n’est pas clair : où se rendre, à qui parler, comment signaler, quelles informations inclure dans le signalement, comment le signalement est traité, que se passe-t-il ensuite, etc.

    Les utilisateurs doivent savoir comment signaler un problème et où le faire. Il y a aussi très peu d’informations sur ce qu’il se passe après un signalement et quelles suite peut attendre l’auteur ou autrice du signalement.

    Certains utilisateurs ne se sentent pas à l’aise pour signaler un incident en raison de la complexité du processus ou en raison de problèmes de confidentialité.

    Il n’y a actuellement aucune manière standard permettant aux utilisateurs de réaliser confidentiellement un signalement.

    Objectif principal du projet

    L’objectif principal de ce projet est de faciliter la gestion des signalement de harcèlement et de violence, et de garantir que les signalements atteignent les bons destinataires

    Nous voulons garantir la sécurité et la confidentialité de ces signalements. Nous voulons garantir que les signalements contiennent les bonnes informations et arrivent au bon endroit pour être traités, sans mettre une pression supplémentaire sur les acteurs de ce traitement.

    L’équipe des Produits pour la confiance et la sécurité voit ce système de signalement des incidents comme une partie d’un écosystème plus large de gestion des incidents. Nous étudions le fonctionnement de chaque système et comment tout pourrait se connecter.

    Actualités produit et techniques

    Incident reporting update: November 7, 2024

    We’re continuing the work on the Incident Reporting System.

    The next step is to develop an MVP (Minimum Viable Product) that we can test in production on a few pilot wikis. Following our Minimum Testing Product (MTP) user testing some months ago, we have made improvements to the design:

    • Emergency incidents - Incidents relating to immediate threats of physical harm. These incidents need to be handled by the Wikimedia Foundation emergency team.
    • Non-emergency incidents - Incidents that are not immediate threats of harm, for example bullying, sexual harassment and other unacceptable user behavior. These incidents are handled through local community processes.

    The Emergency user flow will direct users to file a report that will be sent to the Wikimedia Foundation emergency team.

    The Non-emergency user flow will direct users to reach out to their local community for support, as outlined in community policies. This will be done through a “Get support” page that will contain links and information specific to each community. The intention is to have configuration options on this page so that each local community can add the relevant links as necessary.

    We have some screenshots to demonstrate how this might work. For the next deployment the main focus is to test the emergency user flow in production.

    Designs

    Emergency flow:

    Non-emergency user flow:

    We’d love to hear your thoughts on the current designs! Please comment on the discussion page.

    Testez le produit minimum viable du système de signalement d’incident en bêta – 10 novembre 2023

    Les contributeurs et contributrices sont invités à tester un premier produit minimum viable (PMV) du système de signalement d’incident. L’équipe des Produits pour la confiance et la sécurité a créé une première version du produit permettant à quelqu’un d’effectuer un signalement depuis la page de discussion où a lieu l’incident. Remarque : cette version du produit vise l’étude du signalement vers une adresse de courriel confidentielle (par exemple emergency(_AT_)wikimedia.org ou un groupe d’admins). Cela ne couvre pas tous les scénarios, tel que le signalement sur un forum public. Votre retour est nécessaire pour déterminer si cette première approche est efficace.

    Pour tester :

    1. Visitez une page dans un espace de noms de discussion sur Wikipédia bêta qui contient des discussions. Des exemples de pages sont sur User talk:Testing et Talk:African Wild Dog ; vous pouvez les utiliser une fois connecté.

    2. Ensuite, cliquez sur le bouton à débordement (points de suspension) à côté du lien reply (répondre) d’un commentaire pour ouvrir le menu débordant et cliquez sur Report (Signaler) (voir diapo 1). Vous pouvez aussi utiliser le lien Report (Signaler) du menu Tools (Outils) (voir diapo 2).

    3. Procédez au signalement : remplissez le formulaire et soumettez-le. Un courriel sera envoyé à l’équipe des Produits pour la confiance et la sécurité, qui sera la seule à voir votre signalement. Sachez qu’il s’agit d’un test, ne l’utilisez pas pour de réels signalements.

    4. Dans votre test, considérez ces questions :

    • que pensez-vous de ce processus de signalement ? Qu’appréciez-vous ? Qu’est-ce qui vous déplait ?
    • si vous êtes familiers avec les extensions, que pensez-vous du fait d’avoir ceci sur votre wiki sous forme d’extension ?
    • quelles problèmes ont-ils été oubliés dans cette première version du signalement ?

    5. Après votre test, faites-nous un retour sur la page de discussion.

    Si vous ne trouvez pas le menu de débordement ni les liens Report, ou que le formulaire refuse d’être envoyé, assurez-vous que :

    • vous êtes connecté ;
    • l’adresse de courriel de votre compte a été confirmée ;
    • votre compte a été créé depuis plus de 3 heures et que vous avez fait au moins 1 modification ;
    • vous avez actvié les outils de discussion ('DiscussionTools ), car le PMV est intégré dans ceux-ci.

    Si les outils de discussions ne chargent pas, vous pouvez utiliser le menu Outils ('Tools ) pour effectuer le signalement. Si vous ne pouvez pas effectuer un deuxième signalement, sachez qu’il y a une limite de 1 signalement par jour pour les utilisateurs non confirmés, et 5 signalements par jour pour les utilisateurs autoconfirmés. Ces prérequis permettent de réduire la possibilité pour des utilisateurs malintentionnés d’abuser du système. Consultez la section Recherches de la page pour plus d’informations.

    Processus

    Phases du projet
    Dresser une manière de gérer le signalement des incidents dans les espaces Wikimedia n’est pas une tâche aisée. Il y a beaucoup de risques et d’inconnus.

    Comme il s’agit d’un projet complexe, il faut le diviser en de multiples itérations et phases. Pour chaque phase, nous organiserons un ou plusieurs cycle de discussion afin de vérifier que nous suivons le bon chemin et incluons assez tôt les retours des communautés, avant de passer au gros des travaux.

    Phase 1

    Études préliminaires : recueil de retours, lecture de documentation existante.

    Réalisation d’entretiens afin de mieux comprendre l’étendue du problème et identifier les points critiques.

    Définir et discuter l’orientation possible du produit et le cadre du projet. Identifier les wikis pilotes possibles.

    À la fin de cette phase, nous devrions avoir une compréhension solide et de ce que nous essayons de faire.

    Phase 2

    Créer des prototypes pour illustrer les idées issues de la phase 1.

    Créer une liste d’options possibles pour une consultation et analyse plus approfondie.

    Phase3

    Identifier et prioriser les idées les plus probables.

    Passage au développement du logiciel et segmentation du travail en tâches dans Phabricator.

    Continuer le cycle des itérations

    Recherches

    July 2024: Incident Reporting System user testing summary

    In March 2024, the Trust & Safety Product team conducted user testing of the Minimum Viable Product (MVP) of the Incident Reporting System to learn if users know where to go to report an emergency incident, and if the user flow makes sense and feels intuitive.

    We learned the following:

    • During user testing, all participants found the entry point to report an incident and the current user flow is well understood.
    • There was some confusion over two of the reporting options: “someone might cause self-harm” and “public harm threatening message”.

    Two participants also made assumptions about the system being automated. One participant was concerned about automation and wanted a human response, whereas the other participant felt assured by the idea it would check if the abuser had any past history of threats and offences, and delete the offensive comment accordingly. All participants expected a timely response (an average of 2-3 days) after submitting a report. Read more.

    Actualité du 21 septembre 2023 : partage des résultats de la recherche sur le signalement des incidents

     
    Compte-rendu des résultats de la recherche sur le signalement des incidents en 2023

    Pour le projet de système de signalement d’incident, la recherche concernant le harcèlement sur des wikis pilotes sélectionnés s’est achevée.

    Cette étude, démarrée début 2023, visait la compréhension du harcèlement, son signalement et le traitement des signalements, sur les Wikipédia en indonésien et en coréen.

    Les résultats de ces études ont été publiés.

    En résumé, nous avons reçu des informations précieuses sur les améliorations nécessaires pour les signalements d’incident sur le wiki et en dehors. Nous en savons aussi plus sur les besoins des communautés, données précieuses pour l’outil de signalement d’incident.

    Nous sommes heureux de partager ces résultats avec vous ; le rapport contient des informations plus complètes.

    Vous pouvez faire vos retours et poser vos questions sur la page de discussion.

    Études préalables
     

    Le document suivant est un état de l’art complet des études que Wikimedia Foundation a réalisé de 2015 à 2022 sur le harcèlement en ligne sur les projets Wikimedia. Dans cette bibliographie, nous avons identifié les thèmes, idées et sujets de préoccupation majeurs, et fourni des liens directs vers la littérature.

    L’équipe des Outils de confiance et de sécurité a étudié les précédente recherches et consultations communautaires comme base de notre travail. Nous avons réexaminé la proposition de système de signalement des utilisateurs pour l’Initiative pour la santé de la communauté et la consultation de 2019 sur un système de signalement des utilisateurs. Nous avons aussi essayé de schématiser quelques protocoles de résolution de conflits sur les wikis pour mieux comprendre comment les communautés les gèrent actuellement. Ci-dessous, un schéma du protocole de résolution des conflits sur la Wikipédia en italien. Il y a quelques notes sur les possibilités d’automatisation.

     
    Sur la Wikipédia en italien, une règle en 3 étapes est en place pour résoudre les conflits. Ce schéma montre ce processus et essaye d’identifier les possibilités d’automatisation, à la fois pour les contributeurs et les admins.

    Questions fréquentes

    Questions et réponses de la phase 1 du projet

    Q: The project used to be called PIRS, Private Incident Reporting System. Why was the P dropped?

    Nous avons renommé le Système de signalement confidentiel des incidents en Système de signalement des incidents : le mot confidentiel a été retiré. En effet, dans le contexte du harcèlement et dans le CCU, le mot original anglais private réfère au respect de la vie privée des membres et au maintien de leur sécurité. Cela ne signifie pas que toutes les phases de signalement seront confidentielles. Nous avons reçu des retours que ce terme portait à confusion et était difficile à traduire, d’où ce changement.

    Q : Y a-t-il des données concernant le nombre d’incidents signalés chaque année ?

    R : Il n’y a actuellement pas beaucoup de données claires utilisables, pour diverses raisons. Tout d’abord, les problèmes sont signalés de différentes manières, selon les communautés. Récolter ces données complètement et proprement est très compliqué, et serait très long. Ensuite, l’interprétation des problème diffère également. Certains cas, interprétés comme harcèlement, sont inhérents au wiki (par exemple, la suppression d’article promotionnels). L’étude du harcèlement peut aussi dépendre du contexte culturel ou communautaire. Le système de signalement d’incident est une opportunité de résoudre certains de ces besoins en données.

    Q : Comment est défini le harcèlement ?

    R : Référez-vous aux définitions du Code de conduite universel.

    Q : Combien de salariés et de bénévoles seront nécessaires pour faire fonctionner l’IRS ?

    R : Actuellement, la magnitude du problème n’est pas connue. Le nombre de personnes nécessaires pour assister à sa résolution n’est donc pas connu. Expérimenter avec un produit minimum viable fournira une certaine vision du nombre de personnes nécessaires pour faire fonctionner l’IRS.

    Q : Quel est le but du PMV (produit minimum viable) ?

    A : Le PMV est une expérience et une opportunité d’apprendre. Ce premier travail expérimental répondra aux questions que nous nous posons actuellement. Les résultats guideront la suite du projet.

    Q : À quelles questions essayez-vous de répondre avec le produit minimum viable ?

    R : Voici les questions auxquelles nous voulons répondre :

    • Quel type de signalement les personnes vont-elles réaliser ?
    • Combien de personnes vont-elles réaliser des signalements ?
    • Combien de personnes avons-nous besoin pour les traiter ?
    • À quel point ce problème est-il étendu ?
    • Peut-on avoir une vision plus claire de l’amplitude du problème du harcèlement ? Peut-on avoir certaines données sur le nombre de signalements ? Le harcèlement est-il sous-signalé ou sur-signalé ?
    • Est-ce que les gens ne signalement pas le harcèlement parce qu’il n’y en a pas, ou parce qu’ils ne savent pas comment le faire ?
    • Y aura-t-il beaucoup à gérer avec notre installation actuelle ou pas ?
    • Combien de plaintes valides y a-t-il, comparé aux personnes qui ne comprennent pas les procédures du wiki ? Peut-on distinguer les plaintes valides et filtrer les signalements non valides pour économiser le temps des bénévoles ou salariés ?
    • Recevrons-nous beaucoup de signalement de personnes de la part de personnes vexées que leurs modifications aient été annulées ou leur page supprimée ? Que ferons-nous de cela ?

    Q : Comment le mouvement Wikimedia s’en sort avec le harcèlement, comparé aux autres plateformes telles que Facebook ou Reddit ?

    R : Bien que nous n’ayons pas les mêmes groupes d’affinité en ligne, le mouvement Wikimedia est souvent comparable à Facebook ou Reddit quant à la façon dont nous traitons le harcèlement. Il faut garder en tête qu’aucun d’entre nous n’a résolu le problème du harcèlement. Les autres plateformes se battent avec la modération du contenu et ont souvent des salariés pour s’en occuper. Les deux grandes différences entre nous et Reddit ou Facebook sont la nature collaborative de nos projets et la façon dont nos communautés travaillent pour résoudre le harcèlement à leur échelle.

    Q : Wikimedia Foundation essaye-t-elle de changer les procédures communautaires existantes ?

    R : Notre projet pour l’IRS est de ne changer aucune procédure communautaire. Notre objectif est de s’adapter aux procédures existantes. Les objets finaux sont :

    • faciliter un accès à l’aide aux victimes de harcèlement ;
    • en finir avec les situations dans lesquelles n’effectuent pas de signalement d’un cas de harcèlement parce qu’ils ne savent pas comment le faire ;
    • garantir que les signalements arrivent au bon endroit pour être traité selon les procédures locales des communautés ;
    • garantir que les personnes traitant les signalement reçoivent des rapports complets de cas réellement problématique, et rediriger les problèmes et plaintes non fondées ailleurs.