Grants:IdeaLab/Cumuler les « J'aime » et « Je n'aime pas » pour automatiser les limitations de harcellement

From Meta, a Wikimedia project coordination wiki
This page is a translated version of the page Grants:IdeaLab/Cumulate Likes and Unlikes to automatise harassment limitations and the translation is 94% complete.
Outdated translations are marked like this.
Cumulate Likes and Unlikes to automatise harassment limitations
The rate of "Like" and "Unlike" permit to adjust and to automatise delays between edits from an harasser.
créateur d'idées
Rical
ce projet a besoin de...
bénévole
développeur
gestionnaire de la communauté
rejoindre
approuver
créé le21:30, 31 May 2016 (UTC)

Idée du projet

Quel est le problème que vous essayez de résoudre ?

Le harassement répétitif de la part de certains mauvais utilisateurs abusifs dans certains articles ou page séletionnés

Quelle est votre solution ?

Il y a déjà des suspensions ou banissements pour des éditions d’articles. Actuellement proposées par une personne et décidées par des discussions dédiées. Mais on pourrait cumuler des "Like" et "Unlike" avec de courts commentaires, signalés par n'importe quel lecteur ou éditeur.

Si le rythme des « Je n’aime pas » dépasse un certain seuil pour un même utilisateur, il peut voir ses droits de modification limités par un délai prédéfini, et potentiellement en augmentant ce temps si les « Je n’aime pas » augmentent, sur certaines pages éditées ou sur toutes. Également, le score d’un utilisateur devrait être visible par tous, afin que les personnes sachent si l’utilisateur est ou n’est pas digne de confiance.

If the pace of the "Unlike" score exceeds a certain threshold for a single user, the user may be limited by restricting his editing rights for a certain time period that has been decreed, and potentially increasing the time if the "Unlike" increases on some or all pages edited. Also the score of an user should be visible to all, so that people will know if the user is trustworthy or not. Bien sur il faut toujours des discussions pour choisir un type de limitation. Mais ce mode de détection et ces automatismes pourraient graduer les limitations, soulager les patrouilleurs et auto-limiter les perturbateurs. Ce cadre de restriction progressive pourrait freiner les utilisateurs abusifs à agir spontanément car ils craindraient les conséquences d’avoir une mauvaise réputation. Afin que le système d’évaluation des utilisateurs fonctionne correcgtement, il serait nécessaire d’avoir deux types de notes d’évaluation.

  1. Une note générale d’évaluation de l’utilisateur devrait afficher combien de J’aime et de Je n’aime pas l’utilisateur a accumulé au cours de la durée de vie de son compte.
  2. Un système d’évaluation des J’aime et Je n’aime pas pour un article individuel sur une seule page basé sur chaque modification effectuée par l’utilisateur dans l’historique de cette page.

Ne regarder et prendre des décisions que sur l’évaluation générale d’un utilisateur n’est pas une façon adéquate pour juger un utilisateur. Et ceci du fait qu’un utilisateur peut avoir un grand nombre de J’aime concernant de nombreuses créations et modifications effectuées par l’utilisateur. Mais (pour certaines raisons) l’utilisateur peut avoir biaisé un seul article et manipulé la page selon ses propres envies. C’est pourquoi il faut égtalement le second type de système d’éaluation pour une page spécifique afin que les autres puissent restreindre le comportement abusif ciblé.

Un des problèmes est que cette fonctionnalité des J’aime et des Je n’aime pas émise par cet outil peut en lui-même devenir une méthode d’harassement de la part d’autres utilisateurs. Pour résoudre ceci, il peut exister une option permettant à l’utilisateur de demander un passage en revue de sa note d’évaluation. Si assez de personnes trouvent que le nombre de Je n’aime pas reçus par l’utilisateur lui a été incorrectemetn assigné et était un act d’abus, elles peuvent voter pour supprimer cette évaluation. Mais en général le système d’évaluation sera assez précis, à moins que Wikipédia aient plus de personnes malveillantes abusives que de personnes bonnes et honnètes.

Also to avoid a voting war, where a user will harass the users that voted negatively against them, the user itself should not be able to see who down (or up) voted them.

Objectifs

  • Pour limiter et minimiser le nombre d’utilisateurs abusifs qui harassent d’autres personnes ou qui effectuent des modifications non pertinentes quant au sujet de l’article actuel.
  • Les lecteurs et rédacteurs devraient avoi un moyen de vérifier la validité d’un utilisateur.

Impliquez-vous !

À propos du créateur de l’idée

Participants

Soutiens

  • Excellent idea which works well on many websites.
  • This is a great idea. It is superior to the system we have now, where a person can continually wipe clean their talk page, often under the guise of "archiving", to hide their complaints, conflicts and misdeeds. Anticla rutila (talk) 06:54, 3 June 2016 (UTC)
    • Interesting, but not quite clear to me how this would work in practise : would the like / dislike option be available for every single edit of every user ? Camster (talk) 07:33, 3 June 2016 (UTC)
  • There's a lot of merit in this idea. I think that the up and down votes should be weighted on factors like how long the voter has been registered on the Wikimedia project, how much positive and negative feedback they have been given, how many of their edits have been reverted, and if they have been the subject of any sanctions. This will go some way to mitigate gaming of the system. Ljhenshall (talk) 21:17, 3 June 2016 (UTC)

Étendre de votre idée

L’ octroi d’une subvention de la part de la Fondation Wikimedia Foundation pourrait-elle permettre à votre idée de porter ses fruits ? Vous pouvez étendre cette idée en une proposition de subvention.

Étendre pour une subvention rapide
Étendre pour une subvention de projet
(lancement le 1er juillet)