Modération des commentaires: Et pourtant, peut-on faire confiance aux utilisateurs?

De quoi parle cette histoire? Le fait que quelqu'un ait constamment besoin de nous protéger des extrêmes dans les discussions en ligne. À propos de ce qui est fait par les organisateurs des discussions afin de nous permettre de communiquer au moins d'une manière ou d'une autre acceptable, et comment ils sont incapables de faire face à cette tâche. À propos de ce qui nous manque dans une telle communication et des nouveautés qui peuvent être proposées dans le domaine de la modération.

Donc, sur scène sous la lumière chaude des projecteurs - modération des discussions en ligne, ou plutôt des commentaires.




Quel est le problème, que combattons-nous?


Une discussion sur un sujet qui vous intéresse est tellement cool! Un interlocuteur intéressant de l'autre côté du continent - n'est-ce pas le rêve de nos ancêtres! Cependant, dans les discussions en ligne, il y a une mouche dans la pommade: constamment quelqu'un interfère.

Ce problème est rencontré par les blogueurs débutants, qui ont d'abord plongé dans le merveilleux monde en ligne et ouvert le précieux dialogue de commenter le monde entier sur leur blog. Les géants de l'Internet se débattent avec cela, investissant des millions de dollars par an dans cette tâche et embauchant des centaines de milliers de modérateurs supplémentaires lors d'une vague d'activité des utilisateurs pour discuter des principales nouvelles, des catastrophes, des pandémies, etc.

Une fois qu'un tel problème était un spam explicite, et les plus gros parasites étaient les robots Internet qui étaient programmés pour se présenter comme des utilisateurs et du spam au profit de leurs hôtes dans les dialogues de commentaires. Avec ce type d'ingérence dans les discussions, les organisateurs, quoique avec plus ou moins de succès, ont appris à se battre. Appris à les décourager et à les confondre. Grâce aux services captcha, aux filtres automatiques, aux réseaux de neurones et à Akismet, qu'est-ce qui nous protège contre les spams évidents!

Sur la machine - il y a une autre machine.


Mais, il s'est avéré que les organisateurs ne pouvaient toujours pas expirer. Ayant protégé la discussion contre les envois massifs de robots Internet, elle doit également être protégée des personnes qui ne respectent pas les règles de la discussion en ligne. Et puis il s'est avéré que les méthodes automatiques ne pouvaient pas être supprimées, car elles sont faibles.

Parce que maintenant, ils sont toujours au mauvais point de développement. Parce qu'ils comprennent encore très mal la signification des dialogues humains. Parce que, comme auparavant, à l'époque de Karel Chapek, les meilleurs esprits de l'humanité ont encore du mal à créer une IA forte qui puisse vraiment nous comprendre. Parce qu'un utilisateur qui viole les règles, s'il le souhaite, contourne silencieusement les filtres, les réseaux de neurones et d'autres machines pseudo-intelligentes.



Alors qu'avons-nous maintenant?


En conséquence, l'organisation de la discussion, comme précédemment, nécessite la présence d'une personne modératrice. Oui, bien sûr, les programmes deviennent plus intelligents et peuvent réduire beaucoup de contrôles. Mais ils ont tort, d'ailleurs, et souvent, mais à juste titre. En conséquence, le modérateur, comme précédemment, reste avec la décision finale: l'un ou l'autre commentaire viole-t-il les règles, va-t-il au-delà de la discussion, ce commentaire trompe-t-il automatiquement? Eh bien, où obtient-on le bon nombre de modérateurs pour toutes les boîtes de dialogue?

Les propriétaires de sites sont désormais confrontés à une situation qui, dans certains cas, vaut mieux désactiver complètement les commentaires.


Il peut être plus facile pour un blogueur qui veut se concentrer sur la rédaction d'articles (ou peut-être quelque chose de plus agréable) et qui n'a pas la capacité (et ne veut pas - pourquoi le devrait-il?) D'être distrait par la modération des discussions. Il peut être plus simple et plus rentable pour les grandes sociétés Internet. Cela, par exemple, a été réalisé par l'hébergement de vidéos YouTube en mars 2019, qui a introduit de nouvelles règles, après quoi des dizaines de millions de vidéos ont perdu le bouton "Laisser un commentaire". Et tout cela parce que les annonceurs ne sont pas satisfaits des commentaires, souvent de nature sexuelle, et refusent de faire de la publicité dans un tel environnement d'information. Ici salut à la modération automatique! Eh bien, ils ne peuvent pas!

Mais qu'en est-il des utilisateurs du débat eux-mêmes? Peuvent-ils aider?


Il semblerait que oui. La plupart des utilisateurs souhaitent une discussion adéquate. En fin de compte, il y a plus que des personnes adéquates que des personnes inadéquates et elles pourraient d'une manière ou d'une autre participer au processus de modération, évaluer les commentaires les uns des autres de manière indépendante. Très tentant, non? Il semble que le modérateur ne soit pas alors particulièrement nécessaire. Comme dans la vie ordinaire, lorsque l'adéquation des discussions est sous notre contrôle et si quelqu'un interfère avec la discussion, la communauté l'exclut tout simplement. Dans certains cas, même avec les poings.

Sur Internet, tout n'est pas le cas, car tout le monde est égal, car il n'y a pas de confiance dans les utilisateurs. Défaut. Donner la possibilité de modérer directement les commentaires des autres à un simple utilisateur est fou, un hara-kiri Internet pour l'organisateur.

Néanmoins, les tentatives de transfert d'au moins une partie de la gestion des discussions aux utilisateurs se poursuivent. C'est très tentant.


Ici, par exemple, vous pouvez appeler un modérateur en cas de violation. Te souviens tu? Le bouton convoité de «plainte». Classe! Seulement voilà quelque chose de paresseux pour notre blogueur, il n'est pas pressé surtout. Quoi qu'il en soit, vous l'avez peut-être appuyé en plaisantant?

Ou, par exemple, si de nombreux utilisateurs indiquent une violation, vous pouvez peut-être faire confiance à une telle modération collective et masquer automatiquement la violation. Mais il y a des difficultés. Mais que faire s'il n'y a pas assez d'utilisateurs pour organiser un vote collectif? Et en fait, d'une manière ou d'une autre, on soupçonne qu'un tel vote peut être triché à partir de différents navigateurs.

Ou vous pouvez essayer de choisir les utilisateurs les plus objectifs et leur donner des fonctions de modération. Comme, par exemple, sur Habré. Mais il devrait y avoir une grande communauté avec sa propre histoire, sur la base de laquelle des utilisateurs objectifs peuvent être sélectionnés. Et ce n'est pas toujours le cas.

Donc, si nous sommes sur la voie zen d'attirer les utilisateurs vers une discussion adéquate, alors nous arrivons évidemment à la question:

Comment apprendre à faire confiance à l'utilisateur?




Il semblerait impossible de simplement prendre et faire confiance à l'évaluation d'un utilisateur inconnu. Mais vous pouvez créer les conditions dans lesquelles cette évaluation peut être fiable! Et une telle expérience réussie sur Internet existe déjà! Cette méthode est utilisée par le célèbre et assez fatigué de ReCapcha . Plus précisément, une de ses premières versions, dans laquelle l'utilisateur était invité à écrire quelques mots pour autorisation sur le site. L'un de ces mots était test et connu du système, et l'autre mot était inconnu du système, et il était nécessaire de le reconnaître. Les utilisateurs eux-mêmes ne savaient pas quel mot était connu et lequel ne l'était pas, et pour se connecter plus rapidement, ils devaient répondre honnêtement, pas deviner!

En conséquence, les utilisateurs qui ont répondu honnêtement et correctement entré le mot de vérification ont été considérés comme objectifs, et ReCapcha les a transmis et les a également acceptés! un mot inconnu pour elle comme un vrai résultat.

Et cela s'est avéré efficace! De cette manière simple, les utilisateurs de ReCapcha au cours des six premiers mois de travail ont reconnu avec succès environ 150 millions de mots non reconnus, ce qui équivaut à 7 500 livres qui ne pouvaient pas reconnaître les méthodes automatiques. Pas mal, non?

Mais peut-on appliquer une telle méthode dans le domaine de la modération?


Pourquoi pas? Rien n'empêche de donner à l'utilisateur la possibilité d'évaluer le respect des règles un certain nombre de commentaires, parmi lesquels il y en aura un dont nous ne connaissons pas la note, et le reste sera des tests. Ensuite, acceptez la note du commentaire inconnu si l'utilisateur est honnête dans l'évaluation des commentaires du test (c'est-à-dire connus du système). De plus, pour évaluer le commentaire inconnu, de cette façon, nous n'aurons pas besoin d'organiser un vote collectif, il suffira d'un utilisateur qui prouvera son adéquation!

Et puis encore plus intéressant. Cette méthode apparemment simple d'une évaluation objective unique lorsqu'elle est répliquée peut donner un puissant effet de modération, pour ainsi dire, une modération indépendante de l'utilisateur:

  1. - :
    , 1 2. 2 3. . , .
  2. - .
    , , . . .
  3. - :
    “?”. . , , . , - .
  4. :
    , , - , . , , - - , . - , . , .


Comme il était chanté dans une chanson de soldat satirique:
purement inscrit dans les papiers,
oui, ils ont oublié les ravins,
et marchent dessus!
Et comment ça va être dans la vie?



Pour plus de clarté, nous donnons un exemple de post-modération basée sur cette méthode:

1) Supposons que nous ayons la discussion suivante. Tout lecteur qui rencontre une violation peut invoquer la vérification en cliquant sur le bouton "viole?"



2) Il sera proposé les règles de modération de l'utilisateur et invité à noter les commentaires de quelques autres avant d'envoyer le commentaire choisi par lui à la modération. En cliquant sur le bouton «Noter >>», il pourra procéder à l'évaluation.



3) Ce qui suit est un exemple de l'une des 4 notes (il peut y avoir un nombre différent de notes) qui lui seront proposées. La réponse est oui ou non.



4) Si l'utilisateur est objectif et évalue correctement tous les commentaires (dans cet exemple, il y aura 3 commentaires de test et un inconnu qui doit être vérifié), alors il est considéré comme objectif et il sera autorisé à envoyer le commentaire choisi pour modération.



5) Si l'utilisateur s'est trompé dans les parties de vérification, il est alors considéré comme biaisé et il ne pourra pas envoyer de commentaire sur la modération.



La même chose peut être arrangée pour la pré-modération. En général, sur la base de cette méthode, la culture de commentaires suivante est possible:

  • Les utilisateurs non autorisés sur le site commentent toujours avec une modération préalable de l'utilisateur.
  • Les utilisateurs autorisés, s'ils ne violent pas, peuvent commenter sans modération préalable.
  • Les lecteurs peuvent résoudre les problèmes en utilisant une post-modération personnalisée.




Tout comme cela, nous pouvons attirer les utilisateurs vers la solution de la tâche de modération si nous commençons à leur faire confiance. Ainsi, nous pouvons donner aux utilisateurs la possibilité de maintenir une culture de communication par eux-mêmes, sans les déranger du tout, et d'organiser un environnement dans lequel il ne serait pas rentable pour les commentateurs de violer les règles de la discussion.


Remercier! Et que la critique commence!

Addendum: une démo a été créée sur la base de cet article.
Vous pouvez l'essayer ici .

All Articles