Moderação dos comentários: E ainda assim, podemos confiar nos usuários?

Sobre o que é essa história? O fato de alguém precisar constantemente nos proteger de extremos nas discussões on-line. Sobre o que está sendo feito pelos organizadores das discussões para nos permitir comunicar pelo menos de alguma maneira aceitável, e como eles são incapazes de lidar com essa tarefa. Sobre o que nos falta em tal comunicação e quais novidades podem ser oferecidas no campo da moderação.

Então, no palco, sob a luz quente de holofotes - moderação de discussões on-line, ou melhor, comentários.




Qual é o problema, pelo que estamos lutando?


Uma discussão sobre um tópico de seu interesse é muito legal! Um interlocutor interessante do outro lado do continente - este não é o sonho de nossos ancestrais! No entanto, nas discussões on-line há uma mosca na pomada: constantemente alguém interfere.

Esse problema é enfrentado por blogueiros novatos, que primeiro mergulharam no maravilhoso mundo online e abriram o precioso diálogo de comentar sobre o mundo inteiro em seu blog. Os gigantes da Internet estão lutando com isso, investindo milhões de dólares anualmente nessa tarefa e contratando centenas de milhares de moderadores adicionais durante uma onda de atividades do usuário discutindo as principais notícias, desastres, pandemias etc.

Uma vez que esse problema era spam explícito, e as maiores pragas foram os bots da Internet que foram programados para posar como usuários e spam para o benefício de seus hosts nos diálogos de comentários. Com esse tipo de interferência nas discussões, os organizadores, embora com graus variados de sucesso, mas aprenderam a lutar. Aprendeu a desencorajar e confundi-los. Graças aos serviços captcha, filtros automáticos, redes neurais e Akismet, o que está conosco que nos protege de spam óbvio!

Na máquina - há outra máquina.


Porém, os organizadores ainda não conseguem respirar. Tendo protegido a discussão de mala direta de bots na Internet, ela também precisa ser protegida de pessoas que não seguem as regras da discussão online. E então descobriu-se que os métodos automáticos não podiam ser dispensados, porque são fracos.

Porque agora eles ainda estão no ponto errado no desenvolvimento. Porque eles ainda entendem muito mal o significado dos diálogos humanos. Porque, como antes, na época de Karel Chapek, as melhores mentes da humanidade ainda lutam para criar uma IA forte que possa realmente nos entender. Porque um usuário que viola as regras, se desejado, ignora silenciosamente filtros, redes neurais e outras máquinas pseudo-inteligentes.



Então o que temos agora?


Como resultado, a organização da discussão, como antes, requer a presença de uma pessoa moderadora. Sim, é claro, os programas estão ficando mais inteligentes e podem reduzir muitas verificações. Mas eles estão errados, além disso, e frequentemente, mas apropriadamente. Como resultado, o moderador, como antes, permanece com a decisão final: esse comentário ou aquele viola as regras, vai além da discussão, o comentário trapaceia automaticamente. Bem, onde conseguimos o número certo de moderadores para todos os diálogos?

Agora, os proprietários de sites enfrentam uma situação que, em alguns casos, é melhor desativar completamente os comentários.


Pode ser mais fácil para um blogueiro que deseja se concentrar em escrever artigos (ou talvez algo mais agradável) e que não tem a capacidade (e não quer - por que deveria?) Para se distrair com discussões moderadas. Pode ser mais simples e economicamente viável para grandes empresas de Internet. Isso, por exemplo, foi realizado pela hospedagem de vídeos do YouTube em março de 2019, que introduziu novas regras, após as quais dezenas de milhões de vídeos perderam o botão "Deixe um comentário". E tudo porque os anunciantes não estão satisfeitos com os comentários, geralmente de natureza sexual e se recusam a anunciar em um ambiente de informações desse tipo. Aqui oi para moderação automática! Bem, eles não podem!

Mas e os próprios usuários em debate? Eles podem ajudar?


Parece que sim. A maioria dos usuários está interessada em uma discussão adequada. No final, existem mais do que pessoas adequadas do que pessoas inadequadas, e elas poderiam de alguma forma participar do processo de moderação, de alguma forma avaliar os comentários e o outro de forma independente. Muito tentador, não é? Parece que o moderador não é particularmente necessário. Como na vida cotidiana, quando a adequação das discussões está sob nosso controle e se alguém interfere na discussão, a comunidade simplesmente a exclui. Em alguns casos, mesmo com os punhos.

Na Internet, nem tudo é assim, porque todos são iguais, porque não há confiança nos usuários. Padrão. É louco dar a oportunidade de moderar diretamente os comentários de outras pessoas a um usuário simples, um hara-kiri na Internet para o organizador.

No entanto, as tentativas de transferir pelo menos parte do gerenciamento de discussões para os usuários continuam. É muito tentador.


Aqui, por exemplo, você pode ligar para um moderador em caso de violação. Você se lembra? O cobiçado botão "reclamar". Classe! Só aqui é algo preguiçoso para o nosso blogueiro, ele não está com pressa, especialmente. Enfim, talvez você tenha pressionado de brincadeira?

Ou, por exemplo, se muitos usuários indicarem uma violação, talvez você possa confiar nessa moderação coletiva e ocultar automaticamente a violação. Mas existem dificuldades. Mas e se não houver usuários suficientes para organizar uma votação coletiva? E, de fato, há alguma suspeita de que esse voto possa ser enganado em diferentes navegadores.

Ou você pode tentar escolher os usuários mais objetivos e atribuir a eles funções de moderação. Como, por exemplo, em Habré. Mas deve haver uma grande comunidade com sua própria história, com base na qual usuários objetivos podem ser selecionados. E nem sempre é esse o caso.

Portanto, se estamos no caminho zen de atrair usuários para uma discussão adequada, obviamente chegamos à pergunta:

Como aprender a confiar no usuário?




Parece impossível apenas aceitar e confiar na avaliação de um usuário desconhecido. Mas você pode criar as condições sob as quais essa avaliação pode ser confiável! E uma experiência tão bem-sucedida na Internet já existe! Este método é usado pelos conhecidos e bastante cansados ​​do ReCapcha . Mais precisamente, uma de suas primeiras versões, na qual o usuário foi solicitado a escrever algumas palavras para autorização no site. Uma dessas palavras era teste e conhecida pelo sistema, e a outra palavra era desconhecida do sistema, e era necessário reconhecê-lo. Os próprios usuários não sabiam qual palavra era conhecida e qual não era. Para fazer o login mais rapidamente, eles tinham que responder honestamente, sem adivinhar!

Como resultado, os usuários que responderam com honestidade e corretamente digitaram a palavra de verificação foram considerados objetivos, e o ReCapcha os transmitiu e também os aceitou! uma palavra anteriormente desconhecida para ela como um resultado verdadeiro.

E acabou sendo eficaz! Dessa maneira simples, os usuários do ReCapcha nos primeiros seis meses de trabalho reconheceram com êxito cerca de 150 milhões de palavras não reconhecidas, o que equivale a 7.500 livros que não conseguiam reconhecer métodos automáticos. Nada mal, né?

Mas podemos aplicar esse método no campo da moderação?


Por que não? Nada impede que o usuário tenha a oportunidade de avaliar, em conformidade com as regras, uma série de comentários, entre os quais haverá um cuja classificação não sabemos e o restante será testado. Em seguida, aceite a classificação do comentário desconhecido se o usuário for honesto em avaliar os comentários do teste (ou seja, conhecidos pelo sistema). Além disso, para avaliar o comentário desconhecido, dessa forma, não precisaremos organizar uma votação coletiva, será suficiente para um usuário que comprove sua adequação!

E então ainda mais interessante. Esse método aparentemente simples de uma única avaliação objetiva quando replicada pode fornecer um poderoso efeito de moderação, por assim dizer, moderação independente do usuário:

  1. - :
    , 1 2. 2 3. . , .
  2. - .
    , , . . .
  3. - :
    “?”. . , , . , - .
  4. :
    , , - , . , , - - , . - , . , .


Como foi cantado na canção de um soldado satírico:
puramente inscrito em papéis,
sim, eles se esqueceram das ravinas
e andam sobre elas!
E como será na vida?



Para maior clareza, damos um exemplo de pós-moderação com base neste método:

1) Suponha que tenhamos a seguinte discussão. Qualquer leitor que encontrar uma violação pode invocar a verificação clicando no botão "viola?"



2) Ele receberá as regras de moderação do usuário e será solicitado a avaliar os comentários de alguns outros antes de enviar o comentário escolhido por ele para a moderação. Ao clicar no botão "Avaliar >>", ele poderá prosseguir com a avaliação.



3) A seguir, é apresentado um exemplo de uma das 4 classificações (pode haver um número diferente de classificações) que serão oferecidas a ele. A resposta é sim ou não.



4) Se o usuário for objetivo e avaliar corretamente todos os comentários (neste exemplo, haverá 3 comentários de teste e um desconhecido que precisa ser verificado), ele será considerado objetivo e poderá enviar o comentário escolhido para moderação.



5) Se o usuário se enganou nas partes de verificação, ele é considerado tendencioso e não poderá enviar um comentário com moderação.



O mesmo pode ser organizado para pré-moderação. Em geral, com base nesse método, é possível a seguinte cultura de comentários:

  • Usuários não autorizados no site sempre comentam com pré-moderação do usuário.
  • Usuários autorizados, se não violarem, podem comentar sem pré-moderação.
  • Os leitores podem solucionar problemas usando a pós-moderação personalizada.




Assim, podemos atrair usuários para a solução da tarefa de moderação se começarmos a confiar neles. Assim, podemos dar aos usuários a oportunidade de manter uma cultura de comunicação por conta própria, sem incomodá-los, e organizar um ambiente em que seria inútil para os comentaristas violarem as regras da discussão.


Obrigado! E que comecem as críticas!

Adendo: Uma demonstração foi criada com base neste artigo.
Você pode tentar aqui .

All Articles