Moderación de comentarios: Y, sin embargo, ¿podemos confiar en los usuarios?

¿De que se trata esta historia? El hecho de que alguien necesita protegernos constantemente de los extremos en las discusiones en línea. Sobre lo que están haciendo los organizadores de las discusiones para permitirnos comunicarnos al menos de alguna manera aceptable, y cómo no pueden hacer frente a esta tarea. Sobre lo que nos falta en dicha comunicación y qué novedades se pueden ofrecer en el campo de la moderación.

Entonces, en el escenario bajo la luz de los focos: moderación de las discusiones en línea, o más bien comentarios.




¿Cuál es el problema, contra qué estamos luchando?


¡Una discusión sobre un tema de interés para usted es genial! Un interesante interlocutor al otro lado del continente: ¡este no es el sueño de nuestros antepasados! Sin embargo, en las discusiones en línea hay una mosca en la pomada: constantemente alguien interfiere.

Este problema es enfrentado por blogueros novatos, quienes primero se sumergieron en el maravilloso mundo en línea y abrieron el preciado diálogo de comentar sobre el mundo entero en su blog. Los gigantes de Internet luchan con él, invierten millones de dólares anualmente en esta tarea y contratan a cientos de miles de moderadores adicionales durante un aumento de la actividad de los usuarios que discuten las principales noticias, desastres, pandemias, etc.

Una vez que tal problema fue el spam explícito, y las mayores plagas fueron los bots de Internet que fueron programados para hacerse pasar por usuarios y spam en beneficio de sus anfitriones en los diálogos de comentarios. Con este tipo de interferencia en las discusiones, los organizadores, aunque con diversos grados de éxito, aprendieron a luchar. Aprendí a desanimarlos y confundirlos. Gracias a los servicios de captcha, filtros automáticos, redes neuronales y Akismet, ¡qué hay con nosotros que nos protege del spam evidente!

En la máquina, hay otra máquina.


Pero resultó que los organizadores todavía no pueden exhalar. Habiendo protegido la discusión de los correos masivos de bots de Internet, también debe protegerse de las personas que no siguen las reglas de la discusión en línea. Y luego resultó que no se podían prescindir de los métodos automáticos, porque son débiles.

Porque ahora todavía están en el punto equivocado del desarrollo. Porque todavía comprenden muy mal el significado de los diálogos humanos. Porque, como antes, en la época de Karel Chapek, las mejores mentes de la humanidad todavía están luchando por crear una IA fuerte que realmente pueda entendernos. Porque un usuario que viola las reglas, si lo desea, omite silenciosamente los filtros, las redes neuronales y otras máquinas pseudointeligentes.



Entonces, ¿qué tenemos ahora?


Como resultado, la organización de la discusión, como antes, requiere la presencia de una persona moderadora. Sí, por supuesto, los programas se están volviendo más inteligentes y pueden reducir muchos controles. Pero están equivocados, además, y a menudo, pero acertadamente. Como resultado, el moderador, como antes, permanece con la decisión final: ¿uno u otro comentario viola las reglas, va más allá de la discusión, este comentario engaña automáticamente? Bueno, ¿de dónde obtenemos el número correcto de moderadores para todos los diálogos?

Ahora los propietarios de sitios se enfrentan a una situación que, en algunos casos, es mejor desactivar los comentarios por completo.


Puede ser más fácil para un blogger que quiere centrarse en escribir artículos (o tal vez algo más agradable) y que no tiene la capacidad (y no quiere, ¿por qué debería hacerlo?) Para distraerse moderando las discusiones. Puede ser más simple y económicamente más factible para las grandes compañías de Internet. Esto, por ejemplo, fue realizado por el alojamiento de videos de YouTube en marzo de 2019, que introdujo nuevas reglas, después de las cuales decenas de millones de videos perdieron el botón "Dejar un comentario". Y todo porque los anunciantes no están contentos con los comentarios, a menudo de naturaleza sexual y se niegan a anunciarse en dicho entorno de información. ¡Hola a la moderación automática! ¡Pues no pueden!

¿Pero qué pasa con los propios usuarios que debaten? ¿Pueden ayudarme?


Parecería que sí. La mayoría de los usuarios están interesados ​​en una discusión adecuada. Al final, hay personas más que adecuadas que personas inadecuadas, y de alguna manera podrían participar en el proceso de moderación, evaluar de alguna manera los comentarios y entre sí de forma independiente. Muy tentador, ¿no? Parece que el moderador no es particularmente necesario entonces. Como en la vida ordinaria, cuando la idoneidad de las discusiones está bajo nuestro control y si alguien interfiere con la discusión, la comunidad simplemente la excluye. En algunos casos, incluso con puños.

En Internet, no todo es así, porque todos son iguales, porque no hay confianza en los usuarios. Defecto. Dar la oportunidad de moderar directamente los comentarios de otras personas a un usuario simple es una locura, un hara-kiri de Internet para el organizador.

Sin embargo, los intentos de transferir al menos parte de la gestión de la discusión a los usuarios continúan. Es muy tentador.


Aquí, por ejemplo, puede llamar a un moderador en caso de violación. ¿Te acuerdas? El codiciado botón de "queja". ¡Clase! Solo que aquí hay algo perezoso para nuestro blogger, especialmente no tiene prisa. De todos modos, ¿tal vez lo presionaste en broma?

O, por ejemplo, si muchos usuarios indican una violación, entonces, tal vez, puede confiar en una moderación colectiva y ocultar automáticamente la violación. Pero hay dificultades. Pero, ¿qué pasa si no hay suficientes usuarios para organizar una votación colectiva? Y, de hecho, de alguna manera existe la sospecha de que ese voto puede ser engañado desde diferentes navegadores.

O puede intentar elegir a los usuarios más objetivos y darles funciones de moderación. Como, por ejemplo, en Habré. Pero debería haber una gran comunidad con su propia historia, sobre la base de la cual se puedan seleccionar usuarios objetivos. Y este no es siempre el caso.

Entonces, si estamos en el camino zen de atraer usuarios a una discusión adecuada, entonces obviamente llegamos a la pregunta:

¿Cómo aprender a confiar en el usuario?




Parece imposible simplemente tomar y confiar en la evaluación de un usuario desconocido. ¡Pero puede crear las condiciones bajo las cuales se puede confiar en esta evaluación! ¡Y ya existe una experiencia tan exitosa en Internet! Este método lo utilizan los conocidos y bastante cansados ​​de ReCapcha . Más precisamente, una de sus primeras versiones, en la que se le pidió al usuario que escribiera algunas palabras para la autorización en el sitio. Una de estas palabras era prueba y era conocida por el sistema, y ​​la otra palabra era desconocida para el sistema, y ​​era necesario reconocerla. Los propios usuarios no sabían qué palabra se sabía y cuál no, y para iniciar sesión más rápido, ¡tenían que responder honestamente, no adivinar!

Como resultado, los usuarios que respondieron honesta y correctamente ingresaron la palabra de verificación se consideraron objetivos, ¡y ReCapcha los transmitió y también los aceptó! una palabra previamente desconocida para ella como resultado verdadero.

¡Y resultó ser efectivo! De esta manera simple, los usuarios de ReCapcha en los primeros seis meses de trabajo reconocieron con éxito cerca de 150 millones de palabras no reconocidas, lo que equivale a 7.500 libros que no pudieron reconocer los métodos automáticos. No está mal, ¿verdad?

¿Pero podemos aplicar tal método en el campo de la moderación?


Por qué no? Nada impide darle al usuario la oportunidad de evaluar el cumplimiento de las reglas una serie de comentarios, entre los cuales habrá uno cuya calificación desconocemos, y el resto serán de prueba. Luego, acepte la calificación del comentario desconocido si el usuario es honesto al evaluar los comentarios de prueba (es decir, conocidos por el sistema). Además, para evaluar el comentario desconocido, de esta manera, no necesitaremos organizar un voto colectivo, ¡será suficiente para un usuario que demuestre su idoneidad!

Y luego aún más interesante. Este método aparentemente simple de una evaluación objetiva única cuando se replica puede dar un poderoso efecto de moderación, por así decirlo, moderación de usuario independiente:

  1. - :
    , 1 2. 2 3. . , .
  2. - .
    , , . . .
  3. - :
    “?”. . , , . , - .
  4. :
    , , - , . , , - - , . - , . , .


Como se cantaba en la canción satírica de un soldado:
puramente inscrito en papeles,
sí, se olvidaron de los barrancos, ¡
y caminaron sobre ellos!
¿Y cómo será en la vida?



Para mayor claridad, damos un ejemplo de postmoderación basado en este método:

1) Supongamos que tenemos la siguiente discusión. Cualquier lector que encuentre una violación puede invocar la verificación haciendo clic en "viola?"



2) Se le ofrecerán las reglas de moderación del usuario y se le pedirá que califique los comentarios de otros antes de enviar el comentario elegido por él a la moderación. Al hacer clic en el botón "Calificar >>", podrá continuar con la evaluación.



3) El siguiente es un ejemplo de una de 4 calificaciones (puede haber un número diferente de calificaciones) que se le ofrecerán. La respuesta es sí o no.



4) Si el usuario es objetivo y evalúa correctamente todos los comentarios (en este ejemplo habrá 3 comentarios de prueba y uno desconocido que debe verificarse), entonces se lo considera objetivo y se le permitirá enviar su comentario elegido para moderación.



5) Si el usuario se equivocó en las partes de verificación, se lo considera parcial y no podrá enviar un comentario sobre la moderación.



Lo mismo se puede organizar para la moderación previa. En general, basado en este método, es posible la siguiente cultura de comentarios:

  • Los usuarios no autorizados en el sitio siempre comentan con moderación previa del usuario.
  • Los usuarios autorizados, si no violan, pueden comentar sin moderación previa.
  • Los lectores pueden solucionar problemas utilizando post-moderación personalizada.




Solo así, podemos atraer a los usuarios a la solución de la tarea de moderación si comenzamos a confiar en ellos. Por lo tanto, podemos dar a los usuarios la oportunidad de mantener una cultura de comunicación por su cuenta, sin molestarlos en absoluto, y organizar un entorno en el que no sería rentable que los comentaristas violen las reglas de discusión.


¡Gracias! ¡Y que comience la crítica!

Anexo: Se creó una demostración basada en este artículo.
Puedes probarlo aquí .

All Articles