Nueva herramienta para ayudar a las agencias de noticias asiáticas a detectar imágenes falsas

Hola a todos. Hoy compartimos con ustedes una traducción de un artículo que se preparó la víspera del lanzamiento de un nuevo curso de OTUS: Computer Vision .




Los periodistas y los verificadores de hechos enfrentan enormes dificultades para separar la información confiable de la información errónea que se propaga rápidamente. Y esto se aplica no solo a los textos que leemos. Las imágenes virales y los memes llenan nuestras noticias y chats, y a menudo distorsionan el contexto o son falsos. En Asia, donde hay ocho veces más usuarios de redes sociales que en América del Norte, la magnitud del problema es mucho más grave.

Existen herramientas que los periodistas asiáticos pueden usar para determinar el origen y la confiabilidad de las imágenes de noticias, pero son relativamente antiguas, poco confiables y, en su mayor parte, solo están disponibles en computadoras de escritorio. Este es un obstáculo para los verificadores de hechos y periodistas en países donde la mayoría de las personas se conectan a Internet usando su teléfono móvil.

En los últimos dos años, Google News Initiative ha trabajado en colaboración con periodistas en la tecnología para identificar imágenes procesadas. En la Trusted Media Summit 2018 en Singapur, un equipo de expertos de Google, Storyful y una amplia gama de representantes de la industria de las noticias unieron fuerzas para desarrollar una nueva herramienta optimizada para dispositivos móviles y utilizando los logros de la inteligencia artificial. Con el apoyo de Google News Initiative , el Programa GNI Cloud e ingenieros voluntarios de Google, el prototipo recibido se convirtió en una aplicación llamada Source, con tecnología Storyful .

Ahora que los periodistas de toda la región ya usan la aplicación, le pedimos a Eamonn Kennedy, director de producto de Storyful, que nos contara un poco más sobre él.

¿Qué ve Storyful los problemas que enfrentan los periodistas y los verificadores de hechos en todo el mundo, y particularmente en Asia?

[ ] , . , . . , . , , , .

Source , AI ?

[] Storyful, , , .

— , , , . -, — , . -, , , , , , .

Source Google's AI, , , , . , . Source , , .



Source , .


Source 2020 ?
[] 130 17 , . , 30 Source , , — , — .

Mirando hacia el futuro, escuchamos verificadores de hechos cuando pensamos en cuál será la próxima versión de la aplicación. Sabemos que Source se usó, por ejemplo, para estudiar cuadros de video, lo que nos muestra el potencial de desarrollo de una aplicación para trabajar no solo con texto o imágenes. El objetivo final es crear una "caja de herramientas" de recursos de verificación de hechos disponibles al público, con Source en el centro, utilizando Google AI para ayudar a los periodistas de todo el mundo.




Sobre esto, la traducción llegó a su fin, pero pedimos comentarios sobre el artículo del líder del curso, Arthur Kadurin:
Uno de los temas actuales "candentes" en el campo de la visión por computadora, los "ataques adversos", son los métodos de "engañar" a los algoritmos modernos para reconocer y procesar información visual utilizando imágenes nuevas y especialmente diseñadas. En los últimos años, las aplicaciones que han procesado fotos y videos de una manera especial (FaceApp, Deepfake, etc.) han sido ampliamente publicitadas, una de las preguntas clave es si podemos usar redes neuronales para distinguir las imágenes reales de las procesadas. Uno de los temas del curso de Visión por Computadora está dedicado a este tema. En la lección analizaremos enfoques modernos sobre cómo determinar correctamente el "engaño" usando redes neuronales y cómo "engañarlos" con éxito.

Aprenda más sobre el curso

All Articles