Un nouvel outil pour aider les agences de presse asiatiques à repérer les fausses images

Bonjour à tous. Aujourd'hui, nous partageons avec vous la traduction d'un article qui a été préparé à la veille du lancement d'un nouveau cours d'OTUS - Computer Vision .




Les journalistes et les vérificateurs des faits rencontrent d'énormes difficultés à séparer les informations fiables de la diffusion rapide de la désinformation. Et cela ne s'applique pas seulement aux textes que nous lisons. Les images et les mèmes viraux remplissent nos fils de nouvelles et nos chats, et souvent ils déforment le contexte ou sont des faux. En Asie, où les utilisateurs de réseaux sociaux sont huit fois plus qu'en Amérique du Nord, l'ampleur du problème est beaucoup plus grave.

Il existe des outils que les journalistes asiatiques peuvent utiliser pour déterminer l'origine et la fiabilité des images d'actualités, mais ils sont relativement anciens, peu fiables et, pour la plupart, disponibles uniquement sur les ordinateurs de bureau. C'est un obstacle pour les vérificateurs des faits et les journalistes dans les pays où la plupart des gens se connectent à Internet à l'aide de leur téléphone portable.

Au cours des deux dernières années, la Google News Initiative a travaillé en collaboration avec des journalistes sur la technologie d'identification des images traitées. Lors du Trusted Media Summit 2018 à Singapour, une équipe d'experts de Google, Storyful et un large éventail de représentants de l'industrie de l'information ont uni leurs forces pour développer un nouvel outil optimisé pour les appareils mobiles et utilisant les réalisations de l'intelligence artificielle. Avec le soutien de Google News Initiative , du programme GNI Cloud et d'ingénieurs bénévoles de Google, le prototype reçu s'est ensuite transformé en une application appelée Source, propulsée par Storyful .

Maintenant que l'application est déjà utilisée par des journalistes de toute la région, nous avons demandé à Eamonn Kennedy, directeur produit de Storyful, de nous en dire un peu plus sur lui.

Qu'est-ce que Storyful voit les problèmes rencontrés par les journalistes et les vérificateurs des faits partout dans le monde, et en particulier en Asie?

[ ] , . , . . , . , , , .

Source , AI ?

[] Storyful, , , .

— , , , . -, — , . -, , , , , , .

Source Google's AI, , , , . , . Source , , .



Source , .


Source 2020 ?
[] 130 17 , . , 30 Source , , — , — .

Pour l'avenir, nous écoutons les vérificateurs de faits lorsque nous pensons à la prochaine version de l'application. Nous savons que Source a été utilisé, par exemple, pour étudier des images de vidéo, ce qui nous montre le potentiel de développement d'une application pour travailler non seulement avec du texte ou des images. L'objectif ultime est de créer une «boîte à outils» de ressources de vérification des faits accessibles au public, avec Source au centre, en utilisant Google AI pour aider les journalistes du monde entier.




Sur ce point, la traduction a pris fin, mais nous avons demandé des commentaires sur l'article du chef de cours - Arthur Kadurin:
L'un des sujets actuels «d'actualité» dans le domaine de la vision par ordinateur, les «attaques contradictoires», concerne les méthodes de «tromper» les algorithmes modernes de reconnaissance et de traitement des informations visuelles à l'aide de nouvelles images spécialement conçues. Ces dernières années, les applications qui ont traité des photos et des vidéos d'une manière spéciale (FaceApp, Deepfake, etc.) ont été largement diffusées; l'une des questions clés est de savoir si nous pouvons utiliser des réseaux de neurones pour distinguer les images réelles des images traitées. L'un des sujets du cours de vision par ordinateur est consacré à cette question. Dans la leçon, nous analyserons les approches modernes pour déterminer correctement la «tromperie» en utilisant les réseaux de neurones et comment les «tromper» avec succès.

En savoir plus sur le cours

All Articles