Nova ferramenta para ajudar agências de notícias asiáticas a identificar imagens falsas

Olá a todos. Hoje, estamos compartilhando com você a tradução de um artigo que foi preparado às vésperas do lançamento de um novo curso da OTUS - Computer Vision .




Jornalistas e verificadores de fatos enfrentam enormes dificuldades em separar informações confiáveis ​​de desinformação rapidamente disseminada. E isso se aplica não apenas aos textos que lemos. Imagens e memes virais preenchem nossos feeds de notícias e bate-papos, e muitas vezes distorcem o contexto ou são falsos. Na Ásia, onde há oito vezes mais usuários de redes sociais do que na América do Norte, a escala do problema é muito mais séria.

Existem ferramentas que jornalistas asiáticos podem usar para determinar a origem e a confiabilidade das imagens de notícias, mas elas são relativamente antigas, não confiáveis ​​e, na maioria das vezes, disponíveis apenas em computadores de mesa. Esse é um obstáculo para verificadores de fatos e jornalistas em países onde a maioria das pessoas se conecta à Internet usando seu telefone celular.

Nos últimos dois anos, a Google News Initiative vem trabalhando em colaboração com jornalistas na tecnologia de identificação de imagens processadas. No Trusted Media Summit 2018 em Cingapura, uma equipe de especialistas do Google, Storyful e uma ampla gama de representantes da indústria de notícias uniram forças para desenvolver uma nova ferramenta otimizada para dispositivos móveis e usando as conquistas da inteligência artificial. Com o apoio da Google News Initiative , o Programa GNI Cloud e engenheiros voluntários do Google, o protótipo recebido se transformou em um aplicativo chamado Source, desenvolvido pela Storyful .

Agora que o aplicativo já está em uso por jornalistas de toda a região, pedimos a Eamonn Kennedy, diretor de produtos da Storyful, que nos contasse um pouco mais sobre ele.

O que a Storyful vê os problemas enfrentados por jornalistas e verificadores de fatos em todo o mundo, em particular na Ásia?

[ ] , . , . . , . , , , .

Source , AI ?

[] Storyful, , , .

— , , , . -, — , . -, , , , , , .

Source Google's AI, , , , . , . Source , , .



Source , .


Source 2020 ?
[] 130 17 , . , 30 Source , , — , — .

Olhando para o futuro, ouvimos verificadores de fatos quando pensamos sobre qual será a próxima versão do aplicativo. Sabemos que o Source foi usado, por exemplo, para estudar quadros de vídeo, o que nos mostra o potencial de desenvolvimento de um aplicativo para trabalhar não apenas com texto ou imagens. O objetivo final é criar uma "caixa de ferramentas" de recursos de verificação de fatos disponíveis ao público, com a Source no centro, usando o Google AI para ajudar jornalistas de todo o mundo.




Sobre isso, a tradução chegou ao fim, mas pedimos comentários sobre o artigo do líder do curso - Arthur Kadurin:
Um dos tópicos "quentes" atuais no campo da visão computacional, "ataques adversos", são métodos de "enganar" algoritmos modernos para reconhecer e processar informações visuais usando imagens novas e especialmente projetadas. Nos últimos anos, os aplicativos que processaram fotos e vídeos de maneira especial (FaceApp, Deepfake etc.) foram amplamente divulgados, uma das principais perguntas é se podemos usar redes neurais para distinguir imagens reais das processadas. Um dos tópicos do curso Visão Computacional é dedicado a esta questão: na lição, analisaremos abordagens modernas sobre como determinar corretamente o "engano" usando redes neurais e como enganá-las com sucesso.

Saiba mais sobre o curso

All Articles