帮助亚洲新闻社发现虚假图片的新工具

大家好。今天,我们与您分享翻译文章的翻译,该文章是在OTUS- Computer Vision开设新课程的前夕编写的




记者和事实检查人员在将可靠信息与迅速传播的错误信息区分开时面临巨大的困难。这不仅适用于我们阅读的文本。病毒图片模因充斥着我们的新闻和聊天消息,并且经常扭曲上下文或伪造。在亚洲,社交网络用户数量是北美的八倍,问题的严重性更大。

亚洲记者可以使用一些工具来确定新闻图像的来源和可靠性,但是它们相对较旧,不可靠,并且大多数情况下只能在台式计算机上使用。对于大多数人使用手机连接到Internet的国家/地区的事实检查人员和新闻工作者来说,这是一个障碍。

在过去的两年中,Google新闻计划与记者合作开发了用于识别经过处理的图像的技术。在2018 信任媒体峰会在新加坡,一队来自谷歌,专家,于是Storyful和广泛的新闻行业的代表,联手开发新的工具,移动设备,并使用人工智能的成就进行了优化。在Google新闻计划GNI云计划和Google的志愿者工程师的支持下,该原型随后变成了一个名为Story的应用程序该应用程序由Storyful提供支持

现在该应用程序已被该地区的新闻工作者使用,我们请Storyful的产品总监Eamonn Kennedy告诉我们有关他的更多信息。

Storyful如何看待全世界(尤其是亚洲)记者和事实检查人员所面临的问题?

[ ] , . , . . , . , , , .

Source , AI ?

[] Storyful, , , .

— , , , . -, — , . -, , , , , , .

Source Google's AI, , , , . , . Source , , .



Source , .


Source 2020 ?
[] 130 17 , . , 30 Source , , — , — .

展望未来,当我们考虑应用程序的下一个版本时,我们会听事实检查器。我们知道,例如,Source被用来研究视频中的帧,这向我们展示了不仅用于文本或图像的应用程序的开发潜力。最终目标是创建一个公开可用的事实检查资源“工具箱”,以Source为中心,使用Google AI帮助世界各地的新闻工作者。




翻译到此结束,但我们要求课程负责人亚瑟·卡杜林(Arthur Kadurin)对这篇文章发表评论:
在计算机视觉领域,当前的“热门”主题之一是“ Adversarial攻击”,它是“欺骗”现代算法的方法,这些算法使用新设计的特殊图像来识别和处理视觉信息。近年来,以特殊方式处理照片和视频的应用程序(FaceApp,Deepfake等)已得到广泛宣传;关键问题之一是我们是否可以使用神经网络来区分已处理图像和真实图像。计算机视觉课程的主题之一就是这个问题,在本课中,我们将分析现代方法,以使用神经网络正确地确定“欺骗”,以及如何成功地“欺骗”它们。

了解有关该课程的更多信息

All Articles