Neues Tool, mit dem asiatische Nachrichtenagenturen gefälschte Bilder erkennen können

Hallo alle zusammen. Heute teilen wir Ihnen eine Übersetzung eines Artikels mit, der am Vorabend des Starts eines neuen Kurses von OTUS - Computer Vision erstellt wurde .




Journalisten und Faktenprüfer haben enorme Schwierigkeiten, verlässliche Informationen von schnell verbreiteten Fehlinformationen zu trennen. Und das gilt nicht nur für die Texte, die wir lesen. Virale Bilder und Memes füllen unsere Newsfeeds und Chats und verzerren häufig den Kontext oder sind Fälschungen. In Asien, wo es achtmal mehr Benutzer sozialer Netzwerke gibt als in Nordamerika, ist das Ausmaß des Problems viel schwerwiegender.

Es gibt Tools, mit denen asiatische Journalisten die Herkunft und Zuverlässigkeit von Nachrichtenbildern bestimmen können. Sie sind jedoch relativ alt, unzuverlässig und größtenteils nur auf Desktop-Computern verfügbar. Dies ist ein Hindernis für Faktenprüfer und Journalisten in Ländern, in denen die meisten Menschen über ihr Mobiltelefon eine Verbindung zum Internet herstellen.

In den letzten zwei Jahren hat die Google News Initiative in Zusammenarbeit mit Journalisten an der Technologie zur Identifizierung verarbeiteter Bilder gearbeitet. Auf dem Trusted Media Summit 2018 in Singapur haben sich ein Expertenteam von Google, Storyful und eine Vielzahl von Vertretern der Nachrichtenbranche zusammengetan , um ein neues Tool zu entwickeln, das für mobile Geräte optimiert ist und die Errungenschaften der künstlichen Intelligenz nutzt. Mit der Unterstützung der Google News Initiative , des BNE-Cloud-Programms und freiwilliger Ingenieure von Google wurde der Prototyp dann zu einer Anwendung namens Source, die von Storyful unterstützt wird .

Da die Anwendung bereits von Journalisten in der Region verwendet wird, haben wir Eamonn Kennedy, den Produktdirektor von Storyful, gebeten, uns etwas mehr über ihn zu erzählen.

Was sieht Storyful in den Problemen, mit denen Journalisten und Faktenprüfer auf der ganzen Welt und insbesondere in Asien konfrontiert sind?

[ ] , . , . . , . , , , .

Source , AI ?

[] Storyful, , , .

— , , , . -, — , . -, , , , , , .

Source Google's AI, , , , . , . Source , , .



Source , .


Source 2020 ?
[] 130 17 , . , 30 Source , , — , — .

Mit Blick auf die Zukunft hören wir den Faktenprüfern zu, wenn wir über die nächste Version der Anwendung nachdenken. Wir wissen, dass Source zum Beispiel verwendet wurde, um Frames aus Videos zu untersuchen, was uns das Entwicklungspotential einer Anwendung für die Arbeit nicht nur mit Text oder Bildern zeigt. Das ultimative Ziel besteht darin, eine „Toolbox“ öffentlich verfügbarer Ressourcen zur Überprüfung von Fakten zu erstellen, wobei Source im Mittelpunkt steht und mithilfe von Google AI Journalisten auf der ganzen Welt hilft.




Die Übersetzung endete damit, aber wir baten den Kursleiter - Arthur Kadurin - um einen Kommentar zu dem Artikel:
Eines der aktuellen „heißen“ Themen im Bereich Computer Vision, „Adversarial Attacks“, sind Methoden zur „Täuschung“ moderner Algorithmen zur Erkennung und Verarbeitung visueller Informationen unter Verwendung neuer, speziell gestalteter Bilder. In den letzten Jahren wurden Anwendungen, die Fotos und Videos auf besondere Weise verarbeitet haben (FaceApp, Deepfake usw.), weithin bekannt gemacht. Eine der Schlüsselfragen ist, ob wir neuronale Netze verwenden können, um reale Bilder von verarbeiteten zu unterscheiden. Eines der Themen des Computer Vision- Kurses ist diesem Thema gewidmet. In der Lektion werden moderne Ansätze analysiert, wie „Täuschung“ mithilfe neuronaler Netze richtig bestimmt und erfolgreich „getäuscht“ werden kann.

Erfahren Sie mehr über den Kurs

All Articles