أداة جديدة لمساعدة وكالات الأنباء الآسيوية على اكتشاف صور مزيفة

تحية للجميع. نشارك اليوم معك ترجمة لمقال تم إعداده عشية إطلاق دورة جديدة من OTUS - Computer Vision .




يواجه الصحفيون ومدققو الحقائق صعوبات هائلة في فصل المعلومات الموثوقة عن التضليل السريع للمعلومات الخاطئة. وهذا لا ينطبق فقط على النصوص التي نقرأها. صور الفيروسية و الميمات ملء دينا يغذي الأخبار والأحاديث، وغالبا ما يشوه السياق أو هي مزيفة. في آسيا ، حيث يوجد ثمانية أضعاف عدد مستخدمي الشبكات الاجتماعية أكثر من أمريكا الشمالية ، فإن حجم المشكلة أكثر خطورة.

هناك أدوات يمكن أن يستخدمها الصحفيون الآسيويون لتحديد أصل وموثوقية الصور الإخبارية ، لكنها قديمة نسبيًا وغير موثوقة ، ومعظمها متاح فقط على أجهزة الكمبيوتر المكتبية. هذه عقبة أمام مدققي الحقائق والصحفيين في البلدان التي يتصل فيها معظم الناس بالإنترنت باستخدام هواتفهم المحمولة.

على مدار العامين الماضيين ، عملت مبادرة أخبار Google بالتعاون مع الصحفيين على التكنولوجيا لتحديد الصور المعالجة. في 2018 قمة الإعلام الموثوق بها في سنغافورة، قام فريق من الخبراء من جوجل، Storyful يحصل ومجموعة واسعة من ممثلي صناعة الأخبار انضم القوات لتطوير أداة جديدة الأمثل للأجهزة النقالة واستخدام إنجازات الذكاء الاصطناعي. بدعم من مبادرة أخبار Google ، و برنامج الغيمة الدخل القومي الإجمالي والمهندسين المتطوعين من جوجل، تلقى النموذج ثم تحولت إلى تطبيق يسمى المصدر، والمدعوم من Storyful يحصل .

الآن بعد أن تم استخدام التطبيق بالفعل من قبل الصحفيين في جميع أنحاء المنطقة ، طلبنا من Eamonn Kennedy ، مدير منتج Storyful ، أن يخبرنا المزيد عنه.

ماذا يرى Storyful المشاكل التي يواجهها الصحفيون والمدققون في جميع أنحاء العالم ، وخاصة في آسيا؟

[ ] , . , . . , . , , , .

Source , AI ?

[] Storyful, , , .

— , , , . -, — , . -, , , , , , .

Source Google's AI, , , , . , . Source , , .



Source , .


Source 2020 ?
[] 130 17 , . , 30 Source , , — , — .

في المستقبل ، نستمع إلى المدققين عندما نفكر في الإصدار التالي من التطبيق. نحن نعلم أنه تم استخدام Source ، على سبيل المثال ، لدراسة الإطارات من الفيديو ، مما يوضح لنا إمكانية تطوير تطبيق للعمل ليس فقط مع النص أو الصور. الهدف النهائي هو إنشاء "مجموعة أدوات" من موارد التحقق من الحقائق المتاحة للجمهور ، باستخدام Source في المركز ، باستخدام Google AI لمساعدة الصحفيين في جميع أنحاء العالم.




انتهت الترجمة في هذا الصدد ، لكننا طلبنا التعليق على المقال من قبل قائد الدورة - آرثر كادورين:
أحد المواضيع الحديثة في مجال رؤية الكمبيوتر ، "الهجمات العدائية" ، هي طرق "خداع" الخوارزميات الحديثة للتعرف على المعلومات المرئية ومعالجتها باستخدام صور جديدة مصممة خصيصًا. في السنوات الأخيرة ، تم نشر التطبيقات التي كانت تعالج الصور ومقاطع الفيديو بطريقة خاصة (FaceApp و Deepfake وما إلى ذلك) على نطاق واسع ؛ أحد الأسئلة الرئيسية هو ما إذا كان يمكننا استخدام الشبكات العصبية للتمييز بين الصور الحقيقية والصور المعالجة. تم تخصيص أحد مواضيع دورة الرؤية الحاسوبية لهذه المسألة ، وفي هذا الدرس سنقوم بتحليل الأساليب الحديثة لكيفية تحديد "الخداع" بشكل صحيح باستخدام الشبكات العصبية وكيفية "خداعهم" بنجاح.

تعرف على المزيد حول الدورة

All Articles