Deepfakes ووسائل الإعلام العميقة: ساحة معركة جديدة للأمن



هذه المقالة هي جزء من عدد خاص من VB. اقرأ السلسلة الكاملة هنا: AI and Security .

يزداد عدد المغامرات - الوسائط التي تلتقط صورة أو صوت أو فيديو حالية وتستبدل شخصية الشخص عليها بشخص آخر يستخدم الذكاء الاصطناعي - بسرعة. وهذا أمر مقلق، ليس فقط لأن مثل هذه المنتجات المقلدة يمكن استخدامها للتأثير على آراء الناس أثناء الانتخابات أو لشخص توريط في الجرائم، ولكن أيضا لأنها سبق أن يساء استخدامها لإنشاء الاباحية وهمية و خداع مدير شركة الطاقة البريطانية .

توقعًا لهذا النوع من الواقع الجديد ، يعمل اتحاد المؤسسات الأكاديمية وشركات التكنولوجيا والمنظمات غير الربحية على تطوير طرق لتحديد الوسائط المضللة التي يولدها الذكاء الاصطناعي. يظهر عملهم أن أدوات الكشف ليست سوى حل قابل للتطبيق على المدى القصير ، في حين أن سباق التسلح الخناقي قد بدأ للتو.

Dipfake نص


في السابق ، كان أفضل نثر ابتكرته منظمة العفو الدولية أشبه بنصوص لعبة Mad Libs أكثر من رواية "باقات من الغضب" ، ولكن يمكن لنماذج اللغة الحديثة الآن كتابة نصوص قريبة من العرض والإقناع لتلك التي كتبها شخص. على سبيل المثال ، فإن نموذج GPT-2 ، الذي أصدرته شركة OpenAI للأبحاث في سان فرانسيسكو ، يخلق شظايا في أسلوب المقالات أو النصوص على غرار New Yorker للعصف الذهني في غضون ثوان . باحثون اقترح مركز معهد ميدلبري للإرهاب والتطرف ومكافحة الإرهاب أنه يمكن إنشاء GPT-2 والنماذج المماثلة الأخرى للدعوة إلى تفوق العرق الأبيض والإسلام الجهادي وأيديولوجيات تهديد أخرى - وهذا يثير المزيد من المخاوف.


أعلاه: Frontend GPT-2 ، نموذج لغة مدرب من شركة الأبحاث OpenAI.
مجاملة صورة: OpenAI


بحثًا عن نظام قادر على اكتشاف المحتوى الاصطناعي ، قام باحثون في مدرسة Paul G. Allen لعلوم وهندسة الكمبيوتر في جامعة واشنطن ومعهد Allen للذكاء الاصطناعي بتطوير Grover ، وهي خوارزمية يزعمون أنها تمكنت من تحديد 92٪ من diphages في الاختبار مجموعة مكونة من البيانات العامة الشائعة للزحف. يشرح الفريق نجاحه من خلال نهج كتابة الإعلانات ، والذي ، وفقًا لهم ، ساعد في فهم ميزات اللغة التي أنشأتها منظمة العفو الدولية.

أصدر فريق من العلماء من جامعة هارفارد ومعهد MIT-IBM Watson AI Lab غرفة اختبار نموذج اللغة العملاقة بشكل منفصل، بيئة ويب تحاول تحديد ما إذا كان النص مكتوبًا باستخدام نموذج AI. بالنظر إلى السياق الدلالي ، تتنبأ بالكلمات التي من المرجح أن تظهر في جملة ، بشكل أساسي كتابة نصها الخاص. إذا كانت الكلمات في العينة قيد الاختبار تتوافق مع 10 أو 100 أو 1000 كلمة على الأرجح ، يتحول المؤشر إلى اللون الأخضر أو ​​الأصفر أو الأحمر ، على التوالي. في الواقع ، تستخدم نصها القابل للتنبؤ به كدليل لتحديد المحتوى الذي تم إنشاؤه بشكل مصطنع.

Dipfake أشرطة الفيديو


إن الذكاء الاصطناعي الحديث ، الذي يولد الفيديو ، هو بنفس الخطورة ولديه نفس القدرات ، إن لم يكن رائعة ، مثل نظيره الطبيعي. و المادة العلمية التي نشرتها SenseTime بدء التشغيل هونج كونج القائم، جامعة نانيانغ للتكنولوجيا، ومعهد التشغيل الآلي للأكاديمية الصينية للعلوم تفاصيل الإطار الذي التعديلات لقطات باستخدام الصوت لتجميع الفيديو واقعية. قام باحثون من Hyperconnect في سيول بتطوير أداة MarioNETte مؤخرًا ، والتي يمكنها معالجة ملامح الوجه لشخصية تاريخية أو سياسي أو مدير تنفيذي ، لتوليف وجه متحرك بواسطة حركات شخص آخر.

ومع ذلك ، حتى أكثر dipfakes واقعية تحتوي على القطع الأثرية التي تصدرها. يقول Ishay Rosenberg ، رئيس مجموعة التدريب العميق في شركة الأمن السيبراني Deep Instinct ، "إن Dipfakes التي أنشأتها الأنظمة التوليدية تدرس مجموعة من الصور الحقيقية في مقطع فيديو ، تضيف إليها صورًا جديدة ، ثم تنشئ فيديو جديدًا بصور جديدة". "يختلف الفيديو الناتج اختلافًا طفيفًا نتيجة للتغيرات في توزيع البيانات التي يتم إنشاؤها بشكل مصطنع وتوزيع البيانات في الفيديو الأصلي. هذه ما يطلق عليها "اللمحات في المصفوفة" هي ما يمكن للكاشفات الخناق تمييزه.


أعلاه: مقطعي فيديو مزيفين تم إنشاؤهما باستخدام أحدث التقنيات.
الصورة مقدمة من: SenseTime في


الصيف الماضي ، أعد فريق من جامعة كاليفورنيا في بيركلي وجامعة جنوب كاليفورنيا نموذجًا للبحث عن "وحدات عمل الوجه" بالضبط - بيانات عن حركات الوجه والقراد والتعبيرات ، بما في ذلك عند رفع الشفة العلوية وتقلب الرأس عند الناس عبوس - لتحديد مقاطع الفيديو المزيفة بدقة تزيد عن 90٪. وبالمثل ، في أغسطس 2018 ، اختبر المشاركون في برنامج الطب الشرعي الإعلامي التابع لوكالة مشاريع الأبحاث المتقدمة للدفاع الأمريكية (DARPA) الأنظمةقادر على اكتشاف الفيديو الناتج عن الذكاء الاصطناعي بناءً على إشارات مثل الوميض غير الطبيعي وحركات الرأس الغريبة ولون العين غير المعتاد وأكثر من ذلك بكثير.

تعمل العديد من الشركات الناشئة حاليًا على تسويق أدوات مماثلة للكشف عن صور فيديو مزيفة. يقدم مختبر أمستردام Deeptrace Labs مجموعة من أدوات المراقبة التي تهدف إلى تصنيف ملفات dipfakes التي يتم تحميلها على الشبكات الاجتماعية ومنصات استضافة الفيديو وشبكات التضليل. اقترحت ديسا طرقًا لتحسين أجهزة الكشف المزيفة المدربة على مجموعات الفيديو المزيفة. وفي يوليو 2018 ، جمعت تروبيك 8 ملايين دولار.لتمويل خدماتها للكشف العميق عن المزيفة في الفيديو والصور. في ديسمبر 2018 ، استحوذت الشركة على شركة فوراندزكس الناشئة ، التي حصل كاشف صورها المزيف على ترخيص DARPA.


أعلاه: صور Dipfake تم تحريرها بواسطة AI.

بالإضافة إلى تطوير أنظمة مدربة بالكامل ، نشر عدد من الشركات مجموعة من النصوص على أمل أن يقوم مجتمع البحث بتطوير طرق جديدة للكشف عن المنتجات المزيفة. لتسريع هذه العملية ، قاد Facebook ، جنبًا إلى جنب مع Amazon Web Services (AWS) ، والشراكة على الذكاء الاصطناعي ، والأكاديميين من العديد من الجامعات ، تحدي Deepfake Detection. يحتوي البرنامج على مجموعة من عينات الفيديو مع ملصقات تشير إلى أن بعضها تأثر بالذكاء الاصطناعي. في سبتمبر 2019 ، أصدرت Google مجموعة من المنتجات المزيفة المرئيةكجزء من اختبار FaceForensics ، الذي تم إنشاؤه من قبل الجامعة التقنية في ميونيخ وجامعة نابولي فيديريكو الثاني. وفي الآونة الأخيرة ، طور باحثون من SenseTime ، بالتعاون مع جامعة نانيانغ للتكنولوجيا في سنغافورة ، DeeperForensics-1.0 ، وهي مجموعة بيانات للكشف عن المنتجات المزيفة التي يزعمون أنها الأكبر من نوعها.

Dipfake الصوت


إن الذكاء الاصطناعي والتعلم الآلي ليسا مناسبين فقط لتجميع الفيديو والنص ، بل يمكنهم أيضًا نسخ الأصوات. أظهرت دراسات لا تعد ولا تحصى أن مجموعة البيانات الصغيرة هي كل ما هو مطلوب لإعادة إنشاء خطاب الشخص. تتطلب الأنظمة التجارية مثل Resemble و Lyrebird بضع دقائق من التسجيلات الصوتية ، في حين أن النماذج المتطورة ، مثل أحدث تطبيق Baidu Deep Voice ، يمكنها فقط نسخ الصوت من عينة مدتها 3.7 ثانية. لا توجد العديد من الأدوات للكشف عن ضغوط الصوت ، ولكن الحلول بدأت في الظهور.





قبل بضعة أشهر ، أصدر فريق Resemble أداة مفتوحة المصدر تسمى Resemblyzer ، والتي تستخدم الذكاء الاصطناعي والتعلم الآلي لاكتشاف dipfakes من خلال الحصول على عينات صوتية عالية المستوى والتنبؤ بما إذا كانت حقيقية أو محاكاة. بعد تلقي ملف صوتي مع الكلام ، يقوم بإنشاء تمثيل رياضي يلخص خصائص الصوت المسجل. يسمح هذا للمطورين بمقارنة تشابه الصوتين أو معرفة من يتحدث في الوقت الحالي.

في يناير 2019 ، كجزء من مبادرة أخبار Google ، أصدرت Google مجموعة من الكلمات تحتوي على "آلاف" العبارات المنطوقة باستخدام نماذج تحويل النص إلى كلام. تم أخذ عينات من مقالات إنجليزية قرأها 68 صوتًا اصطناعيًا مختلفًا باللهجات المختلفة. الحالة متاحة لجميع المشاركين في ASVspoof 2019 ، وهي مسابقة تهدف إلى تعزيز الإجراءات المضادة ضد الكلام المزيف.

يخسر الكثير


لم يحقق أي من الكواشف دقة كاملة ، ولم يكتشف الباحثون بعد كيفية تحديد التأليف المزيف. تتوقع الغريزة العميقة روزنبرغ أن يلهم هذا الممثلين السيئين بنشر مزيف. وقال "حتى لو تم الكشف عن dipfake التي أنشأها مهاجم ، إلا أن dipfake معرضة للخطر". "بالنسبة للممثل ، فإن خطر الإمساك به ضئيل ، لذلك هناك قيود قليلة على إنشاء منتجات مزيفة."

يتم دعم نظرية روزنبرغ من خلال تقرير Deeptrace ، الذي وجد 14،698 مقطع فيديو مزيفًا عبر الإنترنت خلال أحدث تعداد له في يونيو ويوليو 2019. على مدى سبعة أشهر ، زاد عددهم بنسبة 84 ٪. الغالبية العظمى منهم (96 ٪) هي مقاطع فيديو إباحية تعرض نساء.

بالنظر إلى هذه الأرقام ، يجادل روزنبرغ بأن الشركات التي "تخسر الكثير" بسبب الخناق يجب أن تطور وتطبق تكنولوجيا الكشف العميق في منتجاتها ، والتي ، في رأيه ، تشبه برامج مكافحة الفيروسات. وفي هذه المنطقة ظهرت تحولات. أعلن Facebook في أوائل يناير أنه سيستخدم مجموعة من الأنظمة الآلية واليدوية للكشف عن المحتوى المزيف ، واقترح Twitter مؤخرًا وضع علامة على diphakes وحذف تلك التي قد تكون ضارة.

بالطبع ، التقنيات الكامنة وراء جيل dipfakes هي مجرد أدوات ، ولديها إمكانات كبيرة للأعمال الصالحة. وقال مايكل كلوزر ، رئيس Data & Trust في شركة Access Access ، وهي شركة استشارية ، إن التكنولوجيا تُستخدم بالفعل لتحسين التشخيص الطبي واكتشاف السرطان ، وسد الثغرات في رسم خرائط الكون ، وتحسين تدريب المركبات غير المأهولة. لذلك ، يحذر من استخدام الحملات العامة لمنع الذكاء الاصطناعي التوليدي.

"منذ أن بدأ القادة في تطبيق المعايير القانونية الحالية في حالات الشؤون الدبلوماسية ، من المهم جدًا الآن عدم التخلص من التقنيات القيمةقال كلوزر "التخلص من المنتجات المقلدة". "في نهاية المطاف ، فإن السوابق القضائية والمعايير الاجتماعية المتعلقة باستخدام هذه التكنولوجيا الجديدة ليست ناضجة بما يكفي لإنشاء خطوط حمراء ساطعة تحدد الاستخدام العادل وإساءة الاستخدام."

All Articles