U3F1ZWV6ZTM3ODUyNzk3NjgwX0FjdGl2YXRpb240Mjg4MTk5NzIxMDI=

مسابقة Facebook تكشف أن الكشف عن التزييف العميق لا يزال "مشكلة لم يتم حلها"


أعلن Facebook عن نتائج أول تحدي Deepfake Detection ، وهي مسابقة مفتوحة للعثور على خوارزميات يمكنها اكتشاف مقاطع الفيديو التي يتم التحكم فيها بالذكاء الاصطناعي. أظهرت النتائج ، على الرغم من أنها واعدة ، أنه لا يزال هناك الكثير من العمل الذي يتعين القيام به قبل أن تتمكن الأنظمة المؤتمتة من اكتشاف المحتوى المزيف بشكل موثوق ، حيث وصف الباحثون المشكلة بأنها "مشكلة لم يتم حلها".

يقول Facebook أن الخوارزمية الفائزة في المسابقة كانت قادرة على تحديد "أمثلة واقعية من العالم الواقعي" للرقائق العميقة بمتوسط ​​دقة 65.18 في المائة. هذا ليس سيئًا ، ولكنه ليس نوع معدل الضرب الذي تريده لأي نظام آلي.

أثبتت Deepfakes أنها شيء من خطر مبالغ فيه لوسائل الإعلام الاجتماعية. على الرغم من أن التكنولوجيا دفعت الكثير من الحركات اليدوية حول تآكل أدلة الفيديو الموثوقة ، إلا أن التأثيرات السياسية للقطع العميقة كانت حتى الآن ضئيلة. بدلاً من ذلك ، كان الضرر الأكثر إلحاحًا هو إنشاء المواد الإباحية غير المتوافقة ، وهي فئة من المحتوى يسهل على منصات التواصل الاجتماعي التعرف عليها وإزالتها.


وقال مايك شروبفر ، كبير مسؤولي التكنولوجيا في Facebook ، للصحفيين في مكالمة صحفية إنه سعيد بنتائج التحدي ، الذي قال إنه سيخلق معيارًا للباحثين ويوجه عملهم في المستقبل. وقال "بصراحة كانت المسابقة ناجحة أكثر مما كنت آمل في أي وقت مضى".

قدم حوالي 2114 مشاركًا أكثر من 35000 خوارزمية كشف إلى المسابقة. تم اختبارهم على قدرتهم على تحديد مقاطع فيديو مزيفة من مجموعة بيانات تضم حوالي 100000 مقطع قصير. استعان Facebook بأكثر من 3000 ممثل لإنشاء هذه المقاطع ، الذين تم تسجيلهم وهم يجرون محادثات في بيئات طبيعية. تم تعديل بعض المقاطع باستخدام الذكاء الاصطناعي من خلال لصق وجوه الممثلين الآخرين على مقاطع الفيديو الخاصة بهم.

تم منح الباحثين الوصول إلى هذه البيانات لتدريب الخوارزميات الخاصة بهم ، وعندما تم اختبارها على هذه المواد ، أنتجوا معدلات دقة عالية تصل إلى 82.56 في المائة. ومع ذلك ، عندما تم اختبار نفس الخوارزميات مقابل مجموعة بيانات "الصندوق الأسود" تتكون من لقطات غير مرئية ، كان أداؤها أسوأ بكثير ، حيث حقق النموذج الأفضل تسجيلًا معدل دقة 65.18 في المائة. هذا يظهر أن الكشف عن الأعماق في البرية يمثل مشكلة صعبة للغاية.


وقال شروبرفر إن فيسبوك تطور حاليًا تقنية الكشف عن الأعماق العميقة الخاصة بها المنفصلة عن هذه المنافسة. وقال: "لدينا تقنية اكتشاف عميقة في الإنتاج وسنقوم بتحسينها بناءً على هذا السياق". أعلنت الشركة أنها كانت تحظر التزييف العميق في وقت سابق من هذا العام ، لكن النقاد أشاروا إلى أن التهديد الأكبر بكثير للتضليل كان من ما يسمى "الضحلة" - مقاطع فيديو تم تحريرها باستخدام الوسائل التقليدية.

سيتم إصدار الخوارزميات الفائزة من هذا التحدي كرمز مفتوح المصدر لمساعدة باحثين آخرين ، لكن Facebook قال إنه سيحتفظ بسرية تقنية الكشف الخاصة به لمنعه من الهندسة العكسية.

وأضاف شروبفر أنه على الرغم من أن Deepfakes لم تكن "مشكلة كبيرة حاليًا" على Facebook ، إلا أن الشركة أرادت أن تكون الأدوات جاهزة للكشف عن هذا المحتوى في المستقبل - فقط في حالة. قال بعض الخبراء إن انتخابات 2020 القادمة يمكن أن تكون لحظة رئيسية لاستخدامها في التأثيرات السياسية الجادة.

قال شروبرفر: "الدرس الذي تعلمته بالطريقة الصعبة خلال العامين الماضيين ، هو أنني أريد أن أكون مستعدًا مقدمًا وألا أكون مسطحًا." "أريد أن أكون مستعدًا حقًا للكثير من الأشياء السيئة التي لا تحدث أبدًا بدلاً من العكس."

والآن هل لك أن تتأكد لنا الحقيقي من بين هذين الصورتين ؟

الاسمبريد إلكترونيرسالة