يمكن أن تخدع تقنية التزييف العميق العديد من أنظمة مصادقة التحقق من الوجه بسهولةDeepfakes can easily

 يتم ضبط بعض وحدات الكشف عن التزييف العميق الحديثة على تقنيات قديمة.


درس فريق من الباحثين من جامعة بنسلفانيا (الولايات المتحدة الأمريكية) وجامعتي تشجيانغ وشاندونغ (الصين) قابلية التزييف العميق لبعض أكبر أنظمة المصادقة القائمة على الوجه في العالم. كما أظهرت نتائج الدراسة ، فإن معظم الأنظمة معرضة لتطوير أشكال جديدة من التزييف العميق.

نفذت الدراسة هجمات التزييف العميق باستخدام منصة مخصصة تم نشرها على أنظمة التحقق من صحة الوجه (FLV) ، والتي يتم توفيرها عادةً من قبل كبار البائعين وبيعها كخدمة للعملاء في المراحل النهائية مثل شركات الطيران وشركات التأمين.

يهدف Facial Lively إلى عكس استخدام تقنيات مثل الهجمات على الصور ، واستخدام الأقنعة والفيديو المسجل مسبقًا ، وما يسمى بـ "الوجوه الرئيسية" وغيرها من أشكال استنساخ التعريف المرئي.
خلصت الدراسة إلى أن العدد المحدود من وحدات الكشف عن التزييف العميق في مثل هذه الأنظمة ربما تم ضبطه على تقنيات قديمة أو قد يكون محددًا جدًا للهندسة المعمارية.
وأشار الخبراء إلى أنه "حتى إذا كانت مقاطع الفيديو التي تمت معالجتها تبدو غير واقعية للأشخاص ، فلا يزال بإمكانهم تجاوز آلية اكتشاف التزييف العميق الحالية بمعدل نجاح مرتفع للغاية".
كان الاكتشاف الآخر هو أن التكوين الحالي لأنظمة التحقق من الوجه الشائعة متحيز ضد الذكور البيض. كانت النساء والأقليات الملونة أكثر فاعلية في تجاوز أنظمة الفحص ، مما يعرض هؤلاء العملاء لخطر أكبر للتعرض للقرصنة من خلال الأساليب القائمة على التزييف العميق.
يقدم المؤلفون عددًا من التوصيات لتحسين الحالة الحالية لـ FLV ، بما في ذلك إهمال المصادقة أحادية الصورة ("Image Based FLV") عندما تعتمد المصادقة على إطار واحد من كاميرا العميل ؛ تحديث أكثر مرونة وشمولية لأنظمة اكتشاف التزييف العميق في المجالات الرسومية والصوتية ؛ فرض الحاجة إلى مزامنة المصادقة الصوتية في فيديو المستخدم مع حركات الشفاه (والتي ، كقاعدة عامة ، ليست الآن) ؛ ومطالبة المستخدمين بأداء الإيماءات والحركات التي يصعب حاليًا استنساخها بواسطة أنظمة التزييف العميق (مثل عرض ملف تعريف والتعتيم جزئيًا على الوجه).

0 تعليقات