عاجل
الأربعاء 25 سبتمبر 2024
رئيس مجلس الإدارة
هبة صادق
رئيس التحرير
أيمن عبد المجيد
We
البنك الاهلي
التزييف العميق

التزييف العميق

مؤخراً، تم تداول مقطع فيديو للرئيس أوباما وهو يتحدث بشكل سلبي عن الرئيس دونالد ترامب، كما تم تداول مقطع آخر لمؤسس فيسبوك مارك زوكربيرغ وهو يشير لسيطرته على بيانات الناس بهدف التنبؤ بقراراتهم المستقبلية. الأمر الذي أثار انتباه الرأي العام العالمي فكلاهما تحدث بصراحة وبشكل صادم لا يوجد فيه أيا من أنواع الكياسة أو الاكتراث لأحد.



في الواقع .. لم يكن أيا من هذه الفيديوهات صحيح! لقد كان مفبركاً وبشكل عال في الدقة لدرجة تصعب تمييزها ما أدى لخداع الجميع. وهو ما لخصته شركة سامسونج حينما نشرت مقطع فيديو عبر وسائل التواصل الاجتماعي تتحدث فيه الموناليزا وتحرك وجهها.

 

الأمر بدأ من عام 2008 كتسلية أو سخرية باستخدام تقنية تسمى ’’التزييف العميق‘‘ وهي مزيج من تقنيات الذكاء الاصطناعي للتعلم العميق أو التعلّم الاستنتاجي مع التزييف بحيث يتم إدخال فيديو لشخص يتحدث، وواضح فيه الصوت وحركة الشفاه وتعبيرات الوجه والوقفات ثم يستبدل وجه الشخص بوجه الشخص المقصود. وبتقنيات حسابية يقوم الذكاء الاصطناعي بدمج وجه الشخص المقصود مع الفيديو ومحاكاة الكلام الذي يقال بتعبيرات الوجه ومطابقة تبديل الوجوه بالبيكسل. ليتم انتاج فيديو لم يكن موجود، يقول فيه الشخص المقصود كلام لم يقوله. وبعكس الفوتوشوب الذي يغير الصور الثابتة فإن تقنية ’’التزييف العميق‘‘ يتم فيها تغيير الفيديوهات. 

 

ورغم أن هذه التقنية استخدمت لإضافة لقطات للأفلام، ولصناعة أصوات لمن فقدوا احبالهم الصوتية إلا أن السيناريوهات قد تصبح خطيرة لو ظهر فيديو لرئيس دولة ما يهدد دولة أخرى مثلاً، أو لأحد السياسيين والمشاهير وهو يتفوه بما لا يجب. فيديو بهذا الشكل سينتشر بسرعة محققاً ملايين المشاهدات، ولكن لإثبات أنه مزيف سيحتاج الأمر وقت طويل ومن يضمن أو يتأكد أن المعلومة بعد التصحيح وصلت لنفس الذين شاهدوا الفيديو المزيف؟

 

ناقش البعض ضرورة رفع وعي المتلقيين لتجنب التزييف، فمع إبطاء الفيديو يمكن أن يتضح تغير لون البشرة في أطراف الوجه المركب. كما يمكن أن يكون الجسم المركب عليه الوجه لا يشبه البنية الجسمية للشخص الحقيقي. والأشخاص الطبيعيين تطرف أعينهم من وقت لآخر قد يكون من ثانيتين إلى عشر ثوان. ولكن في مثل هذه الفيديوهات لا تطرف العين كثيراً أو تطرف بشكل مبالغ فيه، وقد يكون هناك تغير في إضاءة الصورة وقد تكون المؤثرات الصوتية غير متناسبة مع الخلفية التي تم تركيب الفيديو عليها، وأحيانا لا يكون هناك تزامن صحيح بين حركة الشفتين والصوت. ولكن كل هذه الملاحظات قد تعبر على المشاهد العادي ليركز في المضمون الصارخ الذي يثير انتباهه.

 

الأمر قد يبقى خطير لفترة، خاصة أن التقنيات التي تسعى لاكتشاف التزييف ما زالت غير قادرة على مجاراة هذا التزييف العميق ما جعلنا نشكك في مقولة ’’لا أصدق إن لم أر بعيني‘‘ لنقول ’’لا تصدق كل ما تراه بعينيك‘‘. 

تابع بوابة روزا اليوسف علي
جوجل نيوز