اليوم: الإثنين | التاريخ: 2019/11/11

تقنية التزييف العميق “deep fake” كيف بدأت وكيف تعمل؟

تقنية التزييف العميق “deep fake” كيف بدأت وكيف تعمل؟

أسماء رمضان – كاتب لدى نون بوست- يقول إيلون ماسك، رائد الأعمال الشهير والمدير التنفيذي لشركة تسلا موتورز: “الذكاء الاصطناعي أخطر من الأسلحة النووية”، فعلى الرغم من كل مميزات تكنولوجيا الذكاء الاصطناعي هناك من حذروا منه ومن مدى خطورته على حياة البشر، والآن يبدو أن إحدى المخاوف بدأت بالظهور.

على سبيل المثال، تخيل ظهور شخصيات عسكرية وسياسية ومجتمعية معروفة تتبوأ مناصب مهمة في المجتمع، على الإنترنت في لقطات فيديو بالصوت والصورة متحدثة في موضوعات حساسة بطريقة غير معهودة أو ربما تخوض في نقاشات غير لائقة مجتمعيًا وقد تكشف أسرارًا عسكرية وسياسية، وتنتشر بعد ذلك بشكل فيروسي على جميع منصات السوشيال ميديا، محدثة اضطرابات أمنية ومجتمعية واسعة في حين أنها في الحقيقة ليست إلا فيديوهات مزيفة معدة بتقنية الـdeep fake التي تعد واحدة من أعقد تقنيات الذكاء الاصطناعي حيث يصعب على غير المتخصصين كشفها.

ففي أبريل 2018 ظهر مقطع فيديو مدته دقيقة واحدة للرئيس السابق باراك أوباما جالسًا وخلفه العلم الأمريكي، يتحدث بشكل مباشر إلى المشاهدين مستخدمًا ألفاظًا نابية للغاية بحق الرئيس الأمريكي الحاليّ دونالد ترامب، وقد شوهد الفيديو أكثر من 5 ملايين مرة في غضون أقل من خمسة أشهر، والحقيقة أن الفيديو زُيف بدقة كبيرة عبر استخدام تقنيات الذكاء الاصطناعي، وصنع هذا الفيديو الممثل والمخرج الأمريكي جوردان بيل الذي قلد صوت أوباما لتوضيح مخاطر فيديوهات ومقاطع الصوت المزيفة.

وفي مقطع مزيف آخر اعترف مؤسس موقع فيسبوك مارك زوكربيرغ قائلًا: “تخيل هذا لثانية واحدة: رجل واحد، مع سيطرة كاملة على المليارات من البيانات المسروقة من الناس، كل أسرارهم وحياتهم ومستقبلهم”، مضيفًا بأن مهمة منصته الأساسية لا ترتكز على مساعدة الناس ولكن هدفها الوصول لأكبر قدر ممكن من المعلومات للتنبؤ بقراراتهم المستقبلية والتحكم بها، وفبرك الفيديو المصممان بيل بوسترز ودانييل هاو وذلك بالتعاون مع شركة الإعلانات الإسرائيلية “كاني” التي سبق وأنشأت أكثر من فيديو مفبرك.

كيف بدأت قصة تقنية الـdeep fake؟

في غرفة بها أريكة بيضاء ولوحة فنية معلقة على إحدى الجدران، جلست الممثلة الأمريكية\الإسرائيلية جال غادوت بطلة فيلم Wonder Women مرتدية ملابس ملفتة للغاية وتعلو وجهها ابتسامة صافية، ذلك المشهد ظهر في منتدى Reddit الأمريكي الشهير، حيث تمكن مستخدم تحت اسم deep fake من صناعة هذا المشهد المزيف وغيره الكثير عبر برامج الذكاء الاصطناعي واللافت أن التطابق بين وجه جال غادوت وجسم الممثلة الإباحية كان مماثلًا للغاية.

لفهم مدى خطورة تلك التقنية يجب البحث وراء تصنيفها، فهي شكل من أشكال الخداع البصري الذي يجعلنا نتوهم حدوث أمر لم يحدث

أغلقت إدارة المنتدى حساب صاحب تلك الفيديوهات ولكن بعد فوات الأوان، إذ استطاع مطورو البرمجيات كتابة خوارزميات وبرامج تجعل من السهل على أي شخص غير متخصص استخدام تلك التقنية، وقد أُتيحت تلك البرامج على الإنترنت مجانًا بشكل سهل التحميل.

كيف تعمل تقنية التزييف العميق؟

لفهم مدى خطورة تلك التقنية يجب البحث وراء تصنيفها، فهي شكل من أشكال الخداع البصري الذي يجعلنا نتوهم حدوث أمر لم يحدث، ويرتكز معظم إنتاج محتوى التزييف العميق على تقنية التعلم الآلي (generative adversarial networks) المعروفة اختصارًا باسم GANs، وتستخدم تلك التقنية من المزورين المحترفين لتبديل الوجه بين شخصين ليحمل كل شخص وجه الآخر، ثم تبحث الخوارزمية عن حالات يعرض فيها الأشخاص وضعية للوجه وتعبيرات متماثلة وفي الخلفية تنقب خوارزميات الذكاء الاصطناعي عن أفضل تطابق ممكن من أجل إدراج الوجهين.

وفقًا لمطور برنامج الـFakeApp الذي رفض كشف هويته خوفًا من الملاحقة القانونية يستند البرنامج إلى مكتبات مفتوحة المصدر توفرها جوجل مجانًا للباحثين وطلبة الدراسات العليا

في الوقت الحاليّ لا يعتمد الأمر على المزورين فحسب، فبداخل متجر جوجل يوجد تطبيق FakeApp الذي يعد إصدارًا متطورًا لبرنامج فوتوشوب، ولكن عوضًا عن التلاعب بالصور فقط يتلاعب التطبيق الجديد بالفيديوهات والمقاطع المصورة أيضًا، ففي حالة التزييف العميق لا تتم مبادلة الوجه فقط ولكنه يطابق أيضًا التعبيرات وشكل الجسد ليبدو الفيديو المزيف وكأنه الأصلي تمامًا.

ووفقًا لمطور برنامج الـFakeApp الذي رفض كشف هويته خوفًا من الملاحقة القانونية يستند البرنامج إلى مكتبات مفتوحة المصدر توفرها جوجل مجانًا للباحثين وطلبة الدراسات العليا مثل: Keras وTensorFlow، وأضاف المطور أن البرنامج الخاص به يستخدم تقنيات الذكاء الاصطناعي لإنجاز ثلاث خطوات أساسية وهي: المحاذاة Alignment والتدريب Training والدمج Merging.

أوجه خطورة فيديوهات الـتزييف العميق

يقول رئيس مبادرة هارفرد للتحكم الأخلاقي بالذكاء الاصطناعي تيم هوانغ: “في الماضي إذا أردت أن تصور رئيس الدولة وهو يقول شيئًا لم يقله في الحقيقة كنت تحتاج إلى فريق كبير من المتخصصين المحترفين، أما اليوم فالذكاء الاصطناعي يمكنه فبركة ذلك الأمر بكل سهولة وبأفضل جودة ممكنة ولكن هذا سيؤدي إلى أننا سنجد أنفسنا وسط عاصفة كبيرة من التضليل”.

وفقًا لدراسة أعدها معهد ماساتشوستس للتكنولوجيا بشأن مدى انتشار المحتوى المزيف على منصات السوشيال ميديا في الفترة بين عامي 2006 و2017 توصلت الدراسة إلى أن الأكاذيب انتشرت بشكل أعمق وأكبر وأسع وأسرع نطاقًا من الحقائق بجميع فئات المعلومات

وما يزيد من خطورة هذا الأمر أن السيناريوهات المحتملة للتلاعب السياسي مرعبة للغاية، صحيح أن الحقيقة ستظهر عاجلًا أم آجلًا، ولكن الأثر الذي تتركه الأخبار الكاذبة والمزيفة بعد نشر الحقائق لا يختفي بين ليلة وضحاها، وهو الأمر الذي أكدته أستاذة جامعة ستانفورد أيلين داناهو حين قالت إن السردية السياسية حين تتحول من اتجاه لآخر يصير من المستحيل أن نحيلها لمصدرها الأصلي وكذلك المقاطع المزيفة، ففي حين نُشر فيديو زائف وظهر ردًا عليه فيديو يدحض هذا المقطع، سيجد المتلقون أنفسهم في حالة من فوضى الفيديوهات والادعاءات، إذ سيصبح من الصعب عليهم معرفة أين الحقيقة وأين الكذب وحينها فقط سيلجأ كل متلقٍ لانحيازاته الشخصية.

فوفقًا لدراسة أعدها معهد ماساتشوستس للتكنولوجيا بشأن مدى انتشار المحتوى المزيف على منصات السوشيال ميديا في الفترة بين عامي 2006 و2017، توصلت الدراسة إلى أن الأكاذيب انتشرت بشكل أعمق وأكبر وأسع وأسرع نطاقًا من الحقائق بجميع فئات المعلومات، ففي موقع التواصل الاجتماعي “تويتر” على سبيل المثال تمت إعادة تغريد المحتوى المزيف بنسبة 70% أكثر من المحتوى الحقيقي.

كيف يمكن اكتشاف فيديوهات التزييف العميق؟

بحسب ناتاليا أوسيبوفا وهي واحدة من كبار الصحفيين في قسم صحافة الفيديو التابع لـ”وول ستريت جورنال” فإن كشف الفيديوهات المزيفة بتقنية الـdeep fake يتم عن طريق التحقق من الفيديو لقطة بلقطة وذلك من خلال استخدام برامج تحرير الفيديو مثل برنامج final cut الذي يمكّن الصحفيين من إبطاء لقطات الفيديو وتكبير الصور لقطة بلقطة.

وبالنسبة للمحتوى الصوتي فيجب مراقبة التنفس غير المنتظم وإيقاع الصوت غير الطبيعي والأصوات ذات الطابع المعدني، فكل هذه إشارات على استخدام تقنيات الذكاء الاصطناعي، ومع ذلك يجب ذكر أن كشف الفيديوهات المزيفة ليس بالأمر السهل أبدًا.

مقالات ذات صله