شعار قسم ميدان

تقنية الـ "Deep Fake".. كيف ستدمر التقنية إمكان وجود الحقيقة؟

ميدان - أوباما و deep fake

يبدو كما لو أن العالم قد جُن. لا تمضي بضعة أشهر الآن دون أن يظهر فيديو جديد لشخصية عامة تقول أشياء غير متوقعة على الإطلاق. خذ مثلا هذا الفيديو الذي ظهر فيه رئيس الولايات المتحدة السابق باراك أوباما وهو يسب دونالد ترامب بألفاظ نابية ويصفه بالأخرق، أو ذاك المقطع الذي اعترف فيه مارك زوكربيرغ مؤسس فيسبوك بأن مهمة منصته الأساسية ليست أن تساعد الناس على التواصل كما كان يدّعي، بل الوصول لأكبر قدر ممكن من المعلومات عن المستخدمين ليسهل التنبؤ بتصرفاتهم المستقبلية والتحكم فيها.

   

   

تصريحات من الغريب أن تصدر من شخصيات بارزة مثل رئيس سابق لدولة عُظمى، ومؤسس واحد من أهم التطبيقات في العصر الحديث، أليس كذلك؟ لكن، وهنا تكمن المفاجأة، لم يتفوه أحد منهما بأيٍّ من تلك الكلمات على الإطلاق، ومقطعا الفيديو السابقان ملفّقان بالكامل.

  

   

للوهلة الأولى، سيبدو لأي شخص أن مَن يتحدث أمامه في المقطعين السابقين هما أوباما وزوكربيرغ نفسيهما، ففي الفيديوهين، نرى الوجهين والصوتين المألوفين للرئيس السابق وعملاق التقنية. لكن وراء الكواليس، جلس المخرج الأميركي جوردن بيل في فيديو أوباما يتحدث، ورجل مجهول في فيديو زوكربيرغ يتلو تلك الاعترافات الغريبة، وعن طريق استخدام تقنية تسمى بالتزييف العميق (Deep Fake)، تم تركيب وجه وصوت أوباما وزوكربيرغ على الفيديوهين، وفي النهاية، كانت النتيجة مقطعين مزورين يبدوان حقيقين تماما بشكل مخيف.

 

نقول مخيف لأنه، مع فقداننا القدرة على التمييز بين ما هو حقيقي وما هو مزيف، ستعتري تجربتنا مع الواقع ومفهومنا عن الحقيقة هشاشة غير مسبوقة. سيتلبس الشك حواسنا، وأمام كل مقطع مصور سنقف ونتساءل: هل حدث بالفعل ما نراه، أم أن أحدهم اختلقه عبر برنامج ما على حاسوبه؟ هذا هو المستقبل القريب جدا والمربك الذي تعدنا به تقنية التزييف العميق.

 

ظهرت تلك التقنية أول ما ظهرت على إحدى مجموعات موقع "ريديت" (Reddit) -موقع أميركي شهير يشبه المنتديات- حيث تمكّن مستخدم تحت الاسم المزيف "Deep Fake" من تركيب أوجه نساء مشهورات فوق أجساد ممثلات أفلام إباحية، ونشر النتيجة على "ريديت". أغلقت إدارة الموقع المجموعة التي انطلقت منها تلك الفيديوهات وحساب صاحبها، لكن بعد فوات الأوان. فقد استطاع مطورو البرمجيات من المشتركين في تلك المجموعة كتابة خوارزميات وبرامج تجعل من السهل أمام أي شخص أن يستخدم تلك التقنية، ويركّب وجه أي شخص على مقطع مسجل لأي شخص آخر؛ وقاموا بعدها بإتاحة تلك البرامج على الإنترنت بشكل مجاني تماما وسهل التحميل.[1] يمكن عبر تلك التقنية إنتاج مؤثرات بصرية في السينما بتكلفة أقل بكثير من تلك المعتادة، أو إعادة محاكاة صوت شخص تعرض لإصابة وفقد إثرها القدرة على الكلام. لكن تبقى مخاطرها أكثر سوداوية بكثير من أي فائدة ممكنة من ورائها.

   

باستخدام تقنية التزييف العميق، سيستطيع أي شخص جالس وراء حاسوب أن يختلق أشياء من العدم، ويقدمها كما لو كانت حوادث حقيقية تماما،
باستخدام تقنية التزييف العميق، سيستطيع أي شخص جالس وراء حاسوب أن يختلق أشياء من العدم، ويقدمها كما لو كانت حوادث حقيقية تماما،
   

لنفهم مدى خطورة تلك التقنية، علينا أولا أن نبحث وراء تصنيفها؛ إنها نوع من أنواع الخداع البصري الذي يجعلنا نتوهّم حدوث شيء على خلاف ما حدث بالفعل. ليست "الخدع" البصرية بالشيء الجديد علينا كمتلقين بالطبع، فنحن نراها منذ نحو القرن في الأفلام السينمائية. لكن، بينما يُوقّع مُشاهد الفيلم على عقد غير مكتوب ينص على كون كل ما يراه خيالا محضا، ويضع نفسه بالتالي في حالة ذهنية تفترض بداهة أن ما يراه لم يحدث بشكل حقيقي، فإنه يكون في حالة ذهنية مختلفة تماما أثناء مشاهدته فيديو لسياسي يُلقي خطبة، أو مقطعا من تقرير صحفي تلفزيوني يُوثّق حادثة ما. المشاهد هنا يفترض بداهة أن كل ما رآه حدث على أرض الواقع.

  

لكن الآن، باستخدام تقنية التزييف العميق، سيستطيع أي شخص جالس وراء حاسوب أن يختلق أشياء من العدم، ويقدمها كما لو كانت حوادث حقيقية تماما، وهنا يكمن الكابوس الذي تُمثّله تلك التقنية: إنها تأخذ الخداع البصري من مساحة الخيال لنطاق الواقع، وتجعل من الصعب إن لم يكن من المستحيل أن نفرق بين الاثنين. وفي نطاق الواقع، يكاد لا يوجد استخدام للتزييف العميق أخطر من السياسة.

      

    

سياسة الأكاذيب

طالما كانت الأكاذيب السلاح المفضل للسياسيين، فلم يُعرف رجال السياسة يوما بتحرّيهم للصدق، ومثلما قالت الفيلسوفة والمنظرة السياسية حنة آرنت في مقالها "الحقيقة والسياسة": "لم يساور أحدا يوما الشكُ عن كون العلاقة التي تجمع الحقيقة بالسياسة سيئة، ولا رأى أحد، على حد علمي، أن التزام الصدق من فضائل السياسة. فلطالما اعتُبر الكذب أداة مهمة ومبررة في مهنة السياسي ورجل الدولة على السواء". فمن أجل الفوز في الانتخابات وهزيمة المنافسين، قلما تردد أحد السياسيين قبل أن يلفق لخصمه الأكاذيب، ولا فكّرت الآلة الإعلامية لإحدى الدول كثيرا قبل أن تشن حملة على دولة أخرى مبنية على معلومات مشكوك في صحتها. فالخُطب التي يوجّهها السياسيون للجموع غالبا ما تهدف لمخاطبة عواطفهم لا عقولهم، وفي هذا، كثيرا ما تنزلق للكذب والمبالغات.[2]

 

وكمثال حديث على ذلك، لجأ وزير خارجية بريطانيا السابق ورئيس الوزراء الحالي بوريس جونسون للكذب في حملة بريكست عام 2016 لإثارة مشاعر الغضب لدى الناخبين، وإقناعهم بضرورة خروج بريطانيا من الاتحاد الأوروبي. فصرّح جونسون مرارا أن بريطانيا ترسل للاتحاد الأوروبي 350 مليون يورو في كل أسبوع، الادعاء الذي استندت إليه حملة الخروج من الاتحاد الأوروبي بقوة، والذي وصفته الهيئة البريطانية للإحصاء[3] بعدها بـ "السخيف"، ومع ذلك، فلم يكن أثره في استمالة مشاعر الناخبين بالضئيل. [4] لم يحتج جونسون ولا حملته إلى تقنية متطورة لتلفيق أرقام مبالغ فيها، وبالمثل، فالكذب في مجال السياسة للتأثير في الرأي العام لم يتوقف يوما على التكنولوجيا، فهو قديم قِدم الممارسة السياسية نفسها. لكن ما أضافته التقنية لمعادلة الكذب كان قدرتها على جعل حواسنا نفسها تخدعنا.

    undefined

    

لطالما ظننا أن أكثر طريقة موثوقة لتلقي أي معلومة هو أن نرى دليلا عليها بأعيننا. هكذا كانت الرؤية دائما أفضل دليل على صدق موضوعها، فلا يمكن لعينك أن تخدعك، أليس كذلك؟ ربما فيما مضى، لكن منذ بدايات الألفية، لا يمكنك الوثوق تماما حتى فيما تخبرك به عيناك. نقول بدايات الألفية، لأن تلك الفترة من الزمن، بالتحديد عام 2004، شهدت أول وأبرز حادثة تزوير لصور فوتوغرافية بهدف التأثير في الناخبين باستخدام برنامج فوتوشوب. ففي إبان حملة انتخابات الرئاسة الأميركية، انتشر عبر الإنترنت صورة بالأبيض والأسود تعود للسبعينيات، وتجمع مرشح الحزب الديموقراطي جون كيري بالممثلة والناشطة جين فوندا أثناء إلقائها لخطبة في حشد مناهض للحرب في فيتنام.

  

أن يكون لفوندا، التي عدّها البعض خائنة بعد أن سافرت لهانوي عاصمة فيتنام إبان حرب الولايات المتحدة عليها، أي صلة بمرشح رئاسي لهو شيء كافٍ لتأليب الرأي العام وإثارة البلبلة حول هذا المرشح. وهو بالضبط ما هدفت إليه تلك الصورة الملفقة. ففوندا وكيري لم يجتمعا في أي حشد مناهض للحرب قط، والصورة التي انتشرت عبر الإنترنت ونشرتها بعدها كبريات الصحف على غرار النيويورك تايمز بصفتها حقيقية، لم تكن سوى مزج بين صورتين منفصلتين واحدة لفوندا عام 1971 والأخرى لكيري عام 1972. [5] 

    

هكذا، عبر فوتوشوب، استطاع مزوّرو الصورة أن يختلقوا شيئا لم يحدث قط، وأن يحصلوا على دليل مصور عليه، ممهّدين الطريق لعالم اليوم الذي ما عاد كل ما نراه فيه بالضرورة حقيقيا. فالآن، تأخذ تقنية التزييف العميق ما بدأت به تقنية فوتوشوب عام 2004 خطوة أبعد، ومثلما جعل فوتوشوب من الصعب أن نثق تماما فيما نراه في الصور، فالتزييف العميق في طريقه لأن يجعل ما نشهده ونسمعه في مقاطع الفيديو عُرضة للتلاعب.

     

صورة مزورة تجمع
صورة مزورة تجمع "جون كيري" و"جين فوندا" (مواقع التواصل)

    

نحن هنا لا نتحدث عن مستقبل بعيد، بل عن أشياء بدأت تظهر بالفعل. لم تعد تقنية التزييف العميق تُستخدم فقط في فيديوهات كوميدية وخدع سينمائية، بل بدأت تضع قدمها على أرض الواقع لتغير للأبد مفهومنا عن الحقيقة. ففي مايو/أيار من هذا العام، ظهر فيديو لنانسي بيلوزي، رئيسة مجلس نواب الولايات المتحدة الأميركية، تتحدث فيه ببطء وتتلعثم في الكلام كما لو كانت مخمورة. الفيديو في الحقيقة مفبرك، ففي الفيديو الحقيقي الذي نشرته بعدها الواشنطن بوست، تتحدث بيلوزي بشكل طبيعي تماما. إلا أن هذا لم يعرقل انتشار الفيديو الملفق على نطاق واسع على منصات التواصل الاجتماعي، ولم يمنع رئيس الولايات المتحدة دونالد ترمب نفسه من مشاركته على حسابه الشخصي على موقع تويتر. وحتى بعد أن عُرف كون الفيديو ملفقا، رفضت منصات التواصل الاجتماعي أن تسحبه من على مواقعها. [6]

  

التزييف العميق وموت الحقيقة

استخدام التقنية في التلاعب بالصور والمقاطع ليس بالشيء الجديد، لكن تقنية التزييف العميق، بما تتميز به من سهولة استخدام وإتاحة أمام أي شخص، أخذت هذا التزييف لمستوى آخر تماما. يقول تيم هوانغ، رئيس مبادرة هارفرد للتحكم الأخلاقي بالذكاء الاصطناعي، عن هذا: "منذ زمن بعيد ونحن نستطيع أن نزيف الصور ومقاطع الفيديو. لكن في الماضي، إن أردت أن تصور الرئيس وهو يقول شيئا لم يقله في الحقيقة، كنت ستحتاج إلى فريق من المتخصصين. أما اليوم، فلن يكتفي الذكاء الاصطناعي فقط بأتمتة هذه العملية، بل سيفبرك مقاطع مزورة أفضل جودة. أضف إلى هذا كون الوصول لتلك التقنية عبر الإنترنت شيئا سهلا، وستجد نفسك تقف في وسط عاصفة من التضليل". [7]

 

وهو ما ذهب إليه روبرت شيسني نفسه، أستاذ القانون بجامعة أوستن، في مقاله في الفورين أفيرز الذي جاء فيه: "ما يجعل مخاطر تقنية التزييف العميق غير مسبوقة هو ما تجمع بينه من جودة عالية، وسهولة تطبيقها على وسائط اعتدنا أن نستقي منها معلوماتنا مثل الفيديو والتسجيلات الصوتية".[8] وبوجود تقنية مثل التزييف العميق على الساحة، فالسيناريوهات المحتملة للتلاعب السياسي بها كلها كابوسية. وهو ما يذهب إليه شيسني في مقاله عن تلك التقنية، فيتخيل سيناريو لم يعد بالمستحيل، لفيديو واحد مزور يظهر عشية الانتخابات لمرشح محتمل يقول فيه أشياء مشينة، ويقلب نتائج الانتخابات رأسا على عقب، قبل حتى أن يتمكن أحد من تدارك المسألة والتيقن من كون الفيديو فعلا حقيقيا أم لا.

   

  

قد تقول لنفسك، دائما ما تظهر الحقيقة بعد الأكاذيب، وتنتشر البيانات والأدلة التي توضح إذا ما كان شيء ما قد وقع بالفعل أم لا. قد يكون هذا صحيحا بالفعل، لكن الأثر الذي تتركه الأكاذيب لا يختفي من تلقاء نفسه بعد معرفة الحقائق. عن هذا تقول أيلين داناهو الأستاذة بجامعة ستانفورد: "عندما تتحول سردية سياسية من اتجاه لآخر، يصير من شبه المستحيل أن نُرجعها لاتجاهها الأصلي. ومن هنا، فتوضيح أن أحد المقاطع المنتشرة هو في الحقيقة ملفق لن يمحو أثره". [9] ففي خضم ظهور فيديو يدّعي شيئا ما، وظهور بعدها ما يدحض هذا المقطع، سيجد المتلقّون أنفسهم في فوضى من الادعاءات يصير من الصعب عليهم معها معرفة أين الحقيقة وأين الكذب. وهنا، سيلجأ كل شخص لانحيازه المبدئي.

 

فلو أنك مثلا أوروبي مؤيد لليمين وتكره الجماعات المغايرة من عرب ومسلمين، كنت ستقع تحت تأثير التغريدة التي نشرتها الناشطة السياسية ثيودورا ديكنسون على حسابها على موقع تويتر وجاء فيها: "ردا على الهجوم على مسجد نيوزلندا، قام الإسلاميون بحرق كنيسة في باكستان، فلماذا لا نرى هذا في الأنباء؟"[10]، والتي نشرتها مع مقطع مصور لكنيسة تحترق. لكن ذلك المقطع يعود في الحقيقة لعام 2013، قبل حادثة نيوزلندا بستة أعوام، وقد وقع في مصر وليس في باكستان. لكنك كشخص تنتمي لليمين المحافظ، لن تهتم لأيٍّ من هذا، ستسارع بالضغط على زر المشاركة قبل التبيّن من صحة ما ترى، فكل ما يتسق ونسقك الفكري هو بالضرورة حقيقي؛ أو هكذا يفكر نسبة ليست قليلة من البشر، فيما يُسمى علميا بـ "الانحياز المعرفي"[11] (Cognitive Bias).

 

هكذا، مع وجود تقنية مثل التزييف العميق على الساحة، ستتضاءل تلقائيا أهمية الحقيقة، وتصير مثلها مثل الآراء: متعددة وقابلة للتأويل؛ لن تكون هناك "حقيقة" واحدة، بل خيارات مختلفة من الحقائق التي سيختار كل شخص منها ما يتوافق مع انحيازاته السابقة.

المصدر : الجزيرة