شعار قسم ميدان

من سوريا إلى ليبيا.. لماذا تحذف الشركات الرقمية أرشيف جرائم الحرب؟

ميدان - الدمار في إدلب

يمكن للصور المروّعة إذا ما بقيت لفترة كافية على منصات مثل فيسبوك ويوتيوب دون محوها أن تساعد المحققين، الرسميين وغير الرسميين ومن جميع أنحاء العالم، على إعادة بناء مسارح الجريمة. في يوليو/تموز ٢٠١٧، ظهر فيديو على فيسبوك يوّثق إعدام ١٨ شخصا. يظهر المقطع مجموعة من الرجال المسلحين يقفون أمام صفوف من الأسرى الذين تم إجبارهم على ارتداء ثياب برتقالية وأغطية رأس سوداء. كانوا راكعين على الأرض وأيديهم مقيدة خلف ظهورهم ولم يروا ما كان سيحدث لهم بعد ذلك بقليل: إذ رفع المسلحون بندقياتهم وأطلقوا النار على رؤوسهم، فسقط الصف الأول من الضحايا على الأرض. وكرر الجلادون هذا العمل أربع مرات، بناء على أوامر شاب كان يلبس قبعة سوداء وسروالا جيشيا. إذا قمنا بإبطاء الفيديو، فسنرى أن قميصه الأسود كان يحمل شعار لواء الصاعقة، وهو وحدة النخبة في الجيش الوطني الليبي (التابع للواء خليفة حفتر). كان ذلك الشعار الدليل الأوّل في الصورة وهو يثبت أن الجريمة كانت قد وقعت في ليبيا.

 

قام فيسبوك بحذف الفيديو المروع، الذي لم يتم تحديد مصدره بعد بشكل قاطع، بعد وقت قصير من ظهوره. لكن الفيديو بقي على الإنترنت لفترة كافية سمحت بانتشار العديد من النسخ منه على مواقع التواصل الاجتماعي الأخرى، فقام ناشطو حقوق الإنسان والمدعون العامون ومستخدمو الإنترنت الآخرون في بلدان عدّة بالتدقيق بعمق في المقطع بحثا عن أدلة، وسرعان ما قاموا بالتثبّت من أن عمليات القتل كانت قد وقعت في ضواحي بنغازي. وخلص هؤلاء المحققون إلى أن القائد في الفيديو كان محمود مصطفى بوسيف الورفلّي، أحد قادة لواء الصاعقة. في غضون شهر واحد من ذلك، اتهمت المحكمة الجنائية الدولية الورفلّي رسميا بقتل ٣٣ شخصا في سبع حوادث منفصلة، في الفترة الواقعة ما بين يونيو/حزيران ٢٠١٦ ويوليو/تموز ٢٠١٧، كانت قد وثقت على فيسبوك. في مذكرة التوقيف الصادرة عن المحكمة الجنائية الدولية بحقّه، اعتمد المدّعون بشدة على الأدلة الرقمية التي جُمعت من مواقع التواصل الاجتماعي.

   

الورفلي وحفتر  (الجزيرة)
الورفلي وحفتر  (الجزيرة)

  

لم يُلقَ القبض بعد على الورفلّي أو يجلب إلى العدالة، لكن نشطاء حقوق الإنسان ما زالوا يعتبرون قضيّته إنجازا لأداة جديدة وقوية، أي أداة التحقيق ذات المصادر المفتوحة عبر الإنترنت (Open Source). حتى في المناطق القتالية التي يستحيل للمحقّقين الدخول إليها، غالبا ما تترك جرائم الحرب وغيرها من الانتهاكات خيوطا وأدلّة. ويمكن لمستخدمي الإنترنت فضح ومساءلة مرتكبي هذه الجرائم من خلال تجميع المعلومات المتاحة للجمهور على وسائل التواصل الاجتماعي والمواقع الأخرى، هذا ما لم تقم الخوارزميات التي طورتها شركات التكنولوجيا العملاقة بحذف هذه الأدلّة أولا.

 

بعد وقت قصير من صدور مذكرة التوقيف بحقّ الورفلّي، لاحظ هادي الخطيب، وهو محقق سوري الأصل مقيم في برلين ويعمل من خلال المصادر المفتوحة، أمرا مقلقا: إذ إن الآلاف من مقاطع الفيديو التي نشرها المستخدمون والتي توثّق مباشرة أحداثا من الحرب في سوريا كانت قد اختفت من الإنترنت. الخطيب هو مؤسس "الأرشيف السوري" (Syrian Archive)، وهو تجمّع للناشطين عمل منذ عام ٢٠١٤ على البحث عن المواد الرقمية التي ينشرها أولئك المنسيون في مناطق النزاع السورية. وقال الخطيب في مقابلة إن هدف هذا التجمّع هو "بناء أرشيف من الوثائق المرئية المتعلقة بانتهاكات حقوق الإنسان وغيرها من الجرائم التي ارتكبتها جميع الأطراف خلال الصراع المستمر منذ ثماني سنوات" في سوريا.

 

في أواخر صيف عام ٢٠١٧، كان الخطيب وزملاؤه يبنون بشكل منهجي دعوى ضد نظام بشار الأسد بالطريقة نفسها التي قام بها محققو المحكمة الجنائية الدولية بتتبّع الورفلّي. فجمعوا أعدادا هائلة من شهادات المواطنين، موثّقة بالصور والفيديو، والتي تُظهر بأن نظام الأسد كان يستهدف المستشفيات والعيادات الطبية من خلال القصف. يقول الخطيب: "كنا نقوم بجمع الأدلة وحفظها وتحديد موقعها الجغرافي، ونتحقق من الأدلّة من أجل هذه الدعوى"، "ثم لاحظنا ذات يوم أن جميع مقاطع الفيديو التي كنا قد قمنا بتحليلها اختفت جميعها فجأة".

   undefined

  

لم يكن ذلك نتيجة عملية قرصنة معقّدة من قِبل جهات موالية للأسد، بل كان هذا من فعل خوارزميات التعلم الآلي التي تعمل بكفاءة مرعبة على منصات التواصل الاجتماعي، لا سيما يوتيوب وفيسبوك.

 

لقد بدأت شركات التكنولوجيا في وادي السيليكون على مضض بلعب دور يشبه مزيجا من أدوار النيابة العامة والقضاء وهيئة المحلفين في القرارات المتعلقة بالرقابة على الكلمات والصور التي ينبغي إبعادها عن أنظار الجمهور. في الآونة الأخيرة، اكتسبت شركات التكنولوجيا خبرة كبيرة في تكميم الأفواه، وقد لاحظت ذلك الكيانات الحكومية التي دائما ما كانت تتمنى تحويل الشبكات الاجتماعية إلى منصّات للتنصّت. بل يمكن القول إن الحكومات تقوم اليوم بـ "التعاقد من الباطن" مع منصات وسائل الإعلام الاجتماعية هذه لتكون عيونها وآذانها الساهرة التي تراقب جميع أنواع المحتوى الذي تعتبره هذه الحكومات مرفوضا، كما تقول فينوالوا ني أولان، أستاذة القانون والمقررة الخاصة لمجلس الأمم المتحدة لحقوق الإنسان.

 

لكن بعض ما تطلب الحكومات من شركات التكنولوجيا القيام به، مثل محو المحتوى العنيف، يتعارض مع أهداف مشروعة أخرى، مثل جلب أمراء الحرب والطغاة إلى العدالة. إن تحقيق التوازن بين هذه الأولويات هو أمر صعب بما فيه الكفاية للبشر الذين عليهم اتخاذ قرارات وفقا للمعايير القانونية الثابتة لكن في حالة شركات التكنولوجيا العملاقة، فهي تعمل في الظلام إذ إنها تخضع لسياسات شروط الخدمة غير الشفافة التي يتم إنفاذها بشكل متزايد من قِبل أدوات الذكاء الاصطناعي، وليس البشر، وهي أدوات يتم تطويرها داخل هذه الشركات دون تدخل يُذكر من عامة الجمهور. تقول ني أولان: "نحن لا نعرف حتى ما الذي يتم إدخاله إلى هذه الخوارزميات، وما التحيزات… الكامنة فيها".

 

اعتمدت الشبكات الاجتماعية لسنوات عديدة على المستخدمين أنفسهم للإبلاغ عن المحتوى غير المرغوب فيه، مثل خطابات الكراهية، والدعوات لحمل السلاح، والتحريض على العنف. ولكن مع استمرار نمو هذا المحتوى على هامش هذه المنصات وعلى مرأى من الجميع فيها على حدٍّ سواء، زاد الضغط على فيسبوك ويوتيوب وتويتر والشبكات الاجتماعية الشهيرة الأخرى من أجل أتمتة عملية "التنظيف". لجأت هذه المنصات بعدها إلى التعلم الآلي، وهو فرع فعّال من الذكاء الاصطناعي قادر على التعامل مع كميّات هائلة من البيانات دون إشراف يُذكر للعقول البشرية.

   undefined

  

لقد أصبحت برمجيات التعلم الآلي، التي صُمّمت للتعرّف على المحتوى الذي ينشره "المتطرفون" ثم حذفه، "المتطرّفون" كما يعرّفهم مهندسو البرمجيات، أصبحت أدوات قوية في "تصيّد وقتل" ذلك المحتوى بشكل يؤّدي اليوم إلى جعل أكبر الشبكات الاجتماعية في العالم أماكنا "مطهّرة" بشكل كبير مقارنة بما كانت عليه قبل عام واحد فقط. تقوم منصات مثل غوغل وفيسبوك بتوضيح الإحصائيات حول ذلك في تقارير الشفافية الفصلية الخاصة بها، وعلى سبيل المثال، قام يوتيوب (الذي تملكه غوغل) بحذف ٣٣ مليون مقطع فيديو من شبكته في عام ٢٠١٨، أي نحو ٩٠ ألف مقطع فيديو يوميا، من بين مقاطع الفيديو التي تمت إزالتها بعد كشفها من قِبل الأنظمة الآلية، تمت إزالة ٧٣% منها بسرعة مهولة بحيث لم يكن قد رآها أيٌّ من مستخدمي المنصة. في الوقت نفسه، قام فيسبوك بإزالة ١٥ مليون منشور تم اعتبارها نوعا من "الدعاية الإرهابية"، وذلك بين أكتوبر/تشرين الأول ٢٠١٧ وسبتمبر/أيلول ٢٠١٨. في الربع الثالث من عام ٢٠١٨، قامت الخوارزميات بحذف نسبة ٩٩.٥% من المحتوى "الإرهابي"، أي إنه فقط ٠.٥% من هذا المحتوى كان قد تم الإبلاغ عنه من قِبل المستخدمين البشر أوّلا.

 

تثير هذه الإحصائيات قلقا كبيرا لدى المحققين الذين يعملون من خلال المصادر المفتوحة، ويقولون إن أدوات التعلم الآلي هي عبارة عن صناديق سوداء، إذ لا يعرف أحد سوى عدد متناهي الصغر من الأشخاص الذين يعملون في مجال حقوق الإنسان كيف تتم برمجة هذه الأدوات. فهل هذه "المكانس الكهربائية" ذات الذكاء الصناعي قادرة على فهم أن مقطع فيديو ما من سوريا أو اليمن أو ليبيا قد يكون دليلا ثمينا وأمرا قد خاطر أشخاص كثيرون بحياتهم من أجل نشره، وبالتالي فإنه يستحق الحفاظ عليه؟ من جانبهم، يقول القيّمون على يوتيوب، على سبيل المثال، إنّهم يعملون مع خبراء حقوق الإنسان من أجل تحسين إجراءات التصفية لديهم، لكن النقاشات الأعمق حول دور وطبيعة التكنولوجيا التي تؤثر على هذه القرارات لا تزال نادرة.

 

يقول ضياء الكيالي، مدير برنامج الدعوة التكنولوجية في "Witness"، وهي منظمة لحقوق الإنسان تعمل مع الخطيب والأرشيف السوري: "الشركات تعارض السماح للمجتمع المدني بالتحدث مباشرة إلى المهندسين لديها… وهذا شيء حاربتُ كثيرا من أجله".

 

في الوقت الحالي، يتم إسكات هذه المخاوف من خلال حجة مضادة، خاصة من قِبل الحكومات، التي تقول إنه ينبغي لشركات التكنولوجيا أن تزيد من رقابتها بشكل أكبر! هذا فيما تقوم البلدان الاستبدادية بشكل متزايد بحجب وسائل الإعلام الاجتماعية بشكل روتيني أثناء الأزمات الوطنية، كما حدث في سريلانكا بعد التفجيرات الإرهابية صباح عيد الفصح وكما فعلت فنزويلا خلال انتفاضة الأول من مايو/أيار. لكنّ السياسيين في الدول الديمقراطية أيضا يضغطون على شبكات التواصل الاجتماعي من أجل فرض الرقابة على مدار الساعة في محاولة لحماية المستخدمين "ذوي النفوس الضعيفة" من تأثير المحتوى العنيف الذي يمكن أن يشجعهم على التطرّف. إذا فشلت هذه المنصات في الامتثال لذلك فقد تواجه غرامات كبيرة وحتى السجن بالنسبة لمديريها التنفيذيين.

   

في (يوليو/تموز) كتبت ني أولان رسالة مفتوحة إلى مؤسس فيسبوك، مارك زوكربيرج، منتقدة منهجية هذه المنصة في تحديد المحتوى الذي يوصم بالإرهاب
في (يوليو/تموز) كتبت ني أولان رسالة مفتوحة إلى مؤسس فيسبوك، مارك زوكربيرج، منتقدة منهجية هذه المنصة في تحديد المحتوى الذي يوصم بالإرهاب
   

كما يتم صياغة قانون جديد حول الموضوع في أروقة الاتحاد الأوروبي منذ أشهر. سوف يفرض هذا القانون على شركات التكنولوجيا حذف المواد الضارة التي يضعها المستخدمون، سواء كانت كلمات أو صورا، إذا كانت "تحرض أو تحث على ارتكاب جرائم إرهابية أو تساهم فيها، أو تشجع على المشاركة في أنشطة جماعة إرهابية". المشكلة هي أن مثل هذا المعيار هو فضفاض للغاية. وإذا لم تقم الشركات بحذف هذه المنشورات في غضون ساعة واحدة، فإنها قد تواجه غرامات تصل إلى ٤% من إيراداتها العالمية!

 

في يوليو/تموز، كتبت ني أولان رسالة مفتوحة إلى مؤسس فيسبوك، مارك زوكربيرج، منتقدة منهجية هذه المنصة في تحديد المحتوى الذي يوصم بالإرهاب، وهو محدد رئيسي فيما يتعلّق بما تقوم المنصة بوصمه ثم حذفه. تقول ني أولان: "اجترحت المنصة تعريفا للإرهاب ليس له علاقة بالتعريف العالمي المتفق عليه بين الدول، وهو ما أعتقد أنه يُشكّل سابقة خطيرة للغاية. لقد أوضحت ذلك بوضوح شديد من خلال تواصلي معهم".

 

عندما طلبنا من فيسبوك التعليق على شكوى ني أولان، أعطانا متحدث باسم الشركة محضرا مفصّلا لاجتماعات عُقدت حول معايير المحتوى في ديسمبر/كانون الأول الماضي. هذا المحضر هو في الحقيقة وثيقة ذات أهمية فائقة، وتبيّن طبيعة القرارات المعقّدة التي يُطلب من شركات التكنولوجيا اتخاذها في إطار سعيها إلى تحقيق الربح المالي من التفاعلات البشرية على نطاق عالمي. هل المنظمات الإرهابية تعرّف على أنها تلك التي "تشترك في أعمال عنف متعمدة ضد أشخاص أو ممتلكات"، أو هل ينبغي أن يتسع التعريف ليشمل أي جماعة غير تابعة للدولة "تشترك في أعمال عنف مدبّرة ومخطط لها أو تدافع عنها وتؤيدها؟"، يتساءل أحدهم في المحضر، قبل أن يعلّق خلال الاجتماع ذاته قائلا: "أنا سوف أصدم إذا لم نعد في غضون عام ونقول إننا بحاجة إلى تحسين هذا التعريف مرة أخرى". (قال متحدث باسم الشركة مؤخرا إنه لم يتم بعد تحديث هذه المسألة).

    

قمع المحتوى الذي يعتبر
قمع المحتوى الذي يعتبر "خارج الحدود المقبولة" في الغرب يمكن أن يكون له آثار سلبية تجعل الحياة أكثر صعوبة بالنسبة لأولئك المقيمين في مجتمعات قمعية
    

تظل مسألة كيفية تنفيذ الخوارزميات لدى عمالقة التكنولوجيا لهذه المعايير الدقيقة مسألة مفتوحة. مع ذلك، فإن مجموعة جديدة من مشاريع قوانين مكافحة الإرهاب التي سوف تظهر بعد مجزرة المسجدين في كرايستشيرش سوف تدفع شركات التكنولوجيا إلى إنفاذ أكثر حزما لهذه المعايير وتحت طائلة الغرامات الضخمة فإنه من المحتمل أن يستثمر عمالقة التكنولوجيا المزيد من الموارد في تقنيات تعلّم آلي أكثر صرامة لتصفية المحتوى وقمع المواد التي يُحتمل أن تكون مثيرة للجدل. وهذا سوف يقوّض جهود أولئك الذين يحاولون كشف الانتهاكات في مناطق الحرب.

 

يقول الخطيب، من الأرشيف السوري، إن ظهور خوارزميات التعلم الآلي قد جعل مهمته أكثر صعوبة في الأشهر الأخيرة، في حين أن الدفع نحو المزيد من تصفية المحتوى سوف يستمر. يقول الخطيب إن مشروع قانون الإرهاب عبر الإنترنت الذي يدرسه الاتحاد الأوروبي سوف يرسل رسالة مفادها أن حذف المحتوى المثير للجدل بشكل شامل هو أمر مقبول، وأن وسائل التواصل الاجتماعي سوف تسعى بناء على ذلك ألا يرى أحد مثل هذا المحتوى. يخشى الباحث السوري العواقب غير المقصودة لمثل هذا القانون، ويقول إن قمع المحتوى الذي يعتبر "خارج الحدود المقبولة" في الغرب يمكن أن يكون له آثار سلبية تجعل الحياة أكثر صعوبة بالنسبة لأولئك المقيمين في مجتمعات قمعية، أو في مناطق النزاع، ويقول إن الإمعان في الرقابة على ما يشاركه الناس عبر الإنترنت "سيكون بالتأكيد هدية لجميع الأنظمة الاستبدادية وسيكون هدية لبشار الأسد".

 

يتابع: "على أرض الواقع في سوريا، يبذل الأسد قصارى جهده لتدمير الأدلة المادية [على انتهاكات حقوق الإنسان]، والأدلة الرقمية أيضا. سيكون لمجموع هذه الأشياء، الفلترات وخوارزميات التعلم الآلي والقوانين الجديدة، أثر سيجعل من الصعب علينا توثيق ما يحدث في المجتمعات المغلقة". وهذا، كما يخشى، هو تماما ما يريده الدكتاتوريون.

——————————————————–

ترجمة: كريم طرابلسي.

هذا المقال مأخوذ عن The Atlantic ولا يعبر بالضرورة عن موقع ميدان. 

المصدر : الجزيرة