انضم إلينا
اغلاق
هل يمكن للتقنية أن تكون عنصرية مع البشر؟

هل يمكن للتقنية أن تكون عنصرية مع البشر؟

فراس اللو

محرر تقنية
  • ض
  • ض

في عام 2015، وفي تطبيق صور غوغل (Google Photos)، الذي يعتمد على تقنيات الرؤية الحاسوبية من أجل تحليل محتويات الصور لتسهيل الوصول إليها فيما بعد، اختلطت الأمور على خوارزميات غوغل الذكيّة بشكل غير مُبرّر وقامت بالإشارة إلى شخص ذو بشرة سمراء اللون على أنه ”غوريلا“، الأمر الذي أحدث ضجّة كبيرة جدًا في الوسط التقني بسبب الإهانة التي يتعرّض لها أصحاب البشرة السمراء في الولايات المُتحدة الأمريكية، ليس من قبل غوغل فحسب، بل من عموم المُجتمع(1).

 

في حقيقة الأمر، لم تكن حادثة غوغل هي الوحيدة التي نحتاج الوقوف عندها مطولا، فالتقنيات ذاتها أدانت، على الورق، شخصا بريّئا، وبرّأت المُذنب، دون امتلاكها دليلا واضحا، باستثناء لون البشرة.

 

الإدانة الذكيّة

في عام 2014، قامت إحدى الفتيات بأخذ درّاجة مركونة على الرصيف، درّاجة صغيرة للأطفال بعمر ست سنوات تركبها فتاة عمرها 18 سنة تقريبًا. صاحبة تلك الدرّاجة انتبهت للأمر ولحقت بالفتاة. وفي تلك الأثناء، كان هناك شخص آخر يُشاهد الحادثة من بعيد وقام بتبليغ الشرطة مُباشرةً لإلقاء القبض على الفتاة السارقة.

 

 

وفي حادثة أخرى، في الولايات المُتحدة الأمريكية أيضًا، ألقت الشرطة القبض على رجل أربعيني بعد ضبطه وهو يسرق من أحد المحلّات التجارية ما مجموعه 87 دولار أمريكي تقريبًا. أودِعت الفتاة في الحجز، والرجل الأربعيني كذلك، لعرضهم على القاضي الذي حكم بما يُمليه عليه القانون دون أية مشاكل. لكن وخلال تلك الأثناء، عُرضت صور المُتَهَمَين على خوارزميات ذكية مهمّتها التنبؤ فيما إذا كان أولئك الأشخاص مُجرمين فعلًا، مع تحديد إمكانية تكرارهم لنفس الأمر في المُستقبل(2).

 

بحسب تقنيات الذكاء الاصطناعي، فقد تمت الإشارة للفتاة على أنها مُجرمة خطيرة، وستعود فيما بعد لتكرار ارتكاب الجرائم. أما السارق، فهو بريء ولا توجد احتمالية مستقبلية خطيرة تحيط به. العجيب في هذه القصّة أن الفتاة، وبغض النظر عما اقترفته، لم يكن لديها أي سجل إجرامي، عكس الرجل الذي وضع في الحبس سابقًا، ولديه سجل إجرامي لا بأس به. أما الأغرب، فهو اعتماد تلك الخوارزميات على لون البشرة فقط، فالفتاة سمراء البشرة، أما الرجل فهو أبيض، وهذا يُفسّر انحياز الرؤية الحاسوبية التي تُحاكي انحياز البشر.

 

التوظيف الذكي

بحسب دراسات أُجريت في عام 2017، يرى 55٪ من مسؤولي شؤون الموظّفين، أن التقنية ستكون مسؤولة عن اختيار الموظّفين الأنسب للشركة بعد تمرير سيرتهم الذاتية، وحسابات شبكاتهم الاجتماعية، لبرنامج خاص بهذا الأمر(3). لم يأتِ هذا الإيمان من فراغ، بل بسبب تجارب تقوم بها أمازون ومايكروسوفت منذ عام 2014، وهي التجارب التي أثبتت فشلها، تماما كتلك التي تختبرها الوكالات الأمنية المُختلفة.

 

  

أنشأت أمازون قسمًا خاصًّا ليكون مسؤولا عن تطوير خوارزميات ذكية مهمّتها دراسة السير الذاتية للمُتقدّمين للعمل في الشركة، وذلك لمعرفة فيما إذا كانوا مُناسبين لها، وهذا اعتمادًا على بعض الكلمات المفتاحية الرئيسية في الرسالة التعريفية التي يُرسلها المُتقدّم. لكن وبحسب الدراسات، فقد فشلت الخوارزميات من جديد وقرّرت الانحياز للذكور على حساب الإناث بغض النظر عن عامل الخبرة، فالجنس بالنسبة للحاسب هو عامل هام يؤخذ بعين الاعتبار على الرغم من عدم وجود أي أمر برمجي يوجّه الخوارزمية نحو هذا التفكير.

     

 الأمر ذاته تكرّر على مستوى الجامعات، فبوضع عامل الخبرة جانبًا، ركّزت الخوارزميات على الأشخاص الذين ارتادوا جامعات عريقة على غرار ”هارفارد“ (Harvard) أو ”ستانفورد“ (Stanford)، على حساب البقيّة حتى ولو امتلكوا خبرة أكبر، وشغلوا مناصب تجعلهم مؤهّلين للعمل في شركة على مستوى أمازون.

 

لم تترك جامعة عريقة بحجم ”إم آي تي“ (MIT) هذا الأمر دون اختبار، وقامت بإجراء دراساتها الموسّعة على برنامج ”ريغوكنيشن“ (Rekognition) من أمازون الذي يُقدّم أدوات لتحليل الوجوه والتعرّف عليها أيضًا، رفقة برنامج من تطوير مايكروسوفت لنفس الغرض(4).

 

 

وبحسب نتائج الدراسة، التي رأت النور عام 2019، فإن تقنيات أمازون، قامت في 19٪ من الحالات بالإشارة للنساء على أنهن رجال، وارتفعت تلك النسبة إلى 31٪ عند تمرير صور لنساء سمراوات، في وقت أخطأت فيه خوارزميات مايكروسوفت بنسبة 1.5٪ فقط. المُقلق في الأمر هو اعتماد بعض الوكالات الأمنية على تقنيات أمازون، وهو أمر عبّر موظّفون من أمازون نفسها عن مُعارضته لأن تلك التقنيات خطيرة جدًا إذا ما لم تكن جاهزة بنسبة 100٪(5).

 

دافعت أمازون عن نفسها مؤكّدة أن دراسة ”إم آي تي“ أُجريت باستخدام قاعدة بيانات قديمة، بالإضافة لاختيار مُهندسي الجامعة لأداة تحليل الوجوه فقط، وليس أداة التعرّف على الوجه، الأمر الذي يجعل النتائج غير دقيقة أبدًا، ولا تُظهر قوّة مثل تلك التقنيات التي تعمل الشركة على تطويرها. وأضافت أيضًا أنها قامت بتدريب تلك الخوارزميات على أكثر من مليون صورة جديدة لرفع مستوى دقّتها.

 

انحياز بشري

في سياق مشابه، ذكرت الصحفية ”كارا سويشر“ (Kara Swisher)، التي أجرت مُقابلات مع أكبر الأسماء في العالم التقني، أنها وقبل سنوات عديدة شاهدت في مقرّات غوغل مكاتب خاصّة فيها أجهزة تلفاز مفتوحة على قنوات مُختلفة. وعندما سألت الرئيس التنفيذي للشركة عن وظيفة تلك المكاتب، قال لها إنهم يحاولون العثور على طريقة لأرشفة محتوى التلفاز لتسهيل البحث فيه. وهذا يعني أن أجهزة التلفاز تلك تعمل برفقة خوارزميات الرؤية الحاسوبية، وبالتالي خوارزميات التعلّم الذاتي المسؤولة عن إنشاء قاعدة معرفة تطبيقات الذكاء الاصطناعي(6).

 

تلك الحادثة تُعطينا فكرة واضحة عمّا يحدث خلف الكواليس في برمجيات الرؤية الحاسوبية المُستخدمة في المحاكم، أو في قاعات المؤتمرات ومكاتب الشركات، فتقنيات الرؤية الحاسوبية، ولكي تكون قادرة على التعرّف على الوجوه، تحتاج لدراسة الملايين منها لتُصبح قادرة على التفرقة بشكل دقيق بعد العثور على الاختلافات في كل وجه. وبالعودة من جديد لنموذج غوغل، فإن مُعظم الشركات تقوم باستخدام صور لشخصيات مُختلفة، كتلك التي تعرضها الصُحف والمجلّات لشخصيات مشهورة، أو تلك الواردة من الشبكات الاجتماعية(7).

 

بشكل عام، فإن مشاهير الفن في أمريكا على سبيل المثال أغلبيّتهم من ذوي البشرة البيضاء، الأمر الذي يجعل الخوارزميات تعتقد أن الطبيعي مرتبط بهذا اللون. وعندما تستغل بعض نشرات الأخبار الحوادث التي يقترفها أصحاب البشرة السمراء، فإن خوارزميات الرؤية الحاسوبية تفترض أن هذا النمط هو الطبيعي كذلك، وهذا ما يُفسّر عدم تعرّفها على الأقليّات بسهولة، في وقت تتعرّف فيه على أصحاب البشرة البيضاء دون مشاكل، فحتى تقنية ”فيس آي دي“ (FaceID) من آبل المسؤولة عن التعرّف على الوجه في هواتف آيفون أخطأت عندما حاول أشخاص من شرق آسيا استخدامها(8).

 

 

أما خوارزميات الرؤية الحاسوبية، والذكاء الاصطناعي، المسؤولة عن التوظيف، فهي تدرّبت باستخدام السير الذاتية لأفضل الموظّفين في الشركات التقنية. وبحسب آخر الإحصائيات، فإن مُعدّل الذكور في شركة آبل مثلًا بلغ 68٪ مُقابل 32٪ للنساء، والحال نفسه في مايكروسوفت بواقع 74٪ ذكور و26٪ نساء.

 

ما سبق يعني أن نظام التوظيف الذكي تدرّب مع مرور الوقت على فكرة أن الذكور هم المُفضّلين في سوق العمل. والحال نفسه كذلك بالنسبة للجامعات، ولهذا السبب بدأت قاعدة المعرفة بتفضيل جنس على آخر، وجامعة على أُخرى بغضّ النظر عن المؤهّلات، الأمر الذي دفع الشركات لتطوير تقنيات لمنع الانحياز(9). وفي بعض الأوقات، تطوير تقنيات تُتيح الاطّلاع على النتائج بشكل يدوي للتأكد من عدم وجود ذلك الانحياز أملًا في الوصول لمستقبل ذكي لا يتدخّل الإنسان فيه أبدًا، وهو شيء لا يبدو أنه قريب المنال بالنظر إلى الأخطاء القاتلة التي تحدث هنا وهناك.

 

لكن، وبغضّ النظر عن دقّة تلك التقنيات ومدى نجاحها، بدأت الوكالات الأمنية في مُختلف الدول باستخدامها، فهي لا ترى أية مشاكل في إدانة أي شخص تختاره تلك الخوارزميات. كما بدأت شركات أُخرى في مُراقبة سلوك ومزاج موظّفيها بناءً على تعابير الوجه فقط، وهذا لتقييمهم مع مرور الوقت، حتى ولو كانت نسبة الخطأ عالية، وبهذا الشكل لن تجد شركات التقنية حرجًا في أية أخطاء قاتلة وستكتفي -مثلما جرت العادة- بالاعتذار وبتقديم الوعود بمُستقبل أفضل، ليكون المُستخدم بهذا الأداة والضحيّة معًا.

 

في المرّة المُقبلة، عندما تتوجّه لإجراء مُقابلة عمل في مكان ما، سواءً في مقر الشركة أو على شبكة الإنترنت، تجنّب الكذب تمامًا، وهذا ليس بسبب القدرات الخارقة للمسؤول عن شؤون الموظّفين، بل بسبب تقنيات التعرّف على الوجه. وإذا ما كُنت تنتمي لإحدى الأقليّات، ووجدت نفسك مُضطرًا للمثول أمام القاضي، فقد تحتاج لحظ أوفر في المرّة المُقبلة، ليس بسبب انحياز القاضي، بل لأن خوارزمية ما قرّرت هذا الأمر!

تقارير متصدرة


آخر الأخبار