انضم إلينا
اغلاق
لماذا توحشت الروبوتات عندما راقبت سلوك الإنسان التلقائي؟

لماذا توحشت الروبوتات عندما راقبت سلوك الإنسان التلقائي؟

فراس اللو

محرر تقنية
  • ض
  • ض

على الرغم من جُرأته وتحدّيه الدائم للواقع والطموح بتغييره عبّر "إيلون موسك" (Elon Musk) أكثر من مرّة عن خوفه من الذكاء الاصطناعي (AI)، ومن سرعة تطويره التي تجري دون قيود، فمن وجهة نظره هناك خطر كبير جدا قد يصل إلى خروج تلك التطبيقات عن السيطرة، مُحقّقة بذلك الخيال العلمي في سيطرة الذكاء الاصطناعي على العالم.

 

شخص بخبرة "موسك" لن يتكلّم إلا بناء على خبرته الطويلة في هذا المجال، لكن المستخدم العادي أيضا أمامه أمثلة واضحة وصريحة على خطورة الذكاء الاصطناعي، أو عن مُسبّبات تلك الخطورة بمعنى أدق، والتي تبدأ مما نُشاركه يوميا على الشبكات الاجتماعية.

 

تثقيف الآلة
عملت الحواسب لفترة طويلة من الزمن كأجهزة لمساعدة الإنسان في إتمام مهامه اليومية ضمن مجموعة من الشروط المنطقية التي تُتيح مثلا إجراء العمليات الحسابية المُعقّدة على الآلة الحاسبة، أو تنظيم جدول المواعيد، أو حتى أرشفة الملفّات وتنظيمها ضمن قواعد بيانات لتسهيل الوصول إليها فيما بعد. لكن الإنسان في تلك الحالات كان مسؤولا عن اتخاذ القرار بنفسه، فهو الذي يُحدّد أسماء الملفات التي يرغب في أرشفتها، ويُحدّد كذلك اسم قاعدة البيانات وما إلى ذلك، لتأتي ضرورة أن تُصبح الآلة ذكية.

 

ولا يوجد أفضل من "الذكاء الاصطناعي" كاسم لذكاء الآلة، فهو في حقيقة الأمر مُجرّد اصطناع يبدأ بتلقينها كل شيء من العدم، وهذا لتُصبح قادرة فيما بعد على اتخاذ القرار عوضا عن الإنسان، فبعد تقديم مجموعة من الاحتمالات تكون مسؤولة عن اختبار جميع الحالات لاختيار الأنسب منها وتقديمه، وتلك نظريّات وقواعد يشرحها كتاب (Introduction to Automata Theory) بشكل وافٍ(1). بعد تلك الطفرة وصل ذكاء الآلة إلى مستوى جيّد يُمكن تمثيله في الرجل الآلي الذي يتحرّك إلى الأمام وإلى الخلف، ويستدير عندما يواجه حائطا أو عائقا ما بناء على البيانات الواردة من المُستشعرات. لكن ذلك التطبيق بدأ بالأساس من تعليم الآلة كل شيء، وأي حالة غير مُعرّفة ضمن قاعدة الذكاء الخاصّة بالتطبيق سيؤدي إلى خطأ، وسيتوقّف الرجل الآلي عن العمل.

    

       

بناء على ذلك، بدأت تقنيات التعلّم الذاتي للآلة بالوصول، فالمُبرمج لا يحتاج إلى تعليم الآلة كل شيء بشكل يدوي، بل يترك الخيار لها لتوسعة قاعدة المعرفة الخاصّة بها، ويزداد بذلك مستوى الذكاء بشكل آلي مع مرور الوقت، وتلك هي الطامّة الكُبرى التي تُقلق "موسك" بسبب نوع البيانات التي تُقدّم لخوارزميات التعلّم الذاتي للآلة، والتي يشيد بها "مارك زوكبيرغ" مُعتبرا أن هذا النوع من الذكاء سيأخذ الإنسان إلى حدود لم يكن يحلم بها أبدا.

 

يُمكن إثبات نظرية "زوكربيرغ" بسهولة، فشركة "ديب مايند" (DeepMind) التي تعمل تحت مظلّة "ألفابت" تمكّنت من تطوير خوارزميات ذكية تغلّبت على أبطال العالم في لعبة "غو" (Go)، وفي الشطرنج أيضا. حتى إن مُختبرات الذكاء الاصطناعي التي يُديرها "موسك" بنفسه نجحت في تطوير خوارزميات تغلّبت على أبطال العالم في لعبة "دوتا" (Dota) الإلكترونية، لتبدو بذلك مخاوفه مُبالغة لا أساس لها من الصحّة.

 

الصالح والطالح
تُثبت تلك الأمثلة أن التعلّم الذاتي يأتي بنيّة مُساعدة الإنسان وإنشاء برمجيات ذكية تفوق ذكاءه في بعض الأحيان. لكنّ معُارضي التعلّم الذاتي للآلة والذكاء الاصطناعي يملكون في جُعبتهم ثُلّة من الاختبارات التي تُدحض تلك الادعاءات، فشركة مايكروسوفت على سبيل المثال أطلقت مع بداية 2016 برمجية "تاي" (Tay) التي تقوم بنشر تغريدات على شبكة تويتر الاجتماعية، وتتفاعل مع التغريدات التي تصلها. لكن النتيجة كانت إيقافها عن العمل بعد أقل من 16 ساعة على إطلاقها بسبب الكوارث التي قامت بها والتي تمثّلت بنشر تغريدات مليئة بالشتائم، وأُخرى تتهم فيها الرئيس الأميركي "جورج بوش" بأنه مسؤول عن تفجيرات 11 (سبتمبر/أيلول)، دون نسيان بعض التغريدات المؤيّدة للنازيّة(2).

 

ولم تكن تلك البرمجية أسوأ مثال، فمختبرات "ديب مايند"، التي سبق لها أن طوّرت برمجيات ذكية، تفاجأت من سلوك عدواني قامت به برمجية يقوم الحاسب فيها بجمع الفواكه بشكل افتراضي، فالشركة طوّرت لعبة يحتاج فيها اللاعبون (الآلة) إلى جمع أكبر عدد مُمكن من الفواكه التي تظهر. في الوضع الطبيعي، عمل كل لاعب دون أن يتدخّل بالآخر، فكل واحد يعلم أن مهمّته هي جمع أكبر قدر مُمكن فقط. لكن ومع تقليل عدد الفواكه، ومع توفير أنواع نادرة بنقاط أعلى، بدأت البرمجيات تتشاجر فيما بينها، حيث استخدمت الليزر لقتل اللاعب الآخر والظفر بالفواكه النادرة(3).

           

         

أما المثال المُقلق الأخير فهو حدث في مُختبرات فيسبوك التي يُدافع رئيسها التنفيذي عن التعلّم الذاتي للآلة بضراوة، فهي طوّرت في وقت سابق برمجية ذكية تقوم بالتواصل مع برمجية ذكية أُخرى، وهذا لتطوير مستوى الذكاء الخاص بها لتُصبح جاهزة فيما بعد لاستخدامها من قِبل الشركات لتقديم أفضل تجربة دعم فنّي مُمكنة. لكن الأمور خرجت عن السيطرة بعدما قامت تلك البرمجيات بتطوير لغتها الخاصّة التي لا يُمكن للإنسان فهمها(4)، وهذا مثال واضح وصريح عن إمكانية خروج التعلّم الذاتي للآلة عن النصّ، وعن المخاوف التي عبّر عنها "موسك" أكثر من مرّة، فما النتيجة التي سيُخلّفها الرجال الآلييون لو خرجوا عن النص وقاموا بأمور ذاتية التطوير؟

 

المنهاج الدراسي

      
في المراحل الأولى للذكاء الاصطناعي كانت قاعدة المعرفة مؤلّفة مما يُقدّمه الإنسان حرفيا، تماما مثل الولد الصغير الذي يتعلّم أسماء الأشياء من والديه أولا، ومن المدرسة ثانيا. لكن ومع مرور الوقت ونضج تلك الخوارزميات بدأت تتعلّم بشكل ذاتي بناء على التفاعلات التي تجري حولها، ففي بعض الحالات تكون من المشاركات على الشبكات الاجتماعية، وفي بعض الأمثلة تعلّمت من التكرار والخطأ بعد دراسة نماذج اللعب التي يقوم الإنسان بها، وهذا عند الحديث عن برمجية "ديب مايند" التي تغلّبت على أبطال العالم في لعبتي "غو" والشطرنج.

 

في نفس الوقت، تعلّمت برمجية مايكروسوفت من التفاعلات والتغريدات التي وصلتها. ونفس الأمر في برمجية "ديب مايند" لجمع أكبر عدد ممكن من الفواكه، فالمُبرمجون لم يقوموا بتعليمها أن الاعتداء على الغير ممنوع، فالفوز بطرق غير شرعية دائما موجود، ولهذا السبب توجد لجان تحكيم وقوانين في جميع الرياضات التنافسية، الأمر الذي لم يتم ذكره في بداية الأمر داخل مُختبرات "ديب مايند". ويُمكن رؤية مثال واضح وصريح على التعليم الخاطئ في قضيّة الأخبار الكاذبة داخل فيسبوك التي بدأت عندما اعتمدت فيسبوك بالكامل على الخوارزميات الذكية. رصدت تلك الخوارزميات المواضيع والروابط التي تلقى أكثر نسبة زيارات وأعلى نسبة مُشاركة وقامت بالترويج لها على أنها أفضل القصص التي يحتاج المستخدم إلى قراءتها.

         

         

ما سبق يعكس أن التعلّم الذاتي للآلة يتصرّف بناء على البيانات التي تُقدّم له، فهو عندما راقب نماذج سابقة لأبطال العالم في لعبة "غو"، تعلّم منهم تلك القواعد وتحرّكات الفوز وقام بتطبيقها أولا، ثم حاول ابتكار طُرقه الخاصّة للفوز ضمن قواعد اللعبة التي تعلّمها. لكن الآلة سلكت طريقا آخر عندما تعلّمت من المشاركات التي يقوم المستخدمون بنشرها على الشبكات الاجتماعية، وبدأت بنشر الشتائم تارة، ومهاجمة المستخدمين تارة أُخرى. أما المشاركة وإعادة النشر غير المسؤولة في فيسبوك فهي أدّت إلى كوارث غيّرت -بحسب تقارير- نتائج الانتخابات الأميركية الأخيرة(5).

 

ما سبق يدعو بالفعل للقلق من ظواهر كثيرة على الشبكات الاجتماعية، فالشركات التقنية الكُبرى مثل فيسبوك أو غوغل تقوم بتغذية خوارزميات تعلّم الآلة بما يقوم المُستخدم بمشاركته والبحث عنه، الأمر الذي يجعل المشاركات المُزيّفة التي يهدف المستخدم فيها إلى تجميل الواقع وإرضاء الأنا الذاتية نموذجا خطيرا سترصد الآلة تكراره، وقد تتعلّم منه مع مرور الوقت، فهي على نطاق ضيّق قامت بالفعل بمهاجمة لاعب افتراضي آخر للظفر بمزيد من الفواكه، الأمر الذي قد لا تكون السيطرة عليه سهلة عندما تزداد درجة تعقيد تلك الخوارزميات وتنجح في الوصول إلى الروبوتات وإلى أجهزة إلكترونية أكثر تعقيدا، التي تُريد تنفيذ ما تعلّمته من الإنسان وتجميل واقعها للتفوّق على الجميع.

 

تجميل الواقع أدى وفقا لدراسات إلى دفع البعض إلى الانتحار أو إلى الهجوم غير المُبرّر، ففتح الشبكة الاجتماعية ومشاهدة الجميع يحيا حياة جميلة ومُميّزة، في وقت يكون فيه المستخدم يعيش حياة عادية، أمر يدعو مع مرور الوقت للإحباط الذي قد يتطوّر للانتحار، وهذا التأثير على الإنسان الذي يملك بالأساس عقلا للتفكير وللتمييز بين الخبيث والطيب، فماذا عن الآلة التي ومنذ أربعينيات القرن الماضي يسعى العُلماء لإيجاد طريقة عملية لتعليمها الأخلاق والأديان لاتخاذ قرارات لا تؤذي البشرية؟(6)

       

      

باختصار، تسير الآلة في الطريق الذي يرسمه الإنسان لها، فهي تميّزت وتفوّقت في الألعاب التي تعتمد على الذكاء، وأصبحت قادرة على تعليم المستخدم لغات مُعقّدة مثل اللغة الصينية عندما قُدّم لها المنهاج المُلائم(7)، لكنها تحوّلت إلى وحش خرج عن السيطرة عندما درست مناهج مصدرها الشبكات الاجتماعية والمحادثات التي قام الإنسان بها. هذا يعني أن المخاوف من الذكاء الاصطناعي ومن التعلّم الذاتي للآلة أمر يُمكن التغلّب عليه عندما نتغلّب كمستخدمين على أنفسنا، وعلى الرغبة في التميّز الزائف، وفي مشاركة أي شيء دون التأكّد من مصداقيّته، دون نسيان التعليقات السلبية وحملات الشتم والسُباب التي تحصل عندما يحدث اختلاف بسيط في الرأي، وتلك أمور لن تفوّتها الآلة، وستتعلّم منها وستنقلب يوما ما على الإنسان الذي ساهم أولا وأخيرا في فناء ذاته.

 

لن تجد الشركات التقنية كمّية أكبر من البيانات الموجودة على الشبكات الاجتماعية، ولهذا السبب تُعتبر من الفصول الأساسية في منهاج الذكاء الاصطناعي للتعلّم الذاتي، ليبقى الخيار مفتوحا أمام البشر لاختيار النهاية التي يُمكن أن تكون كارثية توافق أفلام الخيال العلمي، أو قد تكون طبيعية يستفيد الإنسان فيها من ذكاء الآلة ويصل إلى حقائق أفنى عُمره في البحث عنها.

المسلمون في الصين وعلاقتهم بالدولة

تقارير متصدرة


آخر الأخبار