اغلاق
آخر تحديث: 2017/7/9 الساعة 15:19 (مكة المكرمة) الموافق 1438/10/15 هـ

انضم إلينا
لماذا يجب ألا نثق في الذكاء الاصطناعي؟

لماذا يجب ألا نثق في الذكاء الاصطناعي؟

محمد أسامة

مترجم
  • ض
  • ض
مقدمة المترجم
يحيط بنا الذكاء الاصطناعي من كل جانب، في الواقع المادي والعالم الافتراضي. لكن لعل سيري، وسيارات غوغل وتسلا، والتطبيقات العسكرية هي أشهر المستفيدين منه. لكن الذكاء الاصطناعي يخفي سرا خطيرا ومخيفا، نعرف قصته وتطوراته في هذا التقرير.

 

نص التقرير
في الواقع، لا أحد يعرف كيفية عمل الخوارزميات الأكثر تقدما، وقد تكون هذه مشكلة. في العام الماضي، أطلقت سيارة غريبة ذاتية القيادة في شوارع مقاطعة مونموث الهادئة بولاية نيوجيرسي. لم تبد العربة التي طورها باحثون بشركة "نيفيديا" للرقائق الإلكترونية مختلفة عن مثيلاتها من السيارات ذاتية القيادة الأخرى، لكنها في الواقع مختلفة تماما عن جميع ما أنتجته غوغل وتسلا وجنرال موتورز، ولقد برهنت هذه السيارة على القوة المتزايدة للذكاء الاصطناعي. لم تتبع السيارة أمرا واحدا أصدره مهندس أو مبرمج. بدلا من ذلك، اعتمدت بشكل كامل على خوارزمية علمت نفسها القيادة من خلال مراقبة إنسان يقوم بهذا النشاط.

 

كان تصميم سيارة تعمل بهذه الطريقة إنجازا رائعا. لكنه مثير للقلق بعض الشيء، نظرا إلى الغموض الذي يكتنف طريقة اتخاذ السيارة لقراراتها. تنتقل المعلومات من حساسات السيارة مباشرة إلى شبكة ضخمة من الخلايا العصبية الاصطناعية التي تعالج البيانات ثم تطلق الأوامر اللازمة للتحكم في عجلة القيادة، والفرامل، وسائر النظم. تبدو النتائج مماثلة للاستجابات المتوقعة من سائق بشري. لكن ماذا لو أتت بفعل غير متوقع يوما ما، مثل الاصطدام بشجرة، أو التوقف أمام إشارة خضراء؟ وفقا لما عليه الأمور الآن، قد نجد صعوبة في تحديد السبب. إنه نظام معقد بدرجة يعاني معها المهندسون الذين صمموه لتحديد سبب اتخاذه هذه القرارات. ولا يمكنك سؤاله: لا توجد طريقة واضحة لتصميم هذا النظام بحيث يصير قادرا دوما على تفسير أفعاله.

 

اعتمدت السيارة التي طورها باحثون بشركة "نيفيديا" بشكل كامل على خوارزمية علمت نفسها القيادة من خلال مراقبة إنسان يقوم بهذا النشاط

رويترز
   

يقودنا العقل الغامض لهذه السيارة إلى إحدى مشاكل الذكاء الاصطناعي التي تلوح في الأفق. لقد أظهرت تقنية الذكاء الاصطناعي التي تتولى قيادة بالسيارة، والمعروفة باسم التعلم المتعمق، قدرة كبيرة على حل المشاكل في السنوات الأخيرة، حتى شاع استخدامها في مهام مثل تمييز الأصوات وترجمة اللغات. ولدينا الآن أمل في نجاح هذه التقنيات في تشخيص الأمراض القاتلة، واتخاذ قرارات تجارية بقيمة مليون دولار، والقيام بأشياء أخرى لا تحصى لتطوير صناعات بأكملها.

 

لكن هذا لن يحدث، أو قل: يجب ألا يحدث، قبل توصلنا إلى طرق تجعل التقنيات المشابهة للتعلم المتعمق مفهومة بشكل أكبر لصانعيها، وأكثر قابلية للمساءلة أمام مستخدميها. وإلا وجدنا صعوبة في التنبؤ بوقوع خطأ ما، وهو أمر لا مفر منه. هذا أحد أسباب بقاء سيارة نيفيديا تحت الاختبار.

 

يجري بالفعل استخدام نماذج رياضية للمساعدة في تحديد المستحق لإطلاق السراح المشروط، والمستحق للقرض، والمستحق للوظيفة. وإن أتيحت لك فرصة الولوج إلى هذه النماذج الرياضية، فربما يكون بإمكانك تفهم منطقها. لكن البنوك، والجيش، وأرباب العمل، وغيرهم، ينقلون جميعا اهتمامهم إلى مناهج تعلم آلي أشد تعقيدا، يمكنها إكساب القرارات الآلية غموضا تاما. فالتعلم المتعمق، وهو أكثر هذه المناهج انتشارا، يمثل طريقة مختلفة كلية لبرمجة الحواسيب. تومي ياكولا هو أستاذ في معهد ماساتشوستس للتكنولوجيا، يعمل على تطبيقات التعلم الآلي، وعن ذلك يقول: "إنها مشكلة مهمة بالفعل، وستزداد أهمية في المستقبل. وسواء كان قرارا استثماريا أو طبيا أو عسكريا، فلن ترغب في الاعتماد على آلة تعمل بطريقة الصندوق الأسود".

 

هناك رأي قائم بالفعل يقول إن القدرة على استجواب الذكاء الإصطناعي حول كيفية توصله إلى استنتاجاته، هو حق قانوني أساسي. وبداية من صيف عام 2018، قد يشترط الاتحاد الأوروبي قدرة الشركات على تزويد المستخدمين بتفسيرات للقرارات التي تتخذها الأنظمة الآلية. قد يكون ذلك مستحيلا، حتى بالنسبة إلى أنظمة ربما تبدو من الخارج بسيطة نسبيا، مثل التطبيقات والمواقع الإلكترونية التي تستخدم التعلم المتعمق لعرض إعلانات وترشيح أغان. لقد تولى الحاسب الآلي الذي يقدم تلك الخدمات تعليم نفسه، وفعل ذلك بطرق لا يمكننا فهمها. حتى صناع هذه التطبيقات أنفسهم لا يستطيعون شرح سلوكها بالكامل.

 

عام 2015 خطر لمجموعة باحثين في مستشفى ماونت سيناي بنيويورك فكرة تطبيق التعلم المتعمق على قاعدة البيانات الضخمة من سجلات المرضى بالمستشفى. تحوي مئات من المتغيرات المتعلقة بالمرضى، مستمدة من نتائج اختباراتهم، وزيارات الأطباء

رويترز
 

يقودنا ذلك إلى أسئلة محيرة. فمع التطور التقني المتزايد، ربما نصل قريبا إلى مرحلة يتطلب فيها استخدام الذكاء الاصطناعي إيمانا أعمى. لا شك أننا - نحن البشر - نعجز أحيانا عن تفسير أفكارنا. لكننا نجد طرقا لاستخدام الحدس للوثوق بالناس وتقييمهم. هل سيكون ذلك ممكنا أيضا مع الآلات التي تفكر وتصنع القرارات بطريقة مختلفة عن الإنسان؟ نحن لم نبني من قبل آلات تعمل بطرق لا يفهمها صانعوها. إلى أي مدى سيمكننا التواصل مع الآلات الذكية التي قد تصبح مبهمة تماما وغير متوقعة. قادتني هذه الأسئلة في رحلة إلى آخر ما توصلت إليه الأبحاث في خوارزميات الذكاء الاصطناعي، بداية من غوغل وحتى آبل، مع عدة محطات بينهما، منها لقاء مع أحد أعظم فلاسفة عصرنا.

 

عام 2015، خطر لمجموعة باحثين -في مستشفى ماونت سيناي بنيويورك- فكرة تطبيق التعلم المتعمق على قاعدة البيانات الضخمة من سجلات المرضى بالمستشفى. تحوي هذه البيانات مئات من المتغيرات المتعلقة بالمرضى، مستمدة من نتائج اختباراتهم، وزيارات الأطباء، وما شابه. تم تدريب البرنامج الناتج، الذي أطلق عليه "المريض المتعمق"، باستخدام بيانات نحو 700 ألف فرد، وعندما جرى اختباره على سجلات جديدة، أثبت البرنامج قدرة لا تصدق على التنبؤ بالمرض. تمكن المريض المتعمق، دون أي توجيهات من الخبراء، من اكتشاف أنماط مخفية في بيانات المستشفى، بدت قادرة على تحديد المرضى المقبلين على الإصابة بمجموعة كبيرة من الأمراض، بما في ذلك سرطان الكبد. يقول الدكتور جويل دودلي، قائد فريق ماونت سيناي إن هناك طرق كثيرة "جيدة نسبيا" للتنبؤ بالمرض باستخدام السجل المرضى، "لكن هذه الطريقة أفضل بكثير".

 

في الوقت نفسه، كان المريض المتعمق محيرا بعض الشيء. بدا البرنامج قادرا على التنبؤ باضطرابات نفسية مثل الفصام بنجاح مدهش. لكن لما كان التنبؤ بالفصام شديد الصعوبة على الأطباء، تعجب دودلي وتساءل عن الطريقة التي نجح بها البرنامج في ذلك. وما تزال الإجابة مجهولة. لا تقدم الأداة الجديدة أي معلومة عن كيفية قيامها بذلك. إن كانت التطبيقات المشابهة للمريض المتعمق ستساعد الأطباء، فعليها تزويدهم بتبرير لتوقعاته، كي يطمئنوا إلى دقتها، ولتبرير، على سبيل المثال، تغيير جرعات دواء شخص ما. يقول دودلي آسفا: "يمكننا بناء هذه النماذج، لكننا لا نعرف كيفية عملها".

  

إن طريقة عمل أي تقنية تعلم آلي أكثر غموضا بحكم طبيعتها من النظم المكودة يدويا، حتى بالنسبة إلى علماء الحاسب الآلي (رويترز)

 

لم يكن الذكاء الاصطناعي دوما هكذا، في البداية كانت هناك مدرستان فكريتان إزاء قابلية الذكاء الاصطناعي للفهم والشرح. فبينما رأى الكثيرون أن الحس السليم يقتضي بناء آلات تعمل وفق القواعد والمنطق، بما يجعل نشاطها الداخلي مكشوفا أمام أي شخص يرغب في دراسة أو اختبار الأكواد. شعر آخرون أن الذكاء سيحظى بفرصة أكبر للنمو إذا استمدت الآلات الإلهام من الأحياء، وتعلمت عن طريق الملاحظة والتجريب. يعني هذا قلب البرمجة الحاسوبية رأسا على عقب. فبدلا من كتابة المبرمج أكوادا لحل مشكلة، ينتج البرنامج خوارزمياته الخاصة بناء على نتائج مرجوة وبيانات مستقاة من أمثلة سابقة. ووقع اختيار تقنيات التعلم الآلي -التي ستتطور لاحقا لتغدو أقوى أنظمة الذكاء الاصطناعي اليوم- على الخيار الثاني: ستتولى الآلة بالأساس برمجة نفسها.

 

في البداية، كان لهذا النهج استعمال عملي محدود، وظل طوال فترة الستينات والسبعينات حبيس حدود المجال الضيقة، بدرجة كبيرة. ثم جاءت الحوسبة التي شملت كثير من الصناعات، ومعها كم ضخم من البيانات، لتتجدد الآمال. شجع ذلك على تطوير تقنيات تعلم آلي أكثر قوة، كانت أبرزها إصدارات جديدة مما تعرف باسم "الشبكة العصبونية الاصطناعية". وبحلول التسعينات، كانت الشبكات العصبونية قادرة على رقمنة الحروف المكتوبة يدويا بشكل آلي.

 

لكن أكبر الشبكات العصبونية لم تحدث طفرة في الإدراك الآلي إلا مع بداية العقد الحالي، بعد عدد من التحسينات والتعديلات الذكية. إن التعلم المتعمق هو المسؤول عن ثورة الذكاء الاصطناعي التي نشهدها اليوم. لقد منح أجهزة الحاسوب قدرات استثنائية، مثل قدرة على تمييز الكلمات المنطوقة تكاد تماثل قدرة الإنسان، وهي مهارة أعقد من أن تكود يدويا في الآلة. أحدث التعلم المتعمق تحولا في رؤية الحاسوب، كما حسن الترجمة الآلية بدرجة كبيرة. وها هو يستعمل اليوم بشكل إرشادي لجميع القرارات الكبرى في الصيدلة والتمويل والتصنيع وغيرها.

 

إن طريقة عمل أي تقنية تعلم آلي أكثر غموضا بحكم طبيعتها من النظم المكودة يدويا، حتى بالنسبة إلى علماء الحاسب الآلي. لا يعني ذلك أن جميع تقنيات الذكاء الاصطناعي المستقبلية ستكون عصية على الفهم بنفس الدرجة. لكن التعلم المتعمق - على وجه الخصوص - صندوق أسود معتم بطبيعته.

  

عام 2015، عدل باحثون من غوغل خوارزمية خاصة بتمييز الصور، تعتمد على التعلم المتعمق، كي تنتج الصور وتعدلها، بدلا من تحديد عناصرها (رويترز)

 

لا يمكننا فهم طريقة عمل شبكة عصبونية عميقة عبر النظر داخلها، الأمر ليس بهذه البساطة. فمنطق الشبكة مدمج في سلوك آلاف الخلايا العصبية المحاكاتية، المرتبة في عشرات ومئات الطبقات ذات الروابط المعقدة. تستقبل كل واحدة من خلايا الطبقة الأولى العصبية دخل ما، مثل حدة البكسل في صورة، ثم تجري حسابات قبل إخراج إشارة جديدة. يتم تغذية هذه المخرجات عبر شبكة معقدة إلى الخلايا العصبية في الطبقة التالية، وتتكرر العملية، حتى خروج ناتج إجمالي. إضافة إلى ذلك، هناك عملية تعرف باسم الانتشار الخلفي، تؤثر على حسابات الخلايا العصبية المفردة، بطريقة تسمح للشبكة بتعلم إنتاج المخرج المستهدف.

 

تمكننا كثرة طبقات الشبكة العميقة من إدراك أشياء في مستويات مختلفة من التجريد. ففي نظام مصمم لتمييز الكلاب، على سبيل المثال، تميز الطبقات السفلى أشياء بسيطة مثل اللون وحدود الأشكال. وتميز الطبقات العليا أشياء أكثر تعقيدا مثل الفراء والأعين. وتميز الطبقة الأعلى الكيان الكلي باعتباره كلبا. يمكن استخدام الأسلوب نفسه، بشكل عام، مع المدخلات الأخرى التي تدفع الآلة إلى التعليم الذاتي. مثل الأصوات التي تكون الكلمات في خطبة، والأحرف والكلمات التي تكون جملا في نص، وحركة عجلة القيادة اللازمة لتوجيه المركبة.

 

من أجل فهم ما يحدث في هذه الأنظمة، فهما يمكننا من شرحه بمزيد من التفصيل، جرت الاستعانة بإستراتيجيات مبتكرة. ففي عام 2015، عدل باحثون من غوغل خوارزمية خاصة بتمييز الصور، تعتمد على التعلم المتعمق، كي تنتج الصور وتعدلها، بدلا من تحديد عناصرها. وبفضل تشغيل الخوارزمية في الاتجاه العكسي بنجاح، تمكنوا من تحديد الخصائص التي يستغلها البرنامج لتمييز.. قل طائر أو مبنى مثلا. هكذا، أنتج مشروع يعرف باسم "الحلم المتعمق"، صورا لحيوانات متنافرة المظهر، تشبه الكائنات الفضائية، تبزغ من بين السحب والنباتات، ومعابد بوذية هلوسية تزهر في الغابات وسلاسل الجبال. أثبتت الصور أن التعلم المتعمق لا يستلزم غموضا تاما، لقد كشفت أن الخوارزميات تعتمد على خصائص بصرية مألوفة، مثل منقار الطائر وريشه. لكن الصور أعطتنا لمحة عن مدى الاختلاف بين التعلم المتعمق والإدراك البشري، لاحظ باحثو غوغل أن الخوارزمية متى أنتجت صورا لأثقال رياضية، فإنها تضيف ذراعا بشرية ممسكة بها أيضا. لقد استنتجت الآلة أن الذراع جزء من هذا الشيء.

  

ينفق الجيش الأميركي مليارات الدولارات على مشاريع ستستخدم التعلم الآلي لقيادة المركبات والطائرات، وتحديد الأهداف، ومساعدة المحللين في فرز أكوام ضخمة من البيانات المخابراتية

رويترز
  

تم تحقيق مزيد من التقدم عن طريق أفكار مستعارة من العلوم العصبية وعلوم الإدراك. مثل قيام فريق يقوده جيف كلون، المدرس المساعد بجامعة وايومنج، بتوظيف ذكاء اصطناعي مكافئ للخداع البصري، بهدف اختبار شبكات عصبونية عميقة. وفي عام 2015، عرض فريق كلون للكيفية التي تتمكن بها صور معينة من خداع أمثال هذه الشبكات، فتتوهم وجود أشياء لا وجود لها، عبر توظيف هذه الصور للأنماط السفلى التي يبحث عنها النظام. كذلك تمكن جيسون يوسنيسكي، وهو أحد معاوني كلون، من بناء أداة تقوم بدور المسبار المغروز في الدماغ. تستهدف هذه الأداة جميع الخلايا العصبية المتواجدة في منتصف الشبكة، وتبحث عن الصور التي تدفعها إلى أعلى نشاط لها. ينتج ذلك صورا تجريدية (تخيل تصور انطباعي عن طائر فلامنجو أو حافلة مدرسية)، مما يسلط الضوء على الطبيعة الغامضة لقدرات الآلة الإدراكية.

 

إلا أن مجرد إطلالة سريعة على طريقة تفكير الذكاء الاصطناعي لن تكفينا، وليس لذلك حلول سهلة. إن للتفاعلات الحسابية داخل الشبكة العصبونية العميقة دورا حاسما في مسألة تمييز الأنماط واتخاذ القرارات المعقدة، لكن هذه الحسابات أشبه بمستنقعات من الدوال والمتغيرات الرياضية. يقول ياكول: "لو أنك تملك شبكة عصبونية شديدة الصغر، ربما تتمكن من فهمها. لكن ما إن تتضخم الشبكة، لتحوي آلاف الوحدات في كل طبقة، وربما مئات الطبقات، حتى تصير غير قابلة للفهم بدرجة كبيرة".

 

تجلس ريجينا بارزيلاي في المكتب المجاور لمكتب ياكول، وهي أستاذة بمعهد ماساتشوستس للتكنولوجيا، تسعى بحزم لتطبيق التعلم الآلي في مجال الصيدلة. اكتشفت بارزيلاي إصابتها بسرطان الثدي قبل عامين، في عمر الثالثة والأربعين. كان التشخيص مزلزلا، لكنها ازدادت فزعها عندما اكتشفت أن الإحصاءات ومناهج التعلم الآلي المتطورة لا توظف لخدمة بحوث الأورام أو لمساعدة المريض في تحديد المسار العلاجي الأمثل. تقول إن الذكاء الاصطناعي يملك قابلية هائلة لإحداث ثورة في مجال الصيدلة، لكن الاعتراف بهذه القابلية يعني تجاوز السجلات الطبية. إنها ترى ضرورة استخدام مزيد من البيانات الابتدائية التي لا تلقى الاهتمام الكافي، حسب قولها: "تخيل بيانات، بيانات في علم الأمراض، تخيل حجم هذه المعلومات".

 

بعد انتهاء بارزيلاي من رحلة علاج السرطان في العام الماضي، بدأت هي وطلابها في العمل مع أطباء بمستشفى ماساتشوستس العام لتطوير نظام قادر على التنقيب في تقارير علم الأمراض لتحديد المرضى ذوي الخصائص السريرية التي قد يرغب الباحثون في دراستها. إلا أنها أدركت حاجتها إلى شرح منطق النظام. لذا، قامت بمساعدة ياكول وأحد الطلاب بقطع خطوة أخرى: سيستخرج النظام نصوصا مقتطعة ويسلط الضوء عليها، على أن تكون نصوصا ذات قدرة على تمثيل النمط المكتشف. كما تطور بارزيلاي وطلابها خوارزمية تعلم متعمق، قادرة على تمييز العلامات المبكرة باستخدام تصوير الثدي الشعاعي، وهم يهدفون إلى منح النظام شيئا من القدرة على شرح منطقه كذلك. تقول بارزيلاي: "حقيقة، نحن نحتاج إلى صنع حلقة يتعاون فيها البشري مع الآلة".

  

يجري تطوير واختبار كثير من المركبات الأرضية المستقلة. لكن الجنود لن تجد راحة في دبابة روبوتية لا تستطيع تفسير طريقتها في اتخاذ القرارات

رويترز
  

ينفق الجيش الأميركي مليارات الدولارات على مشاريع ستستخدم التعلم الآلي لقيادة المركبات والطائرات، وتحديد الأهداف، ومساعدة المحللين في فرز أكوام ضخمة من البيانات المخابراتية. لكن لا توجد هنا مساحة للغموض الخوارزمي، أكثر من أي مكان آخر، بما فيها الصيدلة، ولقد اعتبرت وزارة الدفاع الأمريكية أن القابلية للشرح حجر عثرة رئيسي.

 

يعمل ديفيد جوننج مدير برامج بداربا (وكالة مشاريع البحوث المتطورة الدفاعية)، ويتولى الإشراف على برنامج الذكاء الاصطناعي القابل للتفسير. إنه جندي رمادي الشعر مخضرم، يعمل في الوكالة التي أشرفت في السابق على مشروع داربا الذي أنتج في النهاية سيري. يقول جوننج إن الأتمتة تسلل إلى مجالات عسكرية لا تحصى. يتولى محللو المخابرات اختبار التعلم الآلي باعتبارها طريقة لتحديد الأنماط في كم هائل من بيانات المراقبة. يجري تطوير واختبار كثير من المركبات الأرضية المستقلة. لكن الجنود لن تجد راحة في دبابة روبوتية لا تستطيع تفسير طريقتها في اتخاذ القرارات، كما سيجد المحللون نفورا من العمل على معلومات يجهلون منطقها. يقول جوننج: "كثيرا ما يكون إصدار أنظمة التعلم الآلي للكثير من الإنذارات الكاذبة جزء من طبيعتها، لذا يحتاج محلل شركة إنتل إلى مساعدة إضافية لفهم سبب تبني هذا القرار".

 

في (مارس/آذار) الماضي، انتقت داربا ١٣ مشروعا من الحقل الأكاديمي والصناعي لتمويلها تحت مظلة برنامج جوننج. يمكن لبعضها الاستفادة من العمل الذي قاده كارلوس جويسترن، الأستاذ بجامعة واشنطن. لقد طور مع طلابه طريقة تستطيع بها نظم التعلم الآلي تقديم تبرير منطقي لمخرجاتها. حيث يقوم الحاسب الآلي تلقائيا بالعثور على أمثلة قليلة ضمن مجموعة بيانات، يقدمها في صورة شرح موجز. على سبيل المثال، قد يستخدم نظام مصمم لتصنيف رسائل البريد الإلكتروني المرسلة من قبل إرهابي، عدة ملايين من الرسائل خلال تمرينه وخلال اتخاذه للقرارات. لكن باستخدام منهج فريق واشنطن، يمكنه تسليط الضوء على كلمات مفتاحية معينة ضمن رسالة ما. كذلك ابتكرت مجموعة جوسترن طرقا تمكن أنظمة تمييز الصور من توضيح طريقة عملها بعض الشيء عبر تسليط الضوء على الأجزاء الأكثر أهمية في صورة ما.

 

لكن أحد عيوب هذا النهج وأشباهه، مثل طريقة بارزيلاي، هو التبسيط الدائم للشروح المقدمة، بما يعني إمكانية فقد بعض المعلومات الحيوية خلال هذه العملية. يقول جويسترن: "لم نحقق الحلم بأكمله بعد، وفيه سيجري الذكاء الاصطناعي حوارا معك، وسيكون قادرا على الشرح. ما زال أمامنا طريق طويل للوصول إلى ذكاء اصطناعي قابل للتفسير حقا".

 

لا يحتاج الأمر إلى التداخل مع ظروف شديدة الخطورة مثل تشخيص السرطان أو المناورات العسكرية لكي يلقى اهتماما لائقا. ففهم طريقة تفكير الذكاء الاصطناعي ضرورة ما دامت هناك نية لتحويله إلى جزء شائع ومفيد في حياتنا اليومية. يرى توم جروبر، قائد فريق سيري في آبل، أن فريقه يولي القابلية للشرح اهتماما خاصا خلال سعيه لتحسين ذكاء وكفاءة سيري. ما كان جروبر ليناقش خططا محددة لمستقبل سيري، لكن يسهل عليك تخيل ما ستنتابك من رغبة في معرفة الأسباب التي دفعت سيري إلى ترشيح مطعم معين لك. أما رسلان صلاخوتينوف، رئيس قسم أبحاث الذكاء الاصطناعي في آبل، والأستاذ المشارك بجامعة كارنيغي ميلون، فيعتبر القابلية للشرح أساسا للعلاقة الآخذة في التطور بين البشر والآلات الذكية. ويقول: "إنها العامل الذي سيبني الثقة".

  

سنحتاج إلى تصميم أنظمة ذكاء اصطناعي تحترم معاييرنا الاجتماعية وتتوافق معها. فإن كنا لننتج دبابات روبوتية وآلات قتل أخرى، من المهم أن تأتي خياراتها متسقة مع أحكامنا الأخلاقية

رويترز
  

ربما لن يتمكن الذكاء الاصطناعي من شرح كل ما يفعله، بالضبط مثلما يستحيل تفسير العديد من جوانب السلوك البشري بصورة تفصيلية. يقول كلون، من جامعة وايومنج: "حتى إن تمكن أحدهم من منحك شرح يبدو عليه التمسك [لأفعاله أو أفعالها]، فسيكون في الأغلب ناقصا، وقد ينطبق ذلك على حالة الذكاء الاصطناعي أيضا. قد يكون ذلك جزءا من طبيعة الذكاء، أعني عدم قابلية معظم أجزائه للتفسير العقلاني. ففيه جزء غرائبي، أو دون الوعي، أو مبهم".

 

إذا كان الوضع هكذا، إذن قد نضطر في مرحلة ما إلى الاختيار بين الوثوق بأحكام الذكاء الاصطناعي أو التخلي عنه. بالمثل، يجب أن تأتي هذه الأحكام متصفة بشيء من الذكاء الاجتماعي. وبالضبط كما اعتمد المجتمع في بنائه على عقد يضم مجموعة من السلوكيات المتوقعة، سنحتاج إلى تصميم أنظمة ذكاء اصطناعي تحترم معاييرنا الاجتماعية وتتوافق معها. فإن كنا لننتج دبابات روبوتية وآلات قتل أخرى، من المهم أن تأتي خياراتها متسقة مع أحكامنا الأخلاقية.

 

وللتحقق من صحة هذه المفاهيم الميتافيزيقية، ذهبت إلى جامعة تافتس للقاء دانيال دينيت، فيلسوف شهير ومتخصص في علوم الإدراك، يدرس الوعي والعقل. يرجح دينيت في إحدى فصول كتابه الأخير "من البكتيريا إلى باخ وما وراءه" -وهو بحث موسوعي في الوعي- أن خلق نظم قادرة على تنفيذ مهام لا يعرف صناعها كيفية فعلها هو جزء طبيعي من تطور الذكاء نفسه. قال لي دينيت في مكتبه الفوضوي بالحرم الجامعي الصارم: "ما التجهيزات والإعدادات الواجب علينا فعلها لتنفيذ ذلك بحكمة، ما المعايير التي نطلبها منهم، ومن أنفسنا؟ هذا هو السؤال".

 

إضافة إلى ذلك، نبه دينيت على أمر يتعلق بهذا السعي وراء القابلية للشرح. قائلا: "مهما يكن الأمر، إن كنا سنستخدم هذه الأشياء ونعتمد عليها حقا، فعلينا امتلاك معرفة حقيقية بطريقة وسبب تقديمها هذه الأجوبة لنا". لكن مع احتمال عجزنا عن التوصل إلى إجابة مثالية، يلزمنا التعامل بحذر مع تفسيرات الذكاء الاصطناعي، كما نفعل بيننا نحن البشر، مهما بدت لنا مهارة الآلة. "إن لم تستطع تفسير سلوكها بدرجة تفوق قدرتنا على ذلك، فلا تثق بها".

   

________________________________

  
التقرير مترجم عن: الرابط التالي

إيران في ميزان النخبة العربية

تقارير متصدرة


اّخر الأخبار