انضم إلينا
اغلاق
عصر التحول.. كيف يغير الذكاء الاصطناعي وجه العالم الذي نعرفه؟

عصر التحول.. كيف يغير الذكاء الاصطناعي وجه العالم الذي نعرفه؟

Brookings

مؤسسة فكرية
  • ض
  • ض

معظم الناس ليسوا على دراية كبيرة بمفهوم الذكاء الاصطناعي (AI). وكمثال على ذلك، عندما سُئل 1,500 من كبار قادة الأعمال في الولايات المتحدة في عام 2017 عن الذكاء الاصطناعي، قال 17% فقط منهم إنهم كانوا على دراية سابقة به. بينما لم يكن عدد كبير منهم متأكدين من ماهيته أو كيف سيؤثر على شركاتهم الخاصة. فهم يدركون أن هناك إمكانية كبيرة لتغيير أساليب العمل، ولكن لم يكن من الواضح بالنسبة لهم كيف يمكن استخدام الذكاء الاصطناعي داخل مؤسساتهم.

  
على الرغم من ضعف الإلمام به على نطاق واسع، فإن الذكاء الاصطناعي هو التكنولوجيا التي ستغير كل مجالات الحياة. فهو أداة واسعة متعددة الاستخدامات والمجالات تُمكّن الأشخاص من إعادة التفكير في كيفية دمج المعلومات، وتحليل البيانات، واستخدام الأفكار الناتجة لتحسين عملية اتخاذ القرار. ويحدونا الأمل أنه من خلال هذه النظرة الشاملة قد نتمكن من شرح الذكاء الاصطناعي أمام جمهور يضم صانعي السياسات وقادة الرأي والمراقبين المهتمين، وتوضيح كيف تمكن الذكاء الاصطناعي من تغيير العالم بالفعل، وإثارة أسئلة مهمة حول المجتمع والاقتصاد ونظم الإدارة والحوكمة.

      
نناقش في هذا المقال التطبيقات الجديدة للذكاء الاصطناعي في مجالات التمويل، والأمن القومي، والرعاية الصحية، والعدالة الجنائية، والنقل، والمدن الذكية، والتصدي لمسائل مثل مشكلات الوصول إلى البيانات، والتحيز الخوارزمي، وأخلاقيات الذكاء الاصطناعي والشفافية، والمسؤولية القانونية عن قرارات الذكاء الاصطناعي. ونُقارن المناهج التنظيمية في الولايات المتحدة والاتحاد الأوروبي، ونختتم المقال بتقديم عدد من التوصيات لتحقيق أقصى استفادة من الذكاء الاصطناعي مع حماية القيم الإنسانية المهمة.

    

    
من أجل تعظيم فوائد الذكاء الاصطناعي، نُوصي بتسع خطوات للمُضي قدما:       

● تشجيع الوصول إلى البيانات بشكل أكبر للباحثين دون المساس بالخصوصية الشخصية للمستخدمين.
● استثمار المزيد من التمويل الحكومي في أبحاث الذكاء الاصطناعي غير السرية.
● الترويج لنماذج جديدة من التعليم الرقمي، وتطوير القوى العاملة في مجال الذكاء الاصطناعي، والتي ستزود العاملين بالمهارات اللازمة في اقتصاد القرن الحادي والعشرين.
● إنشاء لجنة استشارية اتحادية خاصة بالذكاء الاصطناعي لوضع التوصيات المتعلقة بالسياسة العامة.
● التواصل مع المسؤولين الحكوميين والمحليين حتى يُسِّنوا سياسات فعالة.
● تنظيم المبادئ الشاملة المتعلقة بالذكاء الاصطناعي، بدلا من التقيد بالخوارزميات المحددة.
● أخذ شكاوى التحيز على محمل الجد حتى لا يقوم الذكاء الاصطناعي بتكرار الظلم التاريخي أو الإجحاف أو التمييز العنصري القائم على البيانات أو الخوارزميات.
● الحفاظ على آليات الرقابة والتحكم البشري.
● فرض العقوبات على سوء استخدام الذكاء الاصطناعي وتعزيز الأمن السيبراني.

   

1. صفات الذكاء الاصطناعي
على الرغم من عدم وجود تعريف متفق عليه بشكل موحد، يُعتقد أن الذكاء الاصطناعي يشير عموما إلى "الآلات التي تستجيب للتحفيز بما يتوافق مع الاستجابات التقليدية من البشر، نظرا لقدرة الإنسان على التفكير واتخاذ الأحكام وعقد النيّات". وفقا للباحثين شوبهاندو وفيجاي، فإن هذه الأنظمة البرمجية "تتخذ قرارات تتطلب عادة مستوى من الخبرة البشرية"، وتساعد الأشخاص على توقع المشكلات أو التعامل مع القضايا بمجرد ظهورها. وعلى هذا النحو، فإنها تعمل بطريقة مُتعمدة وذكية ومتكيفة.
 

القصد - التعمد

صُممت خوارزميات الذكاء الاصطناعي لاتخاذ القرارات، وغالبا ما تستخدم البيانات في الوقت الفعلي. فهي على عكس الآلات غير النشطة التي لا تكون قادرة إلا على استجابات ميكانيكية أو محددة سلفا. تجمع المعلومات من مجموعة متنوعة من المصادر المختلفة، باستخدام أجهزة الاستشعار أو البيانات الرقمية أو المدخلات الشفوية عن بعد، وتحلل المواد على الفور، وتتصرف بناء على الأفكار المستمدة من تلك البيانات. كما أنها ستكون قادرة على التطور الهائل في التحليل وصنع القرار، مع إدراج المزيد من التحسينات الهائلة في أنظمة التخزين، وسرعات المعالجة، والتقنيات التحليلية. أي إنها تُعَدّ بمنزلة آلية تحويل واتخاذ قرار، مواد مُجمَّعة يتم تحليلها تلقائيا، ولا يتوقف الأمر عند ذلك، بل يتم انتهاج أو اتخاذ أو صناعة قرار بناء على التحليل الناتج عن هذا التحليل.

 

الذكاء

  

يعمل الذكاء الاصطناعي بشكل عام عبر التزامن مع التعلم الآلي وتحليلات البيانات. يأخذ التعلم الآلي البيانات ويبحث عن الاتجاهات الأساسية السائدة. إذا حددت شيئا مناسبا لحل مشكلة عملية، يُمكن لمصممي البرامج أن يأخذوا هذه المعرفة ويستخدموها لتحليل قضايا محددة. كل ما هو مطلوب هو البيانات التي تكون قوية بما يكفي حتى تتمكن الخوارزميات من تمييز الأنماط المفيدة. ويمكن أن تأتي البيانات في شكل معلومات رقمية أو صور من الأقمار الصناعية أو معلومات مرئية أو نصية أو بيانات غير منظمة.

   

القدرة على التكيف

تمتلك أنظمة الذكاء الاصطناعي القدرة على التعلم والتكيف، بينما تتخذ القرارات. في مجال النقل، على سبيل المثال، تحتوي المركبات شبه المستقلة على أدوات تسمح للسائقين والمركبات معرفة مناطق الازدحام القادمة أو أماكن الحفر أو أعمال الإصلاح على الطريق أو غيرها من العوائق المرورية المحتملة. ويمكن للمركبات أن تستفيد من تجربة المركبات الأخرى على الطريق، دون تدخل بشري، كما أن المجموعة الكاملة من "الخبرات" التي اكتسبتها تلك المركبات يمكن نقلها بشكل فوري وكامل إلى مركبات أخرى مُتماثلة في نمط التشغيل. تدمج الخوارزميات المتطورة، وأجهزة الاستشعار، والكاميرات، الخبرة التي اكتسبها في العمليات الحالية، وتستخدم لوحات المعلومات والشاشات المرئية لتقديم المعلومات في الوقت الفعلي حتى يتمكن السائقون البشريون من فهم حركة المرور المستمرة وأحوال مركباتهم. وفي حالة السيارات المستقلة بالكامل، يمكن للأنظمة المتقدمة التحكم بالكامل في السيارة أو الشاحنة، واتخاذ جميع القرارات الملاحية.

 

2. التطبيقات في مختلف القطاعات
لا يُمكن القول إن الذكاء الاصطناعي مجرد رؤية مستقبلية، ولكنه بالأحرى شيء موجود في عالمنا اليوم حيث يُدمج ويُستخدم في مجموعة متنوعة من القطاعات. ويشمل ذلك مجالات مثل قطاع المال والأعمال والأمن القومي والرعاية الصحية والعدالة الجنائية والنقل والمدن الذكية. هناك العديد من الأمثلة التي يؤثر فيها الذكاء الاصطناعي بالفعل على العالم ويُعزز القدرات البشرية بطرق ملموسة.

 
يتمثل أحد أهم الأسباب للدور المتنامي للذكاء الاصطناعي في الفرص الهائلة للتنمية الاقتصادية التي يقدمها. وقدّر مشروع أجرته شركة "برايس وتر هاووس كوبرز"، والتي تُعد واحدة من أكبر شركات الخدمات المهنية في العالم، أن "تقنيات الذكاء الاصطناعي يُمكن أن تزيد الناتج المحلي الإجمالي العالمي بمقدار 15.7 تريليون دولار، أي بنسبة 14% كاملة بحلول عام 2030". ويشمل ذلك 7 تريليونات دولار في الصين، و3.7 تريليون دولار في أميركا الشمالية، و1.8 تريليون دولار في أوروبا الشمالية، و1.2 تريليون دولار لأفريقيا وأوقيانوسيا، و0.9 تريليون دولار في باقي آسيا باستثناء الصين، و0.7 تريليون دولار في أوروبا الجنوبية، و0.5 تريليون دولار في أميركا اللاتينية. تسير الصين بخطى سريعة لأنها وضعت هدفا وطنيا لاستثمار 150 مليار دولار في تقنيات الذكاء الاصطناعي لتصبح الرائدة عالميا في هذا المجال بحلول عام 2030.

      

     
ومن ناحية أخرى، وجدت دراسة أجراها "معهد ماكينزي العالمي" في الصين أن "الأتمتة التي يقودها الذكاء الاصطناعي يمكن أن تقدم للاقتصاد الصيني ضخًّا في الإنتاجية من شأنها أن تضيف من 0.8 إلى 1.4 نقطة مئوية لنمو الناتج المحلي الإجمالي سنويا، اعتمادا على سرعة التبني". وقد وجد الباحثون أن الصين متأخرة حاليا عن الولايات المتحدة والمملكة المتحدة في استخدامات الذكاء الاصطناعي، إلا أن الحجم الهائل لسوقها في مجال الذكاء الاصطناعي يعطي ذلك البلد فرصا هائلة للاختبارات التجريبية والتطوير المستقبلي.
 

قطاع المال - التمويل

تضاعفت الاستثمارات في تطبيقات الذكاء الاصطناعي في القطاعات المالية في الولايات المتحدة ثلاث مرات، بين عامي 2013 و2014 لتصل إلى ما مجموعه 12.2 مليار دولار. ووفقا للمراقبين في هذا القطاع، فإن "اتخاذ القرارات المتعلقة بالقروض تجري الآن بواسطة برمجيات يُمكن أن تأخذ في الاعتبار مجموعة متنوعة من البيانات التي تم تحليلها بدقة حول المقترض، بدلا من مجرد الحصول على درجة الائتمان والتحقق من الخلفية". بالإضافة إلى ذلك، هناك ما يسمى بالمستشارين الآليين الذين "ينشئون حافظات استثمارية مخصصة، مما يغني عن الحاجة إلى سماسرة البورصة والمستشارين الماليين". وقد صُممت تلك التقنيات المتقدمة لإخراج العاطفة من الاستثمار واتخاذ القرارات على أساس الاعتبارات التحليلية، واتخاذ تلك الخيارات في غضون دقائق.

    
ومن الأمثلة البارزة على ذلك ما يجري في بورصات الأوراق المالية، حيث أصبح التداول عالي التردد، يجرى عن طريق الآلات التي حلت محل الكثير من القرارات البشرية. يقدم الأشخاص أوامر البيع والشراء، وتقارن أجهزة الكمبيوتر بينها في غمضة عين دون تدخل الإنسان. يمكن للآلات أن تلاحظ عدم كفاءة التداول أو فروق السوق على نطاق صغير للغاية وتنفيذ الصفقات التي تجني المال وفقا لتعليمات المستثمرين. تعمل هذه الأدوات في بعض الأماكن بواسطة الحوسبة المتقدمة، مما يكسبها قدرات أكبر بكثير على تخزين المعلومات بسبب تركيزها ليس على الصفر أو على واحد، بل على "البتات الكمية - كيوبت"، التي يُمكنها تخزين قيم متعددة في كل موقع. وهذا يزيد بشكل كبير من سعة التخزين ويقلل من الوقت اللازم للمعالجة.

    

  

يمثل الكشف عن الاحتيال إحدى الطرق الأخرى التي يُمكن لتقنيات الذكاء الاصطناعي أن تفيد بها الأنظمة المالية. في بعض الأحيان يصعب تمييز الأنشطة الاحتيالية في المؤسسات الكبيرة، ولكن يُمكن للذكاء الاصطناعي تحديد حالات الشذوذ، أو الحالات المُغايرة، أو الحالات المنحرفة التي تتطلب مزيدا من التحقيق. يساعد ذلك المديرين على إيجاد المشاكل في وقت مبكر من الدورة، قبل أن يصلوا إلى مستويات خطيرة.

 

الأمن القومي

يلعب الذكاء الاصطناعي دورا جوهريا في الدفاع الوطني. فمن خلال "مشروع ميڤن" (Project Maven)، تقوم العسكرية الأميركية بنشر أنظمة الذكاء الاصطناعي "للتدقيق في الكميات الهائلة من البيانات والفيديوهات التي يجري التقاطها عن طريق المراقبة ثم بعد ذلك تنبيه المحللين البشريين بالأنماط المكتشفة أو عند وجود نشاط غير طبيعي أو مريب". ووفقا لما ذكره باتريك شانهان، نائب وزير الدفاع، يتمثل الهدف من استخدام التقنيات الناشئة في هذا المجال في "تلبية احتياجات المقاتلين الحربيين وزيادة سرعة ومرونة التطورات التقنية والتزود بها".

 
ستؤثر تقنيات تحليل البيانات الضخمة المرتبطة بالذكاء الاصطناعي تأثيرا عميقا في تحليل المعلومات الاستخبارية، إذ يجري التدقيق بعناية في قدر هائل من البيانات في الوقت الفعلي تقريبا -إن لم يكن في الوقت الفعلي بشكل قاطع- مما يقدم للقادة وطاقمهم قدرا من تحليل المعلومات الاستخبارية والإنتاجية غير المرئية التي لم تتوفر إلى الآن. وعلى نحو مماثل، ستتأثر عمليات القيادة والتحكم نظرا لقيام القادة من البشر باستخدام روتين معين، وفي بعض الظروف الاستثنائية، يقومون بتوجيه قرارات رئيسية إلى منصات الذكاء الاصطناعي، مما يقلل بشدة من حجم الوقت المرتبط بالقرار والإجراءات اللاحقة. وفي النهاية، تعتبر الحرب عملية تنافسية مرتبطة بالوقت، إذ تكون الغلبة بشكل عام للجانب الذي يتمكن من اتخاذ القرارات أسرع وينتقل بأقصى سرعة إلى مرحلة التنفيذ. وفي الواقع، يمكن لأنظمة الذكاء الاصطناعي الذكية، المرتبطة بأنظمة القيادة والتحكم التي تحظى بمساعدة الذكاء الاصطناعي، أن تنقل عمليات دعم القرارات واتخاذها إلى نمط أسرع يفوق سرعات الأساليب التقليدية المتبعة في شن الحرب. وستكون هذه العملية سريعة للغاية، وخاصة إذا اقترنت بالقرارات التلقائية المتعلقة بإطلاق أنظمة الأسلحة المستقلة التي تتوفر فيها تقنيات الذكاء الاصطناعي القادرة على إحداث نتائج مميتة، لدرجة أنه جرى استحداث مصطلح جديد خصيصا لكي يتضمن معنى السرعة التي تُشن بها الحرب: وهو "السُرعة الفائقة لشن الحرب" (hyperwar).

  

ففي حين أن النقاش الأخلاقي والقانوني ما زال مستعرا حول إمكانية شن أميركا لحرب باستخدام أنظمة فتاكة مستقلة تستخدم الذكاء الاصطناعي، فالصينيون والروس ليسوا منهمكين كثيرا في هذا النقاش، كما يجب أن نتوقع حاجتنا إلى الدفاع ضد هذه الأنظمة التي تعمل بسرعات فائقة. يتمثل التحدي القائم في الغرب والذي يتمحور حول مكان تمركز "العقل البشري في مجموعة العمل - نموذج يتطلب التفاعل البشري" المحاط بسيناريو الحرب فائقة السرعة سوف يحدد في نهاية المطاف قدرة الغرب على المنافسة في هذا الشكل الجديد من الصراع.

      

ينبغي أن تصبح الاستعدادات للحرب فائقة السرعة، نظرا لأن الصين وروسيا وكوريا الشمالية ودولا أخرى تضخ موارد هائلة في تطبيقات الذكاء الاصطناعي في هذا المجال

مواقع التواصل
     

ونظرا لأن الذكاء الاصطناعي سيؤثر بشدة على سرعة الحرب، فسوف يشكل انتشار التهديدات الإلكترونية السريعة والمباشرة فضلا عن البرمجيات الخبيثة متعددة الأشكال تحديا حتى بالنسبة للحماية الإلكترونية الأكثر تعقيدا والقائمة على الأنظمة التي تكشف التدخلات عن طريق مراقبة الأحداث وتحديد الأنماط التي تحمل بصمة الهجمات المعروفة. ويقتضي هذا إجراء تحسينات ملموسة على الدفاعات الإلكترونية القائمة. كما تتعرض الأنظمة الضعيفة للتغيير بشكل متزايد، وسوف تحتاج إلى الانتقال إلى نهج متعدد المستويات يتمثل في الأمن الإلكتروني؛ الذي يتمتع بمنصات ذكاء اصطناعي سحابية ومعرفية. ويدفع هذا النهج المجتمع نحو قدرة دفاعية تعتمد على "التفكير" يمكنها الدفاع عن الشبكات من خلال التدريب المتواصل على التهديدات المعروفة. وتتضمن هذه القدرة تحليلا في منتهى الدقة لشفرة غير معروفة حتى الآن، مع الأخذ في الاعتبار إمكانية تحديد ووقف الشفرات الخبيثة الواردة وذلك من خلال التعرف على مكون معامل السلسلة الخاص بالملف. كانت هذه هي الطريقة المتبعة التي ساعدت بعض الأنظمة الرئيسية القائمة في الولايات المتحدة على إيقاف هجمات فيروس واناكراي الإلكتروني "WannaCry" و"Petya" المدمرة.

  
ينبغي أن تصبح الاستعدادات للحرب فائقة السرعة والدفاع عن الشبكات الإلكترونية الحيوية من الأولويات العليا، نظرا لأن الصين وروسيا وكوريا الشمالية ودولا أخرى تضخ موارد هائلة في تطبيقات الذكاء الاصطناعي في هذا المجال. ففي عام 2017، أصدرت الحكومة الشعبية المركزية الصينية خطة الدولة حتى تقوم "ببناء صناعة محلية تساوي ما يقرب من 150 مليار دولار" بحلول عام 2030. وكمثال على تلك الإمكانيات، ابتكرت شركة البحث الصينية بايدو تطبيقا للتعرف على الوجه يمكنه العثور على الأشخاص المفقودين. وبالإضافة إلى ذلك، تقدم بعض المدن مثل مدينة شنجن ما يزيد على مليون دولار لدعم مختبرات الذكاء الاصطناعي. وتأمل هذه الدولة بأن يتمكن الذكاء الاصطناعي من توفير الأمن ومكافحة الإرهاب، فضلا عن تحسين برامج التعرف على الكلام. إن الطبيعة ذات الاستخدام المزدوج للعديد من خوارزميات الذكاء الاصطناعي ستعني أن أبحاث الذكاء الاصطناعي التي ركزت على قطاع واحد في المجتمع يمكن تعديلها على نحو سريع لاستخدامها في قطاع الأمن أيضا.
  

الرعاية الصحية

تساعد أدوات الذكاء الاصطناعي المصممين على تحسين التطور الحاسوبي في الرعاية الصحية. فعلى سبيل المثال، تُعد شركة "Merantix" واحدة من الشركات الألمانية التي تطبق نظام التعلّم العميق في المسائل الطبية، إذ تمتلك تطبيقا متخصصا في التصوير التشخيصي الطبي والذي "يكتشف العقد الليمفاوية داخل الجسم البشري من خلال التصوير المقطعي الحاسوبي (CT)". وطبقا للمطورين، يكمن السر في تصنيف العقد والتعرف على الآفات البسيطة أو الأورام التي يمكن أن تمثل بعض المشاكل. ويمكن للبشر القيام بذلك، ولكن يتقاضى أخصائيو الأشعة 100 دولار في الساعة وربما يتمكّنوا فقط من قراءة أربع صور في هذه الساعة. فإذا كان هناك 10,000 صورة، فستصل تكلفة العملية إلى 250,000 دولار، ما يعد تكلفة باهظة إذا قام البشر بهذه العملية.

    

  
وما يمكن أن يفعله التعلّم العميق في هذا الوضع هو تدريب أجهزة الحاسوب على مجموعات من البيانات حتى تتعلم التمييز بين العقدة الليمفاوية التي تبدو طبيعية وتلك التي تبدو غير طبيعية. وبعد القيام بذلك من خلال تمارين التصوير وشحذ دقة التصنيف، يمكن للمتخصصين في التصوير الشعاعي تطبيق هذه المعرفة على مرضى حقيقيين وتحديد مدى تعرض شخص ما لخطر العقد الليمفاوية السرطانية. وبما أن عددا قليلا فقط من النتائج من المحتمل أن تكون إيجابية، فإن الأمر يتعلق بالتعرف على العقدة غير الصحية في مقابل العقدة الصحية.

 
وقد تم تطبيق تقنيات الذكاء الاصطناعي على قصور القلب الاحتقاني أيضا، وهو من الأمراض التي تصيب 10% من المواطنين كبار السن وتصل تكلفته إلى 35 مليار دولار سنويا داخل الولايات المتحدة. وتعتبر أدوات الذكاء الاصطناعي مفيدة لأنها "تتنبأ سابقا بالتحديات المحتملة في المستقبل، كما تخصص الموارد لتوعية المرضى والاستشعار والتدخلات الاستباقية التي تُبقي المرضى بعيدا عن المستشفيات".
 

العدالة الجنائية

استُخدمت تقنيات الذكاء الاصطناعي في مجال العدالة الجنائية. فقد طورت مدينة شيكاغو "قائمة إستراتيجية تضم بيانات الأشخاص" (Strategic Subject List) قائمة على تقنيات الذكاء الاصطناعي وتقوم بتحليل الأشخاص الذين أُلْقي القبض عليهم نظرا للخطر المتمثل في أن يصبحوا من مرتكبي الجرائم في المستقبل. وتصنف القائمة 400,000 شخص وفقا لمقياس من 0 إلى 500، باستخدام عناصر مثل السن، والنشاط الإجرامي، والضحايا، وسجلات الاعتقال بسبب المخدرات، والانتماء إلى عصابات. وبالاطلاع على البيانات، اكتشف المحللون أن الشباب يمثل عاملا قويا من عوامل التنبؤ بالعنف، وأن التعرض لإطلاق النار مرتبط بأن يصبح الشخص من مرتكبي الجرائم في المستقبل، وأن الانتماء إلى عصابات يحظى بقيمة تنبؤية ضئيلة، كما أن سوابق الاعتقال بسبب المخدرات ليست مرتبطة إلى حد كبير بالنشاط الإجرامي في المستقبل.

 
يدعّي خبراء القضاء أن برامج الذكاء الاصطناعي تقلل من الانحياز البشري في إنفاذ القانون وتؤدي إلى نظام حكم أكثر إنصافا. ويكتب كالب واتني، الأستاذ بمعهد آر ستريت: "تعتمد الأسئلة القائمة على أسس تجريبية والمتعلقة بالتحليل التنبؤي للمخاطر على نقاط القوة المرتبطة بتعلم الآلة، والاستدلال الآلي وأشكال الذكاء الاصطناعي الأخرى. وخلُصت محاكاة إحدى سياسات التعلم الآلي إلى أن مثل هذه البرامج يمكن استغلالها لخفض معدل الجريمة بما يزيد على 24.8% دون أي تغيير في معدلات السجن، أو تقليل عدد نُزلاء السجون بما يزيد على 42% دون أي تغيير في معدلات الجريمة". ومع ذلك، يشعر النقاد بالقلق من أن خوارزميات الذكاء الاصطناعي تُشكّل "نظاما سريا لمعاقبة المواطنين على جرائم لم يرتكبوها بعد. فقد استخدمت درجات المخاطر مرات عديدة لتوجيه عمليات اعتقال واسعة النطاق". وتتمثل نقطة الخوف في أن مثل هذه الأدوات تستهدف الأشخاص الملونين ظلما ولم تساعد شيكاغو على الحد من موجة القتل التي ابتُليت بها في السنوات الأخيرة.

   

  

وعلى الرغم من هذه الشواغل، تمضي دول أخرى للأمام قدما في الاستخدام السريع في هذا المجال. ففي الصين، على سبيل المثال، تمتلك الشركات بالفعل "موارد هائلة وتمتلك حق الدخول إلى بيانات الأصوات والوجوه وبيانات الاستدلال البيولوجي بكميات كبيرة، والتي من الممكن أن تساعدهم على تطوير تقنياتهم". وتتيح التقنيات الجديدة إمكانية مطابقة الصور والأصوات مع أنواع أخرى من المعلومات، فضلا عن استخدام الذكاء الاصطناعي في مجموعات البيانات الموحدة لتحسين إنفاذ القانون والأمن القومي. ومن خلال برنامج "Sharp Eyes"، يقوم نظام إنفاذ القانون الصيني بمطابقة صور الفيديو وأنشطة وسائل التواصل الاجتماعي والشراء عبر الإنترنت وسجلات السفر والهوية الشخصية مع "نظام سحابي تابع للشرطة". وتسمح قاعدة البيانات المتكاملة للسلطات باقتفاء أثر المجرمين ومنتهكي القانون المحتملين والإرهابيين. ومن زاوية أخرى، أصبحت الصين إحدى الدول الرائدة في العالم في أنظمة المراقبة التي تعمل باستخدام تقنيات الذكاء الاصطناعي.
 

وسائل النقل

يُمثّل قطاع المواصلات مجالا ينتج فيه الذكاء الاصطناعي والتعلم الآلي ابتكارات كبرى. وقد توصل البحث الذي أجراه كاميرون كيري وجاك كارستين من معهد بروكينغز إلى أن أكثر من 80 مليار دولار تم استثمارها في تكنولوجيا السيارات ذاتية التشغيل بين أغسطس/آب 2014 ويونيو/حزيران 2017. وتشمل هذه الاستثمارات تطبيقات لكُلٍّ من القيادة الذاتية والتقنيات الأساسية الحيوية لهذا القطاع. تستخدم المركبات ذاتية الحركة -السيارات والشاحنات والحافلات ونظم توصيل الخاصة بالطائرات بدون طيار- قدرات تكنولوجية متقدمة. وتشمل هذه الخاصيات التوجيه الآلي للمركبات والفرملة، وأنظمة تغيير الحارات، واستخدام الكاميرات وأجهزة الاستشعار من أجل تفادي الاصطدام، واستخدام الذكاء الاصطناعي لتحليل المعلومات في الوقت الفعلي، واستخدام أنظمة الحوْسبة والتعليم المعمق عالية الأداء للتكيف مع ظروف جديدة عبر خرائط مفصلة.

  

تُعدُّ أنظمة الكشف عن الضوء وتحديد المدى (LIDAR) والذكاء الاصطناعي بمنزلة عناصر أساسية بالنسبة للملاحة وتجنب الاصطدام. وتجمع أنظمة "LIDAR" بين أدوات الضوء والرادار، ويتم تثبيتها على سقف المركبات التي تستخدم التصوير في بيئات تغطي 360 درجة، بواسطة رادار وأشعة ضوئية لقياس سرعة ومسافة الأشياء المحيطة بالمركبات. إلى جانب أجهزة الاستشعار الموضوعة مقدمة السيارة وعلى الجوانب والجزء الخلفي منها، توفر هذه الأدوات معلومات تساعد السيارات والشاحنات سريعة الحركة على الحفاظ على مسارها دون انحراف وتساعدها على تجنب الاصطدام بالسيارات الأخرى، وتستخدم الفرامل والتوجيه عند الحاجة، وتقوم بذلك على الفور لتجنب الحوادث.

    

  

نظرا لأن هذه الكاميرات وأجهزة الاستشعار تجمع كمية هائلة من المعلومات وتحتاج إلى معالجتها على الفور لتجنب الاصطدام بالسيارة في الممر بالجنب، تتطلب المركبات ذاتية التشغيل حوسبة عالية الأداء وخوارزميات متقدمة وأنظمة تعلم معمق للتأقلم مع كل ما استجد من حالات طارئة. وهذا يعني أن البرامج الحاسوبية هي الأساس، وليس هيكل السيارة بذاته أو الشاحنة نفسها. وبفضل البرامج المتقدمة، بوسع السيارات الاستفادة من تجارب المركبات الأخرى على الطريق، وتعديل أنظمتها الخاصة بالتوجيه، في حالة تغير الطقس أو القيادة أو ظروف الطرقات.

 
تهتم شركات "مشاركة الرحلات" (Ride-sharing) اهتماما كبيرا بالسيارات ذاتية التشغيل، وينظرون إلى ما توفره من مزايا من حيث خدمة الزبائن وإنتاجية العمل. تقوم جميع الشركات الكبرى المعنية بمشاركة الركوب باستكشاف مدى جدوى استخدام السيارات بدون سائق. تبرهن الطفرة اللافتة في مجال خدمات مشاركة الركوب وسيارات الأجرة -مثل "Uber" و"Lyft" في الولايات المتحدة، و"Daimler’s Mytaxi" و"Hailo" في بريطانيا العظمى، وديدي "Chuxing" في الصين- على الفرص التي يوفرها هذا الخيار في مجال المواصلات. وقّعت شركة "Uber" مؤخرا اتفاقية لشراء 24000 سيارة ذاتية التشغيل من شركة فولفو لخدمة مشاركة الركوب.

 
غير أن الشركة، عانت انتكاسة في مارس/آذار 2018 عندما اصطدمت إحدى سياراتها ذاتية التشغيل في ولاية أريزونا بأحد المارة وأردته قتيلا، وفور ذلك أوقفت أوبر وعدة شركات لصناعة السيارات التجارب وأجرت تحقيقات حول الخطأ الذي حدث وكيف أمكن لحادثة الوفاة أن تقع بهذا الشكل. يسعى قطاع الصناعة والمستهلكين على حد سواء الحصول على ضمانات تطمئنهم بأن هذه التكنولوجيا آمنة وقادرة على الوفاء بوعودها المعلنة. وما لم تقدم إجابات مقنعة، قد يسبب ذلك الحادث تباطؤا في وتيرة تقدم الذكاء الاصطناعي في قطاع النقل.
    

  

المدن الذكية

تستخدم حكومات المدن الكبرى الذكاء الاصطناعي لتحسين تقديم الخدمات الحضرية. على سبيل المثال، وفقا لكيفين ديسوزا، وراشمي كريشنامورثي، وغريغوري داوسون: يستخدم قسم الإطفاء في سينسيناتي تحليلات البيانات لتحسين نوعية الاستجابات الطبية الطارئة إلى أبعد حد ممكن. يوصي نظام التحليلات الجديد المرسل بتقديم الرد المناسب للحالات الطبية الاستعجالية -ما إذا كان المريض يمكن معالجته في الموقع ذاته أو يحتاج إلى نقله إلى المستشفى- مع الأخذ في الاعتبار عدة عوامل، مثل نوع المكالمة، الموقع والطقس والمكالمات المشابهة.
  

نظرا لأنهم يعالجون 80 ألف طلب سنويا، يعمل مسؤولو سينسيناتي على نشر هذه التقنية لتحديد أولويات الاستجابات وضبط أفضل الطرق للتعامل مع حالات الطوارئ. ويعتبرون الذكاء الاصطناعي طريقة مواتية للتعامل مع كميات كبيرة من البيانات، ووسيلة مناسبة لتحديد طرق فعالة للاستجابة لطلبات الجمهور. وبدلا من معالجة مسائل الخدمة حسب مقتضيات الحال، تحاول السلطات استباق الوضع، لاستكشاف كيفية تقديم الخدمات الحضرية. سينسيناتي ليست وحدها. تعتمد العديد من المناطق الحضرية الأخرى تطبيقات المدن الذكية التي تستخدم الذكاء الاصطناعي لتحسين نوعية تقديم الخدمات، والتخطيط البيئي، وإدارة الموارد، واستخدام الطاقة، ومنع الجريمة، من بين أمور أخرى. في مؤشرها للمدن الذكية، صنفت المجلة "Fast Company" المدن الأميركية، وخلصت إلى أن سياتل وبوسطن وسان فرانسيسكو وواشنطن العاصمة ونيويورك تتصدر قائمة المدن التي تتبنى هذه التقنيات. على سبيل المثال، تبنت مدينة سياتل منهج الاستدامة، وهي تستخدم حاليا الذكاء الاصطناعي لإدارة قطاعي استخدام الطاقة وتسيير الموارد. وأطلقت مدينة بوسطن برنامج "City Hall To Go" الذي يضمن للمجتمعات المحلية المحرومة تلقّي الخدمات العامة المطلوبة، وقامت المدينة أيضا بنشر "الكاميرات ودوائر الحث لتسيير حركة المرور وأجهزة الاستشعار الصوتية لتحديد مصدر طلقات الأسلحة النارية"، في حين قامت سان فرانسيسكو بالتصديق على 203 مبنى استنادا إلى معايير "LEED" للاستدامة.

  
من خلال هذه الوسائل وغيرها، تتقدم المدن الكبرى الأماكن الحضرية الأخرى في البلاد، في مجال نشر الحلول التي تستخدم الذكاء الاصطناعي. وفعلا، وفقا لتقرير رابطة المدن الوطنية، فإن 66% من المدن الأميركية تستثمر في مجال تكنولوجيا المدن الذكية. ومن بين أهم التطبيقات المذكورة في التقرير نجد "العدادات الذكية للمرافق، وإشارات المرور الذكية، وتطبيقات الحوْكمة الإلكترونية، وأكشاك "Wi-Fi"، وأجهزة الاستشعار التي تعمل عن طريق ترددات الراديو في الأرصفة".

 
3. قضايا السياسة العامة والتنظيم والأخلاق
تبرهن هذه الأمثلة، المنتقاة من مجموعة متنوعة من القطاعات، كيف يقوم الذكاء الاصطناعي بتحويل العديد من مسارات حياة الإنسان. وإن تزايد تغلغل الذكاء الاصطناعي والأجهزة ذاتية التشغيل في العديد من جوانب الحياة، يدخل تغييرات في عمليات أساسية وآليات صنع القرار داخل المنظمات، وفي تحسين الكفاءة وأوقات الاستجابة. لكن في الوقت نفسه، تثير هذه التطورات قضايا مهمة تتعلق بالسياسة والتنظيم والأخلاق. على سبيل المثال، كيف ينبغي لنا تعزيز سبل الوصول إلى البيانات؟ كيف تكون الوقاية من البيانات المتحيزة أو غير المنصفة المستخدمة في الخوارزميات؟ ما أنواع المبادئ الأخلاقية التي يتم إدخالها من خلال البرمجة الحاسوبية، وكيف يتم تحديد مدى شفافية المصممين بشأن ما يتخذونه من خيارات؟ ماذا عن مسائل المسؤولية القانونية في الحالات التي تسبب فيها الخوارزميات ضررا؟
 

مشاكل الوصول إلى البيانات

  

إن أنجع طريق للاستفادة القصوى من الذكاء الاصطناعي يقتضي امتلاك "نظام بيئي مناسب للبيانات، مدعم بمعايير موحدة ومشاركة مشتركة بين المنصات". يعتمد الذكاء الاصطناعي على البيانات التي يمكن تحليلها في الوقت الفعلي وتطبيقها على مشاكل ملموسة. يُشكّل وجود بيانات "متاحة من أجل الاستكشاف" في مجتمع الأبحاث شرطا أساسيا لنجاح تطوير الذكاء الاصطناعي. وفقا لدراسة معهد ماكينزي العالمي، فإن الدول التي تشجع مصادر البيانات المفتوحة ومشاركة البيانات، تكون الأكثر قدرة على تحقيق التقدم في مجال الذكاء الاصطناعي.

  

في هذا الصدد، تحرز الولايات المتحدة تقدما كبيرا على الصين، وتظهر التقييمات العالمية الخاصة بانفتاح البيانات أن الولايات المتحدة تحتل المرتبة الثامنة عالميا، مقارنة بالمرتبة 93 بالنسبة للصين. لكن في الوقت الراهن، لا تملك الولايات المتحدة إستراتيجية بيانات وطنية متماسكة. وثمة عدد قليل من البروتوكولات لتعزيز الوصول إلى البحوث أو المنصات التي تجعل من الممكن الحصول على رؤى جديدة، عن طريق البيانات ذات الملكية الخاصة. ليس من الواضح دائما من يمتلك البيانات أو مقدار البيانات التي تنتشر في المجال العام. هذه الجوانب الملتبسة تحدّ من قدرات اقتصاد الابتكار وتعمل ككابح يعرقل تقدم البحث الأكاديمي. في القسم التالي، نحدد طرق تحسين الوصول إلى البيانات للباحثين.

   

انحيازات البيانات والخوارزميات

في بعض الحالات، يسود الاعتقاد بأن بعض أنظمة الذكاء الاصطناعي سمحت بوجود ممارسات إقصائية أو منحازة، على سبيل المثال، اتُّهم موقع "Airbnb" بوجود بعض مُلاك المنازل على منصته الذين يمارسون الإقصاء ضد الأقليات العرقية. توصل مشروع بحثي أجرته كلية هارفارد للأعمال إلى أن "نسبة قبول مستخدمي "Airbnb" من ذوي الأسماء الأميركية الأفريقية المميزة كمستأجرين كانت أقل بـ 16% من أصحاب الأسماء المميزة الخاصة بالبيض".

    

  
ألقت قضايا العنصرية بظلالها أيضا على برامج التعرف على الوجه. تعمل غالبية هذه الأنظمة عن طريق مقارنة وجه الشخص بمجموعة واسعة من الوجوه الموجودة في قاعدة ضخمة من البيانات. وكما يشير جوي بولامويني من فريق "عصبة العدالة الخوارزمية" (the Algorithmic Justice League): "إذا كانت بيانات التعرف على الوجوه تحتوي في معظمها على وجوه قوقازية، فهذه هي الوجوه التي سيتعلم البرنامج التعرف عليها"، ما لم تضم قاعدة البيانات بيانات متنوعة، فإن هذه البرامج تعمل بشكل سيئ حين تحاول التعرف على ملامح أميركي من أصول أفريقية أو من أصول آسيوية.

 
تعكس الكثير من مجموعات البيانات التاريخية قيما تقليدية، قد تمثل التفضيلات المطلوبة في النظام الحالي وقد لا تفعل. وكما يشير بولاميني، فإن هذه المقاربات تحمل في طياتها خطر تكرار مظالم الماضي: إن صعود الأتمتة والاعتماد المتزايد على الخوارزميات في القرارات المهمة مثل حصول أحدهم على تأمين من عدمه، أو احتمالية الحصول على قرض، أو مخاطر عودة أحدهم إلى الإجرام، يعني أنه من الواجب الاهتمام بهذه الانحيازات ومعالجتها. وتمتد تطبيقات الأتمتة وصولا إلى قرارات القبول، وتأثير ذلك على المدارس والكليات التي يلتحق بها أبناؤنا وعلى الفرص المتاحة أمامهم. لا يجب علينا أن نجلب المظالم البنيوية السابقة إلى المستقبل الذي نخلقه.
 

أخلاقيات الذكاء الاصطناعي ومدى الشفافية

تُضمِّن الخوارزميات اعتبارات أخلاقية واختيارات قيمية في قرارات البرنامج. وبما أن الأمر كذلك، تفتح هذه الأنظمة باب الأسئلة حول المعايير المستخدمة في أتمتة عملية اتخاذ القرار. يريد بعض الناس الوصول إلى فهم أفضل لكيفية عمل الخوارزميات والقرارات المختارة.
 

في الولايات المتحدة، تستخدم العديد من المدارس الحضرية خوارزميات لاتخاذ قرارات القبول بناء على اعتبارات متعددة، مثل تفضيلات الأبوين، وجودة الأحياء السكنية، ومستوى الدخل، والخلفية الديموغرافية. وفقا للباحث في مركز بروكينغز جون فالانت، فإن أكاديمية بريكولاج الجديدة الواقعة في أورليانز "تمنح الأولوية للمتقدمين الأقل حظا من الناحية الاقتصادية بنسبة 33% من المقاعد المتاحة. من الناحية العملية، اختارت معظم المدن فئات تمنح الأولوية لإخوة الطلبة الحاليين، وأبناء الموظفين، والعائلات التي تعيش في المنطقة الجغرافية التي تقع فيها المدرسة". يتوقع المرء أن تكون اختيارات القبول مختلفة تماما عندما تدخل اعتبارات من هذا النوع في عملية الاختيار.

 
يمكن للذكاء الاصطناعي كذلك التأثير في العديد من القطاعات وفقا لهيكلة وبناء أنظمته، إذ يمكن لها تسهيل رفض طلبات الرهن العقاري، ومساعدة الناس على إقصاء الأشخاص الذين لا يحبونهم، أو المساعدة في فحص وإنشاء قوائم للأفراد بناء على معايير جائرة. تكتسب الاعتبارات التي تدخل في برمجة القرارات أهمية بالغة، إذ إنها تحدد كيفية تصرف النظام وكيفية تأثيره على العملاء.

    

  

لهذه الأسباب، طبق الاتحاد الأوروبي قانونا لتشريع حماية البيانات العامة (GDPR) في مايو/أيار من العام 2018. والذي ينص على أنه للأشخاص "الحق في رفض الدعاية المفصلة لمخاطبة احتياجات الشخص"، وعلى إمكانية الاعتراض على "القرارات القانونية والمهمة التي تتخذها الخوارزميات والمطالبة بتدخل بشري"، وذلك عبر المطالبة بشرح كيفية توليد الخوارزميات لنتائج معينة. وصُمّم كل بند من الإرشادات لضمان حماية البيانات الشخصية ومنح الأفراد معلومات حول كيفية عمل "النظام من الداخل".
  

المسؤولية القانونية

هناك أسئلة تدور حول المسؤولية القانونية لأنظمة الذكاء الاصطناعي. فإذا كانت هناك أضرار أو مخالفات (أو وفيات في حالة السيارات ذاتية القيادة)، سيكون مشغلو الخوارزمية تحت طائلة قواعد مسؤولية المنتج. وأظهرت مجموعة من السوابق القضائية أن الحقائق والظروف هي التي تحدد المسؤولية وتؤثر على نوعية العقاب المفروض. تتنوع هذه العقوبات بين الغرامات المدنية إلى السجن في حالات الأضرار البالغة. ستكون حالة الوفاة المرتبطة بشركة أوبر في أريزونا عينة اختبار جيدة لتحديد المسؤولية القانونية. وظفت الولاية شركة أوبر بنشاط لاختبار مركباتها ذاتية القيادة ومنحت الشركة حرية كبيرة في اختبار الطرقات. ما زال علينا أن نرى إن كانت ستكون هناك دعوة قضائية في هذه الحالة ومن الذي ستتم مقاضاته. السائق الاحتياطي، أم ولاية أريزونا، حي فينكس الذي وقعت في الحادثة، أم شركة أوبر، أم مطورو البرنامج، أو مصنع السيارة. بالنظر إلى تعدد الأشخاص والمنظمات المشاركة في اختبار الطرقات، هناك الكثير من الأسئلة القانونية التي تنتظر الإجابة عنها.


في المناطق التي لا تصلها وسائل النقل، تتحمل المنصات الرقمية غالبا مسؤولية محدودة لما يحدث على مواقعها. على سبيل المثال، في حالة شركة "Airbnb" "تطلب الشركة أن يوافق الناس على التنازل عن حقهم في رفع دعوة قضائية، أو الانضمام إلى أي دعوى قضائية من أجل التمتع بالخدمة". من خلال مطالبة مستخدميها بالتضحية بحقوقهم الأساسية، تحدّ الشركة من حماية المستهلك وبالتالي تقلل من قدرة الناس على محاربة التمييز الناشئ عن الخوارزميات غير العادلة. لكن فاعلية مبدأ الشبكات العصبية في قطاعات عدة ما زالت رهنا لاعتبارات واسعة هي من تقررها.
  

4. توصيات
من أجل تحقيق توازن بين الابتكار والقيم الإنسانية الأساسية، نقترح عددا من التوصيات لمواكبة الذكاء الاصطناعي. وتشمل هذه التوصيات تحسين الوصول إلى البيانات، وزيادة الاستثمارات الحكومية، والتشجيع على تنمية القوى العاملة في مجال الذكاء الاصطناعي، وإنشاء لجنة فيدرالية استشارية، والانخراط مع المسؤولين الدوليين والمحليين لضمان وضع سياسات فعالة، وتنظيم الأهداف العريضة مقابل الاستعانة بخوارزميات محددة، أخذ مسألة التحيز على محمل الجد باعتبارها قضية تهم الذكاء الاصطناعي، والحفاظ على آليات لمراقبة الإنسان والإشراف عليه، وفرض عقوبات على السلوكيات الضارة وتطوير الأمن السيبراني.
      

تحسين الوصول إلى البيانات

يحتاج مجتمع الأبحاث إلى وصول أفضل إلى البيانات الحكومية وبيانات الأعمال التجارية،، مع وجود ضمانات مناسبة للتأكد من عدم إساءة استخدام البيانات من قِبل الباحثين كما أساءت "Cambridge Analytica"

غيتي
   

يجب على الولايات المتحدة تطوير إستراتيجية بيانات تعزز الابتكار وتحمي المستهلك. في الوقت الحالي، لا توجد معايير موحدة فيما يتعلق بالوصول إلى البيانات أو مشاركة البيانات أو حماية البيانات. إن جميع البيانات تقريبا تعتمد على الملكية وليست مشتركة بشكل واسع مع مجتمع البحث، وهو ما يحد من الابتكار وتصميم الأنظمة. يحتاج الذكاء الاصطناعي إلى البيانات لاختبار وتحسين القدرة على التعلم. بدون مجموعات بيانات منظمة وغير منظمة، سيكون من المستحيل تقريبا الحصول على فوائد الذكاء الاصطناعي كاملة.

 
بشكل عام، يحتاج مجتمع الأبحاث إلى وصول أفضل إلى البيانات الحكومية وبيانات الأعمال التجارية، مع وجود ضمانات مناسبة للتأكد من عدم إساءة استخدام البيانات من قِبل الباحثين كما أساءت "Cambridge Analytica" استخدام المعلومات التي زودتها بها شركة فيسبوك. هناك مجموعة متنوعة ومختلفة من الطرق التي يمكن للباحثين من خلالها الوصول إلى البيانات. واحدة من هذه الطرق هي الاتفاقات التطوعية مع الشركات التي لديها بيانات الملكية. على سبيل المثال، كشفت شركة فيسبوك مؤخرا عن شراكة بينها وبين الخبير الاقتصادي في جامعة ستانفورد راج شيتي تهدف لاستخدام بيانات وسائل التواصل الاجتماعي من أجل استكشاف عدم المساواة؛ كجزء من التدابير المتخذة، احتاج الباحثون إلى الخضوع لفحص خلفياتهم، ولم يتمكنوا من الوصول إلى البيانات إلا من مواقع آمنة من أجل حماية خصوصية المستخدم والحفاظ على أمنه.

 
لقد أتاحت شركة غوغل نتائج البحث المتوفرة بشكل إجمالي للباحثين ولعامة الجمهور كذلك. من خلال موقع "مؤشرات جوجل"، يمكن للباحثين تحليل موضوعات مثل ما المثير في ترمب، وجهات نظر حول الديمقراطية، ووجهات نظر حول الاقتصاد العالمي. يساعد ذلك الناس على تتبع المستجدات التي تهم المصلحة العامة وتحديد الموضوعات التي تثير اهتمام عامة الناس.

    

  

يتيح تويتر الكثير من تغريداته للباحثين من خلال واجهة برمجة التطبيقات، والتي يشار إليها عادة بـ "APIs". تساعد هذه الأدوات الأشخاص خارج الشركة في إنشاء برامج التطبيقات والاستفادة من البيانات من خلال منصة وسائل التواصل الاجتماعي. يمكن أن يدرسوا أنماط طرق التواصل في وسائل التواصل الاجتماعي ويروا كيف يعلق الناس على الأحداث الجارية أو يتفاعلون معها.

 
في بعض القطاعات التي يتبين أن فيها فائدة عامة واضحة، يمكن للحكومات تسهيل التعاون عن طريق بناء البنيات الأساسية التي تسهل مشاركة البيانات. على سبيل المثال، كان المعهد الوطني للسرطان رائدا في بروتوكول تبادل البيانات حيث يمكن للباحثين المعتمدين السؤال عن البيانات الصحية باستخدام معلومات غير محددة تم استخلاصها من البيانات السريرية والمعلومات المزعومة والأدوية التي تكون عبارة عن عقاقير. وهذا يتيح للباحثين تقييم النجاعة والفعالية، وتقديم توصيات بشأن أفضل الأساليب الطبية، دون المساس بخصوصية الأفراد المرضى.

 
من الممكن أن تكون هناك شراكات يتشارك فيها القطاع العام والخاص تجمع البيانات الحكومية وبيانات الأعمال التجارية لتحسين أداء نظام ما. كمثال لذلك يمكن للمدن دمج المعلومات المتوفرة عن خدمات وسائل النقل مع لوازمها الخاصة على مواقع الخدمات الاجتماعية وخطوط الحافلات والعبارات والزحام الذي يحدث في الطريق السريع لتحسين وسائل النقل. من شأن ذلك أن يساعد المناطق الحضرية على التعامل مع الازدحام المروري والمساعدة في التخطيط للطرق السريعة والنقل الجماعي.

    

   

دمج هذه الأساليب من شأنه تحسين الوصول إلى بيانات للباحثين والحكومة ومجتمع الأعمال التجارية، دون التأثير على الخصوصية الشخصية. وكما أشار إيان باك، نائب رئيس شركة إنفيديا، البيانات هي الوقود الذي يحرك محرك الذكاء الاصطناعي. الحكومة الفيدرالية تستطيع الوصول إلى مصادر واسعة من المعلومات. إن إتاحة الوصول إلى تلك البيانات سيساعدنا في الحصول على رؤى من شأنها أن تغير الاقتصاد الأميركي. من خلال بوابتها "Data.gov"، قامت الحكومة الفيدرالية بالفعل بوضع أكثر من 230،000 مجموعة من البيانات في المجال العام، وقد دفع هذا للابتكار والمساعدة في تحسين الذكاء الاصطناعي وتقنيات تحليل البيانات. يحتاج القطاع الخاص أيضا إلى تسهيل الوصول إلى البيانات البحثية حتى يتمكن المجتمع من تحقيق الفوائد الكاملة للذكاء الاصطناعي.
  

زيادة الاستثمار الحكومي في مجال الذكاء الاصطناعي

وفقا لجريج بروكمان، الشريك المؤسس لمنظمة "OpenAI"، فإن الحكومة الفيدرالية الأميركية تستثمر 1.1 مليار دولار فقط في تكنولوجيا الذكاء الاصطناعي العلني. وهذا أقل بكثير من المبلغ الذي تنفقه الصين أو الدول الرائدة الأخرى في هذا المجال البحثي. هذا النقص جدير بالملاحظة لأن الفوائد الاقتصادية للذكاء الاصطناعي كبيرة. ومن أجل تعزيز التنمية الاقتصادية والابتكار الاجتماعي، يحتاج المسؤولون الفيدراليون إلى زيادة الاستثمار في مجال الذكاء الاصطناعي وتحليل البيانات. ومن المرجح أن يتمكن الاستثمار المرتفع من تحقيق عوائده في شكل العديد من المزايا الاقتصادية والاجتماعية.

  

تقوية التعليم الرقمي وتنمية القوى العاملة

مع تسارع نمو تطبيقات الذكاء الاصطناعي عبر العديد من القطاعات، من المهم أن نعيد ترسيخ تصور عالم يكون فيه الذكاء الاصطناعي في كل مكان في ذهن مؤسساتنا التعليمية، يحتاج الطلاب إلى تعليم مختلف عن هذا الذي يتلقونه الآن. في الوقت الحالي، لا يتعلم الكثير من الطلاب أنواع المهارات التي ستكون مطلوبة في المجالات التي يسيطر عليها مجال الذكاء الاصطناعي. على سبيل المثال، يوجد حاليا نقص في علماء البيانات وعلماء الكمبيوتر والمهندسين والمبرمجين ومطوري الأنظمة الأساسية. هذه المهارات التي توجد بشكل قليل، إن لم يُعلِّم نظامنا التعليمي المزيد من الناس هذه المهارات فإنه سيحدّ من تطوير الذكاء الاصطناعي.

     

هناك حاجة أيضا إلى إجراء تغييرات جوهرية في عملية التعلم نفسها. إنها ليست فقط المهارات التقنية وحدها المطلوبة في عالم الذكاء الاصطناعي، ولكن مهارات التفكير المنطقي

رويترز
     

ولهذه الأسباب استثمرت كُلٌّ من حكومات الولايات والحكومات الفيدرالية في رأس المال البشري للذكاء الاصطناعي. على سبيل المثال، سنة 2017، قامت مؤسسة العلوم الوطنية بتمويل أكثر من 6500 طالب دراسات عليا في مجالات متعلقة بالكمبيوتر، وأطلقت العديد من المبادرات الجديدة التي تهدف إلى تشجيع علوم الكمبيوتر والبيانات في جميع المستويات من مرحلة ما قبل التعليم حتى التعليم العالي. الهدف هو بناء خط عريض من الذكاء الاصطناعي وموظفي البيانات التحليلية حتى تتمكن الولايات المتحدة من جني ثمار ثورة المعرفة كاملة.

 
ولكن هناك حاجة أيضا إلى إجراء تغييرات جوهرية في عملية التعلم نفسها. إنها ليست فقط المهارات التقنية وحدها المطلوبة في عالم الذكاء الاصطناعي، ولكن مهارات التفكير المنطقي، والتعاون، والتصميم، والعرض المرئي للمعلومات، والتفكير المستقل، وأمور أخرى. سوف يعمل الذكاء الاصطناعي على إعادة تشكيل طريقة عمل المجتمع والاقتصاد، ويجب أن يكون هناك "صورة كبيرة" للتفكير فيما تعنيه هذه الأخلاقيات، والتحكم، والأثر المجتمعي. سيحتاج الناس إلى القدرة على التفكير بشكل عام في العديد من الأسئلة ودمج المعرفة الناتجة عن عدد من المجالات المختلفة.

 
أحد الأمثلة على الطرق الجديدة لإعداد الطلاب لمستقبل رقمي هو برنامج الأستاذ المرشد (IBM)، باستخدام أدوات واتسون المجانية الموجودة على الإنترنت لمساعدة المعلمين على جلب أحدث المعارف إلى الفصل الدراسي، والتي تُمكّن المدرسين من تطوير خطط جديدة للدروس في مجالات العلوم والتكنولوجيا والهندسة والرياضيات، وإيجاد مقاطع فيديو تعليمية ذات صلة بموضوع الذكاء الاصطناعي، ومساعدة الطلاب على الاستفادة إلى أقصى حد في الفصل الدراسي. وعلى هذا الأساس، هم طلائع للبيئات التعليمية الجديدة التي نحتاج إلى إنشائها.
 

إنشاء لجنة استشارية فيدرالية للذكاء الاصطناعي

يحتاج المسؤولون الفيدراليون إلى النظر في كيفية تعاملهم مع الذكاء الاصطناعي. فبحسب ما ذُكر سابقا، هناك العديد من القضايا التي تتراوح بين الحاجة إلى تحسين الوصول إلى البيانات وصولا إلى معالجة قضايا التحيز والتمييز. ومن الضروري أن يُنظَر في هذه المخاوف وغيرها ليصبح بوسعنا جني الفوائد الكاملة لهذه التكنولوجيا الناشئة. من أجل المضي قُدما في هذا المجال، قدم العديد من أعضاء الكونغرس "قانون مستقبل الذكاء الاصطناعي"، وهو مشروع قانون يهدف إلى وضع سياسة عامة ومبادئ قانونية للذكاء الاصطناعي. يقترح هذا القانون أن يقوم وزير التجارة بإنشاء لجنة استشارية فيدرالية تعمل على تطوير الذكاء الاصطناعي وتطبيقه. وهو يوفر آلية تسمح للحكومة الفيدرالية بالحصول على المشورة فيما يتعلق بطرق تشجيع "مناخ من الاستثمار والابتكار لضمان القدرة التنافسية العالمية للولايات المتحدة"، و"تحسين تطوير الذكاء الاصطناعي للتعامل مع النمو المحتمل للقوى العاملة في الولايات المتحدة، أو إعادة هيكلتها، أو غير ذلك من التغيرات"، بالإضافة إلى "دعم التنمية العادلة وتطبيق الذكاء الاصطناعي"، و"حماية حقوق الخصوصية للأفراد".

   

    

ومن المسائل المحددة التي يتعين على اللجنة تناولها: القدرة التنافسية، وتأثير القوة العاملة، والتعليم، والتدريب على الأخلاقيات، ومشاركة البيانات، والتعاون الدولي، ومبدأ المساءلة، وانحياز التعلم الآلي، والتأثير الريفي، وكفاءة الحكومة، ومناخ الاستثمار، وتأثير الوظيفة، والتحيز، وتأثير المستهلك. وتهدف اللجنة إلى تقديم تقرير إلى الكونغرس وإلى الإدارة بعد 540 يوما من تفعيلها، فيما يتعلق بأي إجراء تشريعي أو إداري مطلوب للتعامل مع الذكاء الاصطناعي. يُعتبر هذا التشريع خطوة في الاتجاه الصحيح، لكننا نوصي بتقصير الجدول الزمني للإبلاغ إلى 180 يوما بدلا من 540، نظرا لوتيرة التغير السريعة التي يتصف بها هذا المجال. إذ إن انتظار تقرير اللجنة ما يقرب من سنتين سيؤدي بالتأكيد إلى ضياع العديد من الفرص وغياب الإجراءات المطلوب تنفيذها في عدة قضايا. وبالنظر إلى التقدم السريع في هذا المجال، فإن قصر المدة المحددة لاختيار الإجراءات المناسبة تبعا لتحليل اللجنة سيكون مفيدا للغاية.

 

مشاركة مسؤولي الدولة والمسؤولين المحليين

تتخذ الولايات والمحليات أيضا بعض الإجراءات المتعلقة بالذكاء الاصطناعي. على سبيل المثال، وافق مجلس مدينة نيويورك بالإجماع على مشروع قانون يوجه العمدة إلى تشكيل فريق عمل "لمراقبة نزاهة وصلاحية الخوارزميات المُستخدمة من قبل الهيئات المحلية". تستخدم المدينة خوارزميات "لتحديد ما إذا كان من الممكن خفض الكفالة المفروضة على أحد المُدعى عليهم المعوزين، ولتحديد أين سيتم إنشاء محطات الإطفاء، ولإدراج الطلبة في المدارس العامة، ولتقييم أداء المعلمين، ولتحديد عمليات التزوير الطبي ومكان وقوع الجريمة القادمة".

 
وفقا لمُشرّعي القانون، يريد مسؤولو المدينة معرفة كيفية عمل هذه الخوارزميات والتأكد من وجود الشفافية والمساءلة الكافية للذكاء الاصطناعي. بالإضافة إلى ذلك، هناك مخاوف تتعلق بالنزاهة والتحيز في خوارزميات الذكاء الاصطناعي، لذلك تم توجيه فرقة عمل لتحليل هذه القضايا وتقديم توصيات بشأن الاستخدام المستقبلي. ومن المُقرر تقديمها تقريرا إلى العمدة بشأن مجموعة من القضايا القانونية والتنظيمية وسياسات الذكاء الاصطناعي في أواخر عام 2019.

 
يشعر بعض المراقبين بالقلق من أن فرقة العمل لن تقطع شوطا كافيا لجعل الخوارزميات موضع مُساءلة. على سبيل المثال، تحتجّ جوليا باولز من كلية كورنيل تك وجامعة نيويورك بأن مشروع القانون طالب الشركات في البداية بجعل كود المصدر الخاص بالذكاء الاصطناعي متاحا للجمهور من أجل التفتيش، وبوجود عمليات محاكاة لصنع القرار باستخدام البيانات الفعلية. إلا أن انتقاد تلك البنود دفع عضو المجلس السابق جيمس فاكا لإسقاطها لصالح فرقة عمل تتولى مسؤولية دراسة هذه القضايا. إذ قَلِق هو وغيره من المسؤولين في المدينة من أن نشر معلومات الخوارزميات الخاصة من شأنه أن يبطئ وتيرة الابتكار ويجعل من الصعب العثور على جهات موردة للذكاء الاصطناعي تقبل بالعمل مع المدينة. وليس من الواضح بعد كيف ستوازن فرقة العمل المحلية بين قضايا الابتكار والخصوصية والشفافية.
  

إدارة المقاصد والأهداف واسعة النطاق لا خوارزميات محددة

  

اتخذ الاتحاد الأوروبي موقفا مقيدا بشأن هذه القضايا المتعلقة بجمع البيانات وتحليلها، واعتمد قواعد تحد من قدرة الشركات على جمع البيانات الخاصة بأوضاع الطرق ورسم خرائط لعرض الشوارع. ونظرا للقلق الذي ينتاب العديد من هذه البلدان بسبب اكتساح المعلومات الشخصية للأفراد الموجودة على شبكات الـ "Wi-Fi" غير المشفرة من خلال العمليات الشاملة لجمع البيانات، فرض الاتحاد الأوروبي غرامة على شركات التكنولوجيا وطالب بنسخ من البيانات ووضع قيودا على المواد التي جرى جمعها. وقد زادت هذه القيود من الصعوبات التي تواجهها الشركات التكنولوجية العاملة في هذا المجال من أجل تطوير خرائط عالية الدقة التي تتطلبها المركبات ذاتية التشغيل.

 
كما تفرض اللائحة العامة لحماية البيانات (GDPR) المعمول بها في أوروبا قيودا صارمة على استخدام الذكاء الاصطناعي والتعلم الآلي. فوفقا للمبادئ التوجيهية المنشورة "تحظر هذه اللوائح أي قرار آلي "يؤثر بشكل كبير" على مواطني الاتحاد الأوروبي. ويشمل هذا التقنيات التي تقيم أداء الشخص في العمل، والوضع الاقتصادي، والصحة، والتفضيلات الشخصية، والمصالح الخاصة، والموثوقية، والسلوك، ومكان الوجود، والتحركات. بالإضافة إلى ذلك، تمنح هذه القواعد الجديدة المواطنين الحق في مراجعة الكيفية التي قدمت من خلالها الخدمات الرقمية خيارات خوارزمية محددة تؤثر على الناس.

 
في حالة تفسيرها بشكل مقنع، يمكن لهذه القواعد أن تُصَعّب على مصممي البرامج الأوروبيين (والمصممين الأميركيين الذين يعملون مع نظرائهم الأوروبيين) دمج الذكاء الاصطناعي ورسم الخرائط عالية الدقة في المركبات ذاتية التشغيل. ويلعب نظام الملاحة في هذه السيارات والشاحنات دورا جوهريا يتمثل في تتبع الموقع والتحركات. وبدون خرائط عالية الدقة، تحتوي على بيانات مشفرة جغرافيًّا والتعلم المتعمق الذي يستفيد من هذه المعلومات، ستشهد القيادة الآلية بشكل كلي ركودا تاما في أوروبا. فمن خلال هذه الإجراءات وغيرها من إجراءات حماية البيانات، يضع الاتحاد الأوروبي المصنعين ومصممي البرامج وسط صعوبات كبيرة بالمقارنة مع بقية العالم.

 
من المنطقي أكثر أن نفكر في الأهداف العامة المتوقعة من الذكاء الاصطناعي بالإضافة إلى وضع السياسات التي تنهض بها، في مقابل ما تقوم به الحكومات من محاولات لفتح "الصناديق السوداء" ومعرفة الكيفية التي تعمل من خلالها خوارزميات محددة بالشكل الدقيق. وسوف يعمل تنظيم الخوارزميات الفردية على تقييد مجال الابتكار وسيجعل من الصعب على الشركات الاستفادة من الذكاء الاصطناعي.
  

أخذ مسائل التحيز على محمل الجد

يعتبر التحيز والتمييز من المسائل الجادة في مجال الذكاء الاصطناعي، وقد وقع بالفعل عدد من حالات المعاملة غير المنصفة المرتبطة بالبيانات التاريخية، ويجب اتخاذ إجراءات للتأكد من عدم انتشارها في مجال الذكاء الاصطناعي. ويجب توسيع نطاق القوانين القائمة التي تحكم قضايا التمييز في نطاق الاقتصاد المادي ليشمل المنصات الرقمية. ويمكن لذلك أن يساعد على حماية المستهلكين وبناء الثقة في هذه الأنظمة ككل. ولكي يجري تبني هذه التطورات على نطاق واسع هناك حاجة إلى المزيد من الشفافية فيما يتعلق بآليات تشغيل أنظمة الذكاء الاصطناعي. يقول أندرو بيرت من شركة "Immuta" للبرمجيات: "تتمثل المشكلة الرئيسية التي تواجه التحليلات التنبؤية بالفعل في الشفافية. إننا نعيش في عالم تتولى فيه العمليات التي تخص علم البيانات مهام متزايدة الأهمية، وسيكون الشيء الوحيد الذي يعيق طريقها هو مدى نجاح علماء البيانات الذين يقومون بتدريب النماذج في توضيح كيفية عمل نماذجهم".

  

الحفاظ على آليات الرقابة والسيطرة البشرية
أورين أتزيوني (مواقع التواصل)

   

يرى بعض الأفراد ضرورة توفير سبل ومجالات لكي يتمكن الإنسان من ممارسة الرقابة والسيطرة على أنظمة الذكاء الاصطناعي. فعلى سبيل المثال، يقول أورين أتزيوني، الرئيس التنفيذي لمعهد ألان (Allen) للذكاء الاصطناعي، بأنه يجب وضع قواعد لمراقبة هذه الأنظمة. ويقول أورين إنه يجب أولا إخضاع الذكاء الاصطناعي لجميع القوانين التي سبق تطويرها من أجل السلوك البشري، بما في ذلك الأنظمة المتعلقة بـ "البلطجة الإلكترونية، أو التلاعب بالأسهم أو التهديدات الإرهابية"، بالإضافة إلى "الإيقاع بمرتكبي الجرائم". وثانيا، يعتقد أوريون أن هذه الأنظمة يجب أن تعلن أنها أنظمة آلية وليست بشرا. وثالثا، يقول أوريون: "لا يستطيع نظام الذكاء الاصطناعي الاحتفاظ بالمعلومات السرية أو الإفصاح عنها دون موافقة صريحة من مصدر تلك المعلومات"، وحجته في ذلك أن هذه الأدوات تخزن الكثير من البيانات بحيث يجب أن يدرك الأفراد مخاطر الخصوصية التي يثيرها الذكاء الاصطناعي.

 
وفي السياق نفسه، تملك المبادرة العالمية لمعهد مهندسي الكهرباء والإلكترونيات (IEEE) مبادئ توجيهية أخلاقية لأنظمة الذكاء الاصطناعي والأنظمة ذاتية التشغيل. ويقترح خبراؤها أن يتم برمجة هذه النماذج مع أخذ المعايير والقواعد البشرية المقبولة على نطاق واسع والخاصة بالسلوك بعين الاعتبار. ويتعين على خوارزميات الذكاء الاصطناعي مراعاة أهمية هذه المعايير، وكيف يمكن تسوية أي نزاع حول المعايير، والطرق التي يمكن أن تضمن شفافية الأنظمة فيما يتعلق بتسوية المعايير. ولا بد من تصميم البرامج من أجل "تجنب الخداع" و"تحري الصدق"، وفقا لخبراء الأخلاق. وعند حدوث قصور، يجب أن تتوافر آليات تخفيف الأثر للتعامل مع العواقب. وبشكل خاص، يجب أن يتمتع الذكاء الاصطناعي بحساسية كبيرة تجاه مشاكل محددة مثل التحيز والتمييز والنزاهة.

 
تزعم مجموعة من خبراء التعلم الآلي أنه من الممكن أتمتة عملية اتخاذ القرارات الأخلاقية. ومن خلال استخدامهم لمشكلة العربة كمعضلة أخلاقية، وجه أفراد الفريق السؤال التالي: إذا خرجت سيارة ذاتية التشغيل عن السيطرة، هل يجب برمجتها لقتل ركابها أو المشاة الذين يعبرون الشارع؟ وصمموا "نظاما قائما على التصويت" طلب من 1.3 مليون شخص تقييم السيناريوهات البديلة وقاموا بتلخيص الخيارات العامة وتطبيق المنظور العام لهؤلاء الأفراد على مجموعة من احتمالات المركبات. وسمح لهم ذلك بأتمتة عملية اتخاذ القرارات الأخلاقية في خوارزميات الذكاء الاصطناعي، مع أخذ تفضيلات الجمهور بعين الاعتبار. وبطبيعة الحال، لا يقلل هذا الإجراء من قدر المأساة التي تنطوي على أي نوع من الوفيات، كالتي حدثت في واقعة أوبر، ولكنه يوفر آلية لمساعدة مطوري الذكاء الاصطناعي على دمج الاعتبارات الأخلاقية في تخطيطهم.
 

معاقبة السلوكيات الإجرامية وتعزيز الأمن السيبراني

كما هو الحال بالنسبة لأي تكنولوجيا ناشئة، من المهم تثبيط أي تعامل شرير صُمِّم لخداع البرمجيات أو استخدامها لغايات غير مرغوب فيها. وبشكل خاص، يُعد ذلك مهما نظرا للجوانب ثنائية الاستخدام في مجال الذكاء الاصطناعي، حيث يمكن استخدام الأداة نفسها لأغراض مفيدة أو ضارة. إن الاستغلال السيئ للذكاء الاصطناعي يعرِّض الأفراد والمنظمات لمخاطر غير ضرورية ويقوض مزايا التكنولوجيا الناشئة. وتشمل هذه الممارسات لسلوكيات مثل القرصنة، أو التلاعب بالخوارزميات، أو تهديد الخصوصية والسرية، أو سرقة الهويات. ولا بد من إنزال أشد العقاب على الجهود الرامية إلى توظيف الذكاء الاصطناعي من أجل الحصول على معلومات سرية، وذلك كسبيل لردع مرتكبي مثل هذه الأفعال.

  

 

  

ففي عالم سريع التغير، يعج بالعديد من الكيانات التي تمتلك قدرات حاسوبية متقدمة، من الضروري توجيه اهتمام كبير إلى الأمن السيبراني. كما يجب على الدول توخّي الحذر لحماية أنظمتها الخاصة ومنع الدول الأخرى من إلحاق الضرر بأمنها. ووفقا لوزارة الأمن الداخلي في الولايات المتحدة، يستقبل أحد البنوك الأميركية الكبرى نحو 11 مليون مكالمة أسبوعيا في مركز الخدمات التابع له. ومن أجل حماية الخدمة الهاتفية من هجمات تعطيل الخدمة، يستخدم هذا البنك "محركا إستراتيجيا قائما على التعلم الآلي، يمنع أكثر من 120 ألف مكالمة شهريا، عبر عملية فرز تمر بجدار الحماية الصوتية بما في ذلك مضايقات المتصلين والاتصالات الآلية، والمكالمات الاحتيالية المحتملة"، ويمثل هذا طريقة يمكن من خلالها للتعلم الآلي المساعدة في الدفاع عن أنظمة التكنولوجيا من الهجمات الضارة.
 

5. الخلاصة
للإيجاز، يمكننا القول إن العالم على مشارف ثورة في العديد من القطاعات من خلال الذكاء الاصطناعي وتحليلات البيانات. ويوجد بالفعل انتشار واسع لاستعمالات الذكاء الاصطناعي في قطاع التمويل، والأمن القومي، والرعاية الصحية، والعدالة الجنائية، والنقل، والمدن الذكية التي غيرت من آليات صنع القرار، ونماذج العمل، وتخفيف المخاطر، ونوعية أداء النظم. ويتمخض عن هذه التطورات فوائد اقتصادية واجتماعية كبيرة.

  
إن العالم على أعتاب ثورة في العديد من القطاعات من خلال الذكاء الاصطناعي، ولكن الطريقة التي يتم بها تطوير أنظمة الذكاء الاصطناعي تحتاج إلى فهم أفضل بسبب الآثار الرئيسية التي قد تخلفها هذه التكنولوجيات على المجتمع ككل. ومع ذلك، فإن الطريقة التي تسير عليها أنظمة الذكاء الاصطناعي تُبيّن ما تنطوي عليه هذه النظم من تأثيرات كبيرة على المجتمع ككل. ومن المهم معرفة كيف تتم معالجة القضايا السياسية، وكيفية تسوية الصراعات الأخلاقية، وحل القضايا القانونية، وكم الشفافية المتطلبة في الحلول التي تنطوي على الذكاء الاصطناعي وتحليل للبيانات. وتؤثر الخيارات البشرية المتعلقة بتطوير البرامج على طريقة اتخاذ القرارات والطريقة التي تُدمج بها هذه الخيارات في الإجراءات التنظيمية. ومن الضروري أن نفهم بدقة كيفية تنفيذ هذه العمليات بشكل أفضل، نظرا لما ستخلفه من تأثير كبير على الجمهور العام قريبا وفي المستقبل المنظور. قد يشكل الذكاء الاصطناعي بالفعل ثورة في الشؤون الإنسانية، ويصبح أكثر الابتكارات الإنسانية الفريد تأثيرا في التاريخ.

     
ختاما، سيظل الاعتقاد الخاص بأوريون أتزيوني، وهو رئيس تنفيذي لأحد معاهد الذكاء الاصطناعي ذاتها، يحوم ويدور ويجول في عقول من يريدون يوما أن يُطبِّقوا نظام الذكاء الاصطناعي. هو ابتداء ونهاية نظام مُصمَّم آليًّا وليس بشرا، وصرامته قد لا تتوافق مع الظروف والقياسات التي سيُوضَع فيها. فكيف سيتمكن مهندسو وتقنيو هذا النظام الفائق من تصفيته وتنقيته من الشوائب وإخضاعه لأمور لم يكُن مُصمَّما لها، فماذا ستكشف الأيام القادمة؟

______________________________________

ترجمة: فريق الترجمة

هذا التقرير مترجم عن: Brookings ولا يعبر بالضرورة عن موقع ميدان.

تقارير متصدرة


اّخر الأخبار