اخبار

“شيطان” الذكاء الصناعي يقترب من اختيار شريك حياتك .. من يتحمل مسؤولية القرار؟

ازدادت سرعة انتشار أنظمة الذكاء الصناعي في غالبية القطاعات منذ تفشي جائحة كوفيد-19في عام 2020، وأصبح المستخدمون يتقبلونها، بل يعتبرونها أحد أهم الأدوات في المستقبل، من دون أن يدركوا تمامًا ماهيتها. تساعد خوارزميات الذكاء الاصطناعي حاليًا على اختيار شريك الحياة وتقديم تشخيصات طبية واستراتيجيات استثمار، بل وتحديد درجات الامتحانات.

قبل أن تصف مؤسسة الأبحاث الاجتماعية المستقلة في المملكة المتحدة أنظمة الذكاء الاصطناعي في بحثها عن مخاطر أنظمة الذكاء الصناعي، ذكرتنا بمشهد من فيلم الجريمة الكلاسيكي (The Usual Suspects) عام 1995، حين اعتقلت الشرطة المجرم روجر كينت الذي كان يقوم بأدائه كيفين سبيسي وبدأت عملية استجوابه، واقتبس سبيسي من مقولة الشاعر الفرنسي تشارلز بودلير: “إن أعظم خدعة مارسها الشيطان على الإطلاق هي إقناع العالم أنه ليس موجودًا”. يقصد الشاعر بهذه المقولة أن الشيطان يكون أكثر فاعلية حين يعمل دون أن يراه أحد. ومن ثم يسهل عليه إقناعنا بالتخلي عن إحساسنا بالمسؤولية الأخلاقية.

تشبه المؤسسة في بحثها دور الذكاء الاصطناعي في القرن الحادي والعشرين بدور الشيطان في الفيلم، وفقًا لرويترز. لماذا؟ يغري الذكاء الاصطناعي الناس بالتخلي عن الحكم والمسؤولية الأخلاقية بنفس الطريقة. ويحدث ذلك عند إسناد المزيد من مهام اتخاذ القرارات إليه. ومن ثم، بدون فهم صحيح لكيفية عمل الذكاء الاصطناعي، لا يمكننا تجنب آثاره السلبية.

أدوار معقدة وماكرة

مع وصول أنظمة الذكاء الصناعي إلى بيانات دقيقة حول السلوك البشري من خلال وسائل التواصل الاجتماعي، تغلغل الذكاء الاصطناعي في القطاعات الرئيسية لمعظم الاقتصادات المتقدمة. بالنسبة للمهام الممكنة مثل تحليل المستندات، أصبحت أنظمة الذكاء الصناعي أفضل من نظيرتها من الأنظمة التقليدية التي تكون أبطأ وأكثر عرضة للخطأ، وهو ما أدى إلى مكاسب هائلة في الكفاءة وتخفيضات في التكلفة لمن يتبنونها. أما بالنسبة للمهام الأكثر تعقيدًا، مثل اختيار شريك الحياة، يكون دور الذكاء الاصطناعي أكثر مكرًا: فهو يؤطر الخيارات و”يحفز” المختارين.

مع تطور هذه الأنظمة للسيطرة على المهام الأكثر تعقيدًا، توقع البحث مخاطر كبيرة مرتبطة بصعود الذكاء الاصطناعي في عملية صنع القرار. يتضمن كل خيار بشري بالضرورة تحويل المدخلات (المعلومات ذات الصلة، والمشاعر، وما إلى ذلك) إلى مخرجات (قرارات). وكل خيار يتضمن حكمًا – بدون حكم يمكن اعتبار النتيجة رد فعل وليس اختيارًا. الجانب الحكمي في الاختيار هو ما يحمل البشر المسؤولية. لذا مع دخول الذكاء الاصطناعي في عملية اتخاذ الخيارات الأكثر تعقيدًا وأهمية، أصبح إسناد المسؤولية أكثر صعوبة. ومن ثم، هناك خطر يتمثل في تبني الحكومات هذه الأنظمة والخوارزميات على وجه التحديد لرفع المسؤولية عنها. وقد ركز البحث على عيوب محورية في انظمة الذكاء الاصطناعي وهي:

1- أنظمة الذكاء الاصطناعي تشبه الصناديق السوداء:

  • يمكن معرفة مدخلات ومخرجات أنظمة الذكاء الصناعي، ولكن من الصعب للغاية تتبع كيفية استنتاج المخرجات من المدخلات. هذا التعتيم المستعصي على ما يبدو يولد عددًا من المشاكل الأخلاقية.
  • يمكن أن يكون الصندوق الأسود مسؤولاً سببيًا عن قرار أو إجراء، لكن لا يمكنه شرح كيف وصل إلى هذا القرار أو أوصى بهذا الإجراء.
  • حتى لو فتح الخبراء الصندوق الأسود وقاموا بتحليل التسلسل الطويل للحسابات التي يحتوي عليها، فلا يمكن ترجمتها إلى أي شيء يشبه التبرير أو التفسير البشري.

3- إلقاء اللوم على الأنظمة غير البشرية

  • كانت الأنظمة البيروقراطية في الماضي تعفي المسؤولين من أسوأ الجرائم. وقد ناقشت كتب كلاسيكية مثل Zygmunt Bauman’s Modernity and the Holocaust و Hannah Arendt’s Eichmann in Jerusalem كيف شارك الأشخاص المحترمين في الأعمال الوحشية دون الشعور بالذنب.
  • كانت هذه الظاهرة ممكنة لأن الأفراد حولوا المسؤولية واللوم إلى الأنظمة البيروقراظية غير البشرية وقادتهم. قد يؤدي تبني الذكاء الاصطناعي إلى عودة هذه الظاهرة لأنه حتى القادة الآن يمكنهم تحويل المسؤولية إلى أنظمة الذكاء الاصطناعي التي يمكنها إصدار قرارات سياسية.

4- الحكم السطحي

تم تصميم أنظمة الذكاء الصناعي للتعرف على الأنماط. لكنها، على عكس البشر، لا تفهم معنى هذه الأنماط. وبالتالي، إذا تم ارتكاب معظم الجرائم في مدينة من قبل مجموعة عرقية معينة، فسيقوم نظام الذكاء الاصطناعي بتحديد هذا الارتباط بسرعة. ومع ذلك، لن يأخذ في الاعتبار ما إذا كان هذا الارتباط ناتجًا عن أسباب أعمق وأكثر تعقيدًا. وبالتالي، يمكن لنظام الذكاء الاصطناعي أن يوجه الشرطة إلى التمييز بين المجرمين المحتملين على أساس لون البشرة، لكنه لا يستطيع فهم الدور الذي تلعبه العنصرية ووحشية الشرطة والفقر في التسبب في السلوك الإجرامي في المقام الأول.

المصدر : فوربس الشرق الاوسط

الوسوم

مقالات ذات صلة

زر الذهاب إلى الأعلى