علوم وتكنولوجيا

نشطاء يحذرون الأمم المتحدة من خطر استخدام الذكاء الاصطناعى فى الحروب

يحذر النشطاء الأمم المتحدة من مخاطر استخدام الذكاء الاصطناعي لاتخاذ القرارات بشأن ما يجب أن يستهدفه الجنود ويدمرونه في ساحة المعركة، حيث شددت أإحدى الفائزين بجائزة نوبل للسلام بشأن خطر الروبوتات التي تتخذ قرار الحياة والموت في ساحة المعركة، لأنها غير أخلاقية ولا يمكن التراجع عنها أبدًا.
ووفقا لما ذكرته صحيفة “ديلى ميل” البريطانية، عرضت جودي ويليامز الناشطة والحائزة على نوبل، هذه الفكرة بشدة في نقاش بالأمم المتحدة بمدينة نيويورك، بعد أن أعلن الجيش الأمريكي عن مشروعه الخاص باستخدامات الذكاء الاصطناعي لاتخاذ القرارات بشأن ما يجب أن يستهدفه الجنود ويدمرونه.
وأوضحت ويليامز أن هذا الأمر سيؤدى إلى صعوبة محاسبة المتورطين في بعض جرائم الحرب، حيث سيكون هناك مبرمج وصانع وقائد والآلة نفسها متورطين في الفعل.
وكانت قد حصلت ويليامز على جائزة نوبل للسلام بعد أن قادت الجهود المبذولة لحظر الألغام الأرضية، وهو الآن ناشطة مع حملة لوقف روبوتات القاتلة.
وقالت “بدأت الطائرات بدون طيار كما تعلمون، كمعدات مراقبة، ونحن نأمل ، ونتوقع حقًا ألا يكتشف المجتمع الأكبر بحث وتطوير الروبوتات القاتلة”.
وأضافت “نحن بحاجة إلى التراجع والتفكير في كيفية تأثير نظم الأسلحة الآلية الذكاء الاصطناعي على هذا الكوكب والأشخاص الذين يعيشون عليه”.
وناشد النشطاء أيضا المسئولين ضد الروبوتات القاتلة لصياغة اللوائح لأي طائرة تتجه إلى المعركة، سواء عن طريق البر أو البحر أو البر دون تدخل بشري.
وقال ليز أوسوليفان، من اللجنة الدولية لمراقبة الأسلحة الآلية: “إذا سمحنا للأسلحة المستقلة بنشر أهدافها الخاصة والتعامل معها بشكل انتقائي، فسوف نرى معدلات خطأ غير متناسبة مع أشخاص معينة من ذوى البشرة الداكنة وذوي الإعاقات”.
وأشارت ماري ويرهام، وهي ناشطة أخرى، إلى أنه خلال الاجتماعات التي عقدت في الأمم المتحدة في جنيف كانت روسيا والولايات المتحدة هما المشكلتان الرئيسيتان لأنهما لم يرغبا في رؤية أي نتيجة نحو صياغة معاهدة لحظر استخدام هذه التقنيات.
زر الذهاب إلى الأعلى