الرئيسية / اخبار وتقارير / تحذيرات من ظهور الروبوتات القاتلة والذكاء الاصطناعى فى أسلحة الحروب

تحذيرات من ظهور الروبوتات القاتلة والذكاء الاصطناعى فى أسلحة الحروب


مأرب اليوم – علوم وتكنولوجيا :

يحذر عدد من النشطاء من أن الزعماء العالميين يفشلون في منع ظهور “الروبوتات القاتلة” والأسلحة المستقلة التي يدعمها الذكاء الاصطناعى، ويشعرون بالقلق من أن الجيوش في جميع أنحاء العالم تقوم بتطوير أسلحة متطورة تقنياً بشكل أسرع من اللوائح الدولية المصممة لمنع وقوع كارثة، ففى حين أن العديد من طائرات بدون طيار اليوم، الصواريخ، الدبابات والغواصات تتمتع بشبه حكم ذاتي إلا أن جميعها تحت إشراف بشري، ليست مستقلة كالتى يتجه لها بعض الدول حاليا.


ووفقا لما ذكرته صحيفة “ديلى ميلى” البريطانية فإن هناك مجموعة جديدة من الأسلحة التي يتم تطويرها من جانب دول مثل الولايات المتحدة وروسيا، والتي تسمى أنظمة الأسلحة الفتاكة المستقلة (LAWS)، يمكنها تحديد واستهداف وقتل شخص بمفردها، على الرغم من عدم وجود قوانين دولية تحكم استخدامها.

وقال بيتر مورير، رئيس اللجنة الدولية للصليب الأحمر: “هناك نوع من السيطرة الإنسانية ضروري، فإن البشر فقط هم الذين يستطيعون إصدار أحكام خاصة بالسياق من التمييز والتناسب والاحتياطات في القتال”.

وأشرفت اللجنة الدولية على اعتماد اتفاقيات جنيف لعام 1949 التي تحدد قوانين الحرب وحقوق المدنيين في الحماية والمساعدة أثناء النزاعات وتشارك مع الحكومات في تكييف هذه القواعد مع الحرب الحديثة.

ولم تكن هذه المرة الأولى التى تصدر فيها تحذيرات بشأن هذا الأمر، فإن نشطاء حذروا الأمم المتحدة من خطر استخدام الذكاء الاصطناعى فى الحروب من قبل، ولعل من بينهم جودي ويليامز الناشطة والحائزة على نوبل، التى عارضت هذه الفكرة بشدة في نقاش بالأمم المتحدة بمدينة نيويورك.

ويقول باحثو الذكاء الاصطناعي ومحللو الدفاع إن القوانين مثل الروبوتات العسكرية لم تعد محصورة في عالم الخيال العلمي أو ألعاب الفيديو، ولكنها تتقدم بسرعة من لوحات التصميم الجرافيكي إلى معامل هندسة الدفاع.

وقد أثار احتمال قتل هذه الروبوتات البشر بشكل مستقل، مخاوف أخلاقية من جانب مجموعات حقوق الإنسان وبعض خبراء التكنولوجيا الذين يقولون إن منح الآلات قوة الحياة والموت ينتهك مبادئ كرامة الإنسان.

وقال نويل شاركي، رئيس اللجنة الدولية لمراقبة الأسلحة الآلية: “لا تخطئ في فهم كم ستكون ذكاء هذه الأسلحة”. وأضاف: “لا يمكنك ببساطة أن تثق في خوارزمية، بغض النظر عن مدى ذكائها، للبحث عن الهدف الصحيح وتحديده وقتله، لا سيما في أعقاب الحرب”.

وعلى جانب آخر، يجادل الخبراء في أنظمة الذكاء الاصطناعي القائمة على الدفاع بأن هذه الأسلحة، إذا تم تطويرها بشكل جيد، يمكن أن تجعل الحرب أكثر إنسانية، وأنهم سيكونون أكثر دقة وكفاءة، ولن يقعوا فريسة للمشاعر الإنسانية مثل الخوف أو الانتقام وتقليل مقتل المدنيين والجنود.

وقال أنوج شارما، رئيس مركز أبحاث الهند، الذي يعمل في أسلحة حرب الذكاء الاصطناعى: “من وجهة نظر الجيش، فإن الشاغل الرئيسي هو حماية أمن البلاد بأقل عدد من الأرواح المفقودة، وهذا يعني جنودها”.

وأضاف: “لذا إذا استطعت إزالة الإنسان من المعادلة قدر الإمكان، فهذا فوز لأنه يعني انخفاض عدد الحقائب الجسدية العائدة إلى الوطن، وهذا ما يريده الجميع”.

فيما أوضحت العديد من الدول في جميع أنحاء العالم أنها مهتمة بحظر تطوير أسلحة مستقلة تمامًا، فهناك ثلاثون دولة من بينها البرازيل والنمسا وكندا تؤيد فرض حظر كامل، فى حين أن العشرات من الدول الأخرى تريد معاهدة لإقامة شكل من أشكال السيطرة على استخدامها