تجمّع الطلبة الضباط بزيهم العسكري المموه في ساحة مصغرة بقبو مبنى بأكاديمية «ويست بوينت» العسكرية. إنهم يراقبون دبابة آلية يبلغ ارتفاعها ارتفاع قنينة صودا ومرتبطة برمح معدني، ومحاطة ببالونات ذات ألوان مختلفة تمثّل المقاتلين الأعداء أو المدنيين. وتستخدم الدبابة، التي تعمل من تلقاء نفسها، كاميرا صغيرة لاستهداف بالون أحمر. وفجأة سمع صوت فرقعة حادة عبر أرجاء الغرفة: «مقاتل من داعش» سقط. 
تلك الفرقعة القوية هي هدف هذا التمرين، الذي يُعد جزءاً من درس في الأخلاقيات العسكرية يتلقاه حالياً هؤلاء الطلبة المستجدين بالأكاديمية العسكرية الأميركية. الطلبة الضباط برمجوا الدبابة بخوارزمية توجّهه باستخدام رمحها لـ«قتل» جنود الأعداء، والآن يقومون بإدخال بعض التعديلات لجعل الروبوت إما أكثر شراسة في إنجاز مهمته أو أقل – مع أقل قدر ممكن من الأذى للأهداف غير المقصودة. 
ومع وجود مجموعة من الأسلحة الفتاكة ذاتية التشغيل قيد التطوير اليوم، تهدف فرقعة البالونات إلى إثارة أسئلة في أذهان الطلبة حول القرارات الأخلاقية الأوسع التي سيواجهونها كقادة عسكريين في الميدان مستقبلاً. 
حجم التمرينات في «ويست بوينت»، التي شارك فيه قرابة 100 طالب حتى الآن صغير، ولكن الاختيارات الصعبة التي تطرحها تبيّن كيف يحاول الجيش الأميركي التعاطي مع احتمال فقدان بعض السيطرة على ساحة المعركة لصالح الآلات الذكية. ذلك أنه من المرجح أن ترسم خوارزميات الحاسوب معالم المستقبل وتحدد كيفية تحرك الأسلحة واستهداف الأعداء. ويعكس عدم يقين الطلبة الضباط بشأن حجم السلطة التي ينبغي منحها للروبوتات وكيفية التفاعل معها في الحرب حالةَ التردد وعدم اليقين التي تعتري الجيش بشكل عام بشأن ما إن كان ينبغي رسم خط لا ينبغي تجاوزه بخصوص السماح لآلات الحرب بالقتل بمفردها وأين ينبغي رسمه.
فهذه الآلات المستقلة كانت في الماضي جد بعيدة عن متناول العلماء تقنياً لدرجة أن النقاش حول جوانبها الأخلاقية كان مجرد تمرين فكري، ولكن الآن وقد تطوّرت التكنولوجيا ولحقت بالفكرة، أصبح ذاك النقاش يتعلق بأشياء واقعية جداً الآن. 
فحالياً، تجري القوات البحرية الأميركية تجارب على سفن تستطيع قطع آلاف الكيلومترات بمفردها بحثاً عن غواصات أو سفن تابعة للعدو وتستطيع إطلاق النار من البحر بينما يقوم جنود المارينز بعملية إنزال في الشواطئ. كما يقوم الجيش بتجريب أنظمة تحدد الأهداف وتستهدف مدافع الدبابات بشكل أوتوماتيكي. ومن جانبها، تقوم القوات الجوية بتطوير طائرات من دون طيار مميتة يمكن أن ترافق الطائرات إلى المعركة أو القيام بمهمات بشكل منفرد إذ تستطيع العمل بشكل مستقل عن «الطيارين» الذين يجلسون أمام شاشات الحاسوب في أماكن تبعد بآلاف الكيلومترات. 
غير أنه بينما يتواصل السير نحو الذكاء الاصطناعي في الحرب، فإنه لا يتقدم من دون انتقادات.
«ماري ويرهام» واحدة من النشطاء البارزين الذين يحثون الحكومات على التفكير في التداعيات الأخلاقية لاستخدام الذكاء الاصطناعي في الأسلحة. «ويرهام»، التي تنحدر من نيوزيلندا، والتي تحدثتُ معها في مكتبها بواشنطن في يوليو 2019، أمضت العشرين عاماً الماضية في العمل لحساب منظمة «هيومان رايتس ووتش»، حيث تحاول إقناع الحكومات بضرورة حظر الأسلحة المضادة للأفراد مثل القنابل العنقودية والألغام الأرضية. والآن وبصفتها مديرة الدفاع عن القضية في قسم الأسلحة بالمنظمة، تعمل من أجل إقناع زعماء العالم بفرض قيود شاملة على الأسلحة «المستقلة»، أي التي تعمل دون توجيه بشري مباشر.
في أكتوبر 2012، أطلقت منظمة «هيومان رايتس ووتش» ومعها ست منظمات غير حكومية أخرى، لدى جميعها قلق بشأن القدرات المتنامية للطائرات من دون طيار، والوتيرة السريعة للابتكار في الذكاء الاصطناعي – «حملة وقف الروبوتات القاتلة». وفي العام التالي، تناولت اتفاقية الأمم المتحدة لحظر استعمال أسلحة تقليدية معينة أو تقييدها مسألةَ ما إن كان ينبغي حظر صنع أسلحة مستقلة قاتلة وبيعها واستخدامها. ومنذ ذلك الحين، تنضم «ويرهام» كل عام إلى آخرين من «حملة وقف الروبوتات القاتلة» في الدفع بقضيتها في الغرفة القديمة نفسها بمكتب الأمم المتحدة في جنيف. 
حجتها الجوهرية هي أنه نظراً لأن الآلات تفتقر إلى المشاعر، ولا يمكنها ترتيب البدائل الأخلاقية الصعبة، فإن استخدامها من أجل القتل يمثل تجاوزا للحدود الأخلاقية. وتحاجج بأن الآلات لا يمكنها أن تصدر حكماً وتقرر ما إن كانت أفعالها تخلق خطراً متناسباً ومبرراً على المدنيين، وهو شرط رئيسي في القانون الدولي. وعلاوة على ذلك، تضيف ويرهام، فإن تبني هذه الآلات على نطاق واسع يمكن أن يزيد من احتمال اندلاع الحروب، ذلك أن «الروبوتات» قد ترتكب أخطاء مأساوية ولن يكون واضحاً من ينبغي أن يحمّل المسؤولية. فهل هو الشخص الذي أطلق السلاح؟ أم مصمّمه؟ أم صانعه؟ 
بيد أنه حتى الآن لم تحرز «ويرهام» تقدماً في تمرير حظر عبر اتفاقية الأمم المتحدة لحظر وتقييد أسلحة تقليدية معينة، وهي هيئة تعمل بالإجماع، إذ لا تقدّم أي مسودة اتفاقية إلى الأمم المتحدة إلا إذا وافق عليها كل البلدان الأعضاء الـ125. وحتى الآن أعلنت 30 دولة فقط أنها موافقة عليها، بينما رفضتها الولايات المتحدة، وروسيا وإسرائيل، وهي بلدان تستثمر بقوة في أسلحة الذكاء الاصطناعي. وتقول «ويرهام» إنه إذا كانت هذه البلدان لا تريد اتفاقية ملزمة قانونياً، فـ«إننا نتساءل»: «ماذا يمكنك أن تدعم؟ لأنه يبدو أن الجواب في الوقت الراهن هو لا شيء.. إننا في وضع خطير الآن!».

زكاري فراير بيجس

صحفي أميركي متخصص في شؤون الأمن القومي ب«مركز النزاهة العامة»
ينشر بترتيب خاص مع خدمة «واشنطن بوست وبلومبيرج نيوز سيرفس»