قدَّم مقرر الأمم المتحدة الخاص — كريستوف هينز — اليوم في جنيف تقريره عن الروبوتات القاتلة ذاتية التحكم إلى مجلس حقوق الإنسان. ويمكنك تنزيل التقرير الكامل — والذي يتميز بأنه منهجي ونزيه ومثير للقلق — من موقع المجلس.

إن الروبوتات القاتلة ذاتية التحكم التي يصفها هينز بأنها «أنظمة أسلحة بمجرد تفعيلها تستطيع اختيار الأهداف والتعامل معها دون تدخل الإنسان» لم تُستخدم بعدُ في الحروب أو غيرها من الصراعات، لكن التكنولوجيا المستخدَمة لإنتاجها أصبحت في المتناول إلى حدٍّ كبير. فالأمر برمته يتمثل فقط في إبعاد صناع القرار من البشر عن جلبة «دائرة القتل» المباشرة وترك قرار الإطلاق للخوارزميات (وهي بروتوكولات مجردة وضعها البشر في ظروف أكثر هدوءًا). والحكومات التي لديها القدرة على نشر مثل هذه الأسلحة ميدانيًّا «تشير إلى أن استخدامها خلال النزاع المسلح أو غيره ليس موضع تفكير في الوقت الحالي»، إلا أن التاريخ — على حد قول هينز — يشير إلى أن مثل هذه التأكيدات تكون عرضة للمراجعة دون إنذار:

يجب أن نتذكر أن الطائرات والطائرات بدون طيار كانت تُستخدم في البداية في النزاعات المسلحة لأغراض المراقبة فحسب، وكان الاستخدام الهجومي مستبعَدًا تمامًا؛ نظرًا للعواقب الوخيمة المتوقَّعة. وقد أثبتت التجربة اللاحقة أنه عند إتاحة تكنولوجيا توفر ميزة ملحوظة على عدوٍّ ما، فإن النوايا المبدئية غالبًا ما تُنحى جانبًا. بالمثل، يسهل نقل التكنولوجيا العسكرية إلى المجال المدني. وإذا كان من الضروري تعزيز الإطار القانوني الدولي ضد الضغوط المستقبلية، فإن هذا لا بد أن يحدث بينما لا يزال ممكنًا.

من عوامل التعقيد الأخرى — وأحد العوامل التي تجعل مسألة الروبوتات القاتلة ذاتية التحكم أكثر إلحاحًا — «أن طبيعة تطور الروبوتات بوجه عام تجعلها مسألة صعبة فيما يتعلق بالتنظيم»:

من الصعب التوصُّل إلى معايير قاطعة في هذا الصدد؛ إذ إن طبيعة تطور الروبوتات تزايدية. إضافةً إلى ذلك، ثَمَّةَ صلة استمرارية مهمة بين التكنولوجيا العسكرية وغير العسكرية؛ فمنصات الروبوتات نفسها ربما تكون لها تطبيقات مدنية وكذلك تطبيقات عسكرية، ويمكن استخدامها لأغراض غير قاتلة (على سبيل المثال، تعطيل العبوات الناسفة يدوية الصنع) أو تجهيزها بقدرات قاتلة (أي الروبوتات القاتلة ذاتية التحكم). بالإضافة إلى ذلك، تتسم الروبوتات القاتلة ذاتية التحكم بأن لها طبيعة مركبة، وتعتبر مزيجًا من التقنيات الأساسية التي لها أغراض متعددة.

إن أهمية السعي الحر وراء البحث العلمي تُعَدُّ رادعًا قويًّا لتنظيم البحث والتطوير في هذا المجال. إلا أن «الزحف التكنولوجي» في هذا المجال ربما — بمرور الوقت ودون ملاحظة — ينتج عنه موقف يمثل خطرًا محدقًا بالقيم الإنسانية الأساسية وعلى نظام الأمن العالمي.

يوضح تقرير الأمم المتحدة وجود مميزات عملية — وكذلك عيوب — لاستخدام الروبوتات القاتلة ذاتية التحكم بدلًا من الجنود والطيارين:

ربما تخدم الروبوتات في بعض النواحي أغراضًا إنسانية. وبينما يمكن ربط الظهور الحالي للنظم الآلية برغبة الدول في عدم التورط في تعقيدات الوقوع في الأسر، فإن الأجيال المستقبلية من الروبوتات ربما تكون قادرة على استخدام قوة أقل فتكًا؛ ومن ثَمَّ تسبب عددًا أقل من الوفيات غير الضرورية. ويمكن للتكنولوجيا أن تقدم بدائل إبداعية للفتك. على سبيل المثال، من خلال شل حركة العدو أو نزع سلاحه. كما يمكن برمجة الروبوتات لترك أثر رقمي؛ مما ربما يسمح بفحص أفضل لأفعالها مما يحدث عادةً مع الجنود؛ ومن ثَمَّ يمكن من هذا المنطلق تحسين مستوى المساءلة.

إن التقدم من الأنظمة المتحكَّم فيها عن بُعد إلى الروبوتات القاتلة ذاتية التحكم — في حد ذاته — مدفوع بعدد من الاعتبارات، ربما على رأسها حقيقة أنه نظرًا للسرعة المتزايدة لرحى الحروب، أصبح البشر في بعض الجوانب هم أضعف حلقة في الترسانة العسكرية؛ ومن ثَمَّ فإنه تجري إزالتهم من دائرة اتخاذ القرار. فوقت رد الفعل في الأنظمة ذاتية التحكم يفوق كثيرًا رد فعل البشر، لا سيما إذا ما تعرضت سرعة الأنظمة المتحكَّم فيها عن بُعد لمزيد من البطء عبر الفجوة الزمنية الحتمية في وسائل الاتصال العالمية. توجد أيضًا لدى الدول دوافع لتطوير روبوتات قاتلة ذاتية التحكم تمكِّنها من مواصلة عملياتها العسكرية حتى مع انقطاع الاتصالات خلف خطوط العدو.

لن تكون الروبوتات القاتلة ذاتية التحكم عرضة لبعض نقاط ضعف البشر التي ربما تقوض إمكانية الحفاظ على الحياة؛ فهي بطبيعة الحال لن تتصرف بدافع الانتقام أو الذعر أو الغضب أو الحقد أو التحيز أو الخوف. بالإضافة إلى ذلك، فإن الروبوتات لن تتسبب — ما لم تكن مبرمجة لهذا الغرض تحديدًا — في معاناة متعمَّدة للمدنيين. على سبيل المثال، من خلال التعذيب. كما أن الروبوتات لا تَغتصب.

إلا أن الروبوتات بها أوجه قصور في جوانب أُخَر مقارنةً بالبشر؛ فالنزاعات المسلحة والقانون الدولي الإنساني يتطلبان حكم البشر، وفطنتهم وإدراكهم للموقف العام، وفهمهم للنوايا الكامنة وراء تصرفات الأشخاص، وإدراكهم للقيم، وتوقُّع الاتجاه الذي تسير إليه الأمور. كما تتطلب القرارات المتعلقة بالموت والحياة في النزاعات المسلحة إلى شفقة وحدْس؛ فالبشر — رغم أنهم معرَّضون للخطأ — على الأقل قد يملكون هذه الصفات، في حين أن الروبوتات لا تملكها قطعًا. وفي حين تكون الروبوتات فعالة بصورة خاصة في التعامل مع الأمور الكمية، فإنها تتمتع بقدرات محدودة للقيام بالتقييمات النوعية التي غالبًا ما تتطلبها الضرورة عند التعامل مع حياة بشرية. فالحسابات الآلية تعتبر صعبة بسبب بعض التناقضات التي غالبًا ما تشكِّل أساس الخيارات المتاحة في أرض المعركة. كما يوجد مصدر آخر للقلق يتعلق بقدرة الروبوتات على تمييز الأوامر القانونية من غير القانونية.

وهكذا، بينما قد تكون الروبوتات القاتلة ذاتية التحكم في بعض الجوانب قادرة على عمل تقديرات معينة بدقة أكبر وبصورة أسرع من البشر، فإنها في جوانب أُخَر تكون محدودة أكثر، وهو ما يرجع غالبًا إلى قدراتها المحدودة على تفسير السياق، وإجراء حسابات على أساس القيمة.

وبخلاف المسائل الأخلاقية والفنية الواضحة، فإن أحد أكبر مخاطر الروبوتات القاتلة ذاتية التحكم وأكثرها مكرًا — كما يقول هينز — أن باستطاعتها اجتثاث «القيود الفطرية لدى البشر ضد خوض غمار الحرب»، خاصةً «مقتنا للتعرض للقتل، أو فقدان من نحبهم، أو الاضطرار إلى قتل أناس آخرين»:

نتيجة للخسائر البشرية المنخفضة أو المحدودة التي تتكبدها الدول في النزاعات المسلحة مع وجود الروبوتات القاتلة ذاتية التحكم في ترسانتها، ربما تصبح شعوب الدول — بمرور الوقت — أقل اشتراكًا في اتخاذ القرارات، وتترك قرار استخدام القوة — بوصفه مسألة اقتصادية أو دبلوماسية إلى حدٍّ كبير — في يد الدولة؛ مما يؤدي إلى «تطبيع» النزاعات المسلحة؛ من ثَمَّ، فإن الروبوتات القاتلة ذاتية التحكم قد تقلل من العقبات أمام دخول الدول في الحروب أو استخدام القوة الفتاكة بطريقة أخرى؛ مما ينتج عنه ألا يكون النزاع المسلح آخِر التدابير التي يتم اللجوء إليها.

يبدو من الواضح أن وقت التفكير في الروبوتات القاتلة ذاتية التحكم قد حان؛ فقد كتب هينز: «إن هذا التقرير بمثابة دعوة للتوقف بهدف السماح لمشاركة دولية جادة وذات معنًى في هذه القضية.» ويشير — وهو محق في ذلك بشكل قاطع تقريبًا — إلى أنه بمجرد استخدام هذه الروبوتات، سيكون على الأرجح قد فات الأوان لتقييد استخدامها؛ لذا نجد أنفسنا هنا وسط دراسة حالة — تتسم بقدر شديد الارتفاع من المخاطرة — بشأن ما إذا كان المجتمع قادر على موازنة خسائر وفوائد تكنولوجيا بعينها قبل بدء استخدامها، واختيار مسار لها بدلًا من تقبُّل المسار الذي يُفرض عليها.

Lethal Autonomous Robots Are Coming by Nicholas Carr. Rough Type. May 30, 2013.

في حالة رغبتكم في إضافة تعليق، برجاء إدخال اسم المستخدم وكلمة المرور الخاصة بك. تسجيل الدخول.
إذا لم يكن لديكم حساب فعليك تسجيل بياناتك. التسجيل.

تسعدنا مشاركاتكم وتعليقاتكم التي نتمنى أن تلتزم قواعد المشاركة البناءة.