لم تعد أسراب الروبوتات القادرة على قتل البشر مجرد خيال علمي، إذ أصبحت أنظمة الأسلحة الفتاكة ذاتية التشغيل واقعاً منظوراً في المعارك الآن، بحيث تشير تقارير إلى أن موسكو وكييف استخدمتا بعضاً منها في الصراع القائم بينهما.
وعلى عكس الطائرات التقليدية المسيّرة، تتمتع هذه الأنظمة بالقدرة على الملاحة من تلقاء نفسها، ويمكن لبعضها تحديد الأهداف وتوجيه ذخيرة قاتلة باتجاهها، لكن الخطر يتمثل في أنه بمجرد انتشار هذه التقنيات على نطاق واسع حول العالم، سيكون من الصعب السيطرة عليها، لذا فإن الدول التي لم تفعل شيئاً حتى الآن سوى النقاش، في حاجة إلى نهج جديد للتعامل مع أخطار هذه الأسلحة، فما هو المطلوب لتحقيق هذا الهدف؟
حرب الروبوتات
بعد أسابيع قليلة من بداية الهجوم الروسي على أوكرانيا، اكتشف المحللون الدفاعيون روبوتاً قاتلاً في ساحة المعركة، فوفقاً لمنظمة "باكس فور بيس" ومقرها هولندا، نقلاً عن "جينز" الدفاعية الدولية، التقط الأوكرانيون صور طائرة درون روسية مليئة بالمتفجرات القاتلة وقد استلقت على بطنها، مثل سمكة ميتة، في شارع بمدينة كييف، حيث كانت مقدمة الطائرة محطمة ومروحتها الخلفية ملتوية، ربما بسبب عطل، لكن عند تحميل صور الطائرة على وسائل التواصل الاجتماعي، حدد خبراء الأسلحة أنها من طراز "كاب - بلا" من صنع شركة "زالا آيرو"، وهي ذراع صناعة طائرات الدرون، تابعة لشركة كلاشنيكوف الروسية لتصنيع الأسلحة، وتُعرف هذه الطائرة بأنها انتحارية أو "كاميكازي"، إذ يمكنها الطيران بشكل مستقل نحو منطقة معينة، ثم تدور حولها لمدة تصل إلى 30 دقيقة، وتحدد هدفها باستخدام تكنولوجيا الذكاء الاصطناعي، ثم تتجه صوبه بحمولتها المتفجرة لتصطدم به.
في المقابل، فإن الروبوتات القاتلة كانت بحوزة أوكرانيا أيضاً، فاستخدمت طائرات تركية الصنع من طراز "بيرقدار تي بي 2"، تتمتع ببعض قدرات التشغيل الذاتي. وعلى الرغم من صعوبة تحديد ما إذا كان وضع التشغيل الذاتي المستقل للسلاح مستخدماً، إلا أنه استعمل من قبل مرة واحدة على الأقل في ليبيا وفقاً لتقرير صادر عن الأمم المتحدة، ومن المحتمل أن يكون استخدم مرات أخرى خلال الحرب في أوكرانيا على الرغم من عدم صدور تقارير رسمية أوكرانية حول ذلك.
وعلى الرغم من أن روسيا جعلت الذكاء الاصطناعي أولوية استراتيجية، وأعلن الرئيس فلاديمير بوتين عام 2017 أن من يصبح قائداً في الذكاء الاصطناعي سيصبح حاكم العالم، إلا أن تقييماً أجراه باحثون في مركز التحليلات البحرية الذي تموله الحكومة الأميركية، يقول إن روسيا تتخلف عن الولايات المتحدة والصين في تطوير الذكاء الاصطناعي لخدمة القدرات الدفاعية.
انتشار متزايد
وعلى عكس طائرات الدرون التقليدية، لا تتمتع هذه الروبوتات الطائرة القاتلة بالقدرة على الملاحة والتحليق بمفردها فقط، بل يمكن لبعض منظومات الأسلحة الفتاكة ذاتية التشغيل أن تتجول في منطقة ما للعثور على أهداف عبر خوارزميات التعلم الآلي، بما في ذلك تحديد أنظمة رادار العدو ومجموعات الدبابات والسفن، وحتى التعرف إلى أفراد معينين عبر تقنيات التعرف على الوجه، ويمكن لهذه الأسلحة أن تتجمع في مجموعات، وقد تكون الأنظمة المستقلة أيضاً أكبر من طائرات الدرون بكثير، مثل الطائرات المقاتلة من دون طيار التي يقودها الذكاء الاصطناعي مثل "ألباتروس إل 39" المعدلة، أو مثل الطائرات التجارية من دون طيار المعاد توظيفها في برامج مستقلة.
وعلى الرغم من أن المتحكم البشري لا يزال بإمكانه أن يقرر ما إذا كان سيضرب أو سيترك القرار للطائرة، فإن هذه الأسلحة تكتسب مزيداً من القدرات الذاتية بمرور الوقت مع التقدم التكنولوجي المتسارع. والآن بعد أن لاحظت الجيوش والقوات شبه العسكرية في جميع أنحاء العالم قدرات هذه الروبوتات، تستعد هذه التقنيات للانتشار على نطاق واسع.
ويشير زاخاري كالينبورن، باحث الأسلحة غير التقليدية والتكنولوجيا في الاتحاد الوطني لدراسة الإرهاب، إلى أن روسيا وكوريا الجنوبية وإسرائيل وتركيا، من بين الدول التي نشرت أسلحة ذات قدرات مستقلة، بينما تستثمر كل من الولايات المتحدة والصين وأستراليا وبريطانيا بكثافة في تطوير أنظمة الأسلحة الفتاكة ذاتية التشغيل في نطاق دائم التوسع.
آلات قتل الإنسان
ومنذ تطوير الأسلحة المستقلة ذاتية التشغيل خلال الأعوام الأخيرة، تولد قلق عالمي كبير، إذ وجد استطلاع أجرته شركة "إيبسوس" في 22 يناير 2019 أن 61 في المئة من المشاركين في 26 دولة يعارضون استخدام الأسلحة الفتاكة ذاتية التشغيل، كما وقّع الآلاف من باحثي الذكاء الاصطناعي على تعهد من معهد "فيوتشر أوف لايف" بعدم السماح للآلات بقتل الإنسان، وهي مخاوف لها ما يبررها، إذ إن الذكاء الاصطناعي الحالي على الرغم من كفاءته، إلا أنه يمكن أن يُخدع بسهولة أو أن يرتكب أخطاء في ساحة معركة معقدة وديناميكية مليئة بالدخان والحطام، بما يجعل تحديد الهدف الصحيح أكثر صعوبة، ويعرّض المدنيين والجنود للخطر.
وهناك عدد من الأسباب التي تجعل الدول والمنظمات غير الحكومية الدولية والعلماء وخبراء الذكاء الاصطناعي قلقين بشأن أنظمة الأسلحة الفتاكة ذاتية التشغيل، فعلى الرغم من أنهم لا يتوافقون حول كيفية تأثير هذه الأسلحة في المجتمع، إلا أن هناك إجماعاً متزايداً على أن انتشارها ربما يؤدي إلى عواقب وخيمة وضارة.
ومن بين هذه العواقب أن هذه الأسلحة يمكن أن تسهل العنف على نطاق واسع، نظراً إلى أنها غير مقيدة بعدد الأشخاص الذين تستهدفهم، كما أنها عبر تقنيات التعرف على الوجه والتقنيات الأخرى، يمكن أن تستهدف الأفراد أو الجماعات التي تتناسب مع أوصاف معينة، ما قد يجذب الجماعات العنيفة أو جيوش الدول إلى ارتكاب اغتيالات سياسية والقيام بعمليات التطهير العرقي.
والأخطر أن هذه الأسلحة من الممكن أن تسهل على من يتحكمون بها إخفاء هوياتهم، بالتالي تزيد القدرة على قلب الأنظمة السياسية وتوسيع نطاق العنف والإرهاب في المجتمع. إضافة إلى ذلك، يمكن أن تقع هذه الأسلحة في أخطاء، بما في ذلك الخلط بين المدنيين والجنود.
تعطيل الدول الكبرى
ومع ذلك، لم يفعل المجتمع الدولي شيئاً أكثر من الاتفاق على أن القضية بحاجة إلى المناقشة، بينما تقاوم الدول التي تتصدر تطوير أنظمة الأسلحة الفتاكة ذاتية التشغيل، أي دعوات لحظرها، فقد زعمت الولايات المتحدة أن القوانين الإنسانية الدولية الحالية كافية لتنظيم هذه الأسلحة، بينما تتمثل سياسة وزارة الدفاع الأميركية في أنه يجب تصميمها لضمان مستويات مناسبة من التحكم البشري في استخدام القوة.
في المقابل، هناك غموض حول موقف الصين، مع الإصرار على تعريف ضيق لأنظمة الأسلحة الفتاكة ذاتية التشغيل، كما تشير إلى أهمية النظر الكامل في تطبيق القواعد القانونية العامة، في حين ترفض روسيا حتى النظر في القضية، مستخدمة أدوات إجرائية دبلوماسية للمماطلة وتقليل الوقت الذي تكرسه الأمم المتحدة لمناقشة الموضوع، على الرغم من أن معظم البلدان دعت إلى حظر تطوير الأسلحة الفتاكة ذاتية التشغيل واستخدامها أو على الأقل تنظيمها، كما وصفها الأمين العام للأمم المتحدة أنطونيو غوتيريش بأنها أنظمة غير مقبولة سياسياً، وبغيضة أخلاقياً، ويجب أن يحظرها القانون الدولي.
وبحسب باحثَي العلوم السياسية بجامعة كاليفورنيا في لوس أنجليس روبرت تراغر ولورا لوكا، فشلت محاولات المجتمع الدولي في تنظيم الأسلحة الفتاكة ذاتية التشغيل خلال لقاء وصف بأنه فرصة تاريخية في ديسمبر (كانون الأول) 2021، وبعد ثمانية أعوام من المناقشات التقنية، إذ فضّل ممثلو الحكومات القواعد الملزمة قانوناً التي تنطبق بالتساوي على جميع الدول لتنظيم تطوير هذه التقنيات واستخدامها.
اقرأ المزيد
يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field)
وفي حين حققت معاهدات الحظر لأسلحة أخرى بعض النجاح في الماضي، مثل التخلي عن الألغام الأرضية في اتفاقية أوتاوا عام 1997، وحظر استخدام الذخائر العنقودية عبر اتفاقيات أوسلو عام 2008، ومعاهدة عام 2017 بشأن حظر الأسلحة النووية، التي كانت أول معاهدة تحظر الأسلحة النووية تماماً بما يتماشى مع القانون الإنساني الدولي، إلا أن السبب الرئيس في فشل الاتفاق حول حظر الأسلحة الفتاكة ذاتية التشغيل يعود إلى أن الدول الكبرى تدرك بشكل متزايد أن هذه التقنيات ربما تصبح حاسمة لأمنها، بالتالي من غير المرجح أن تتخلى عنها من جانب واحد.
ومع ذلك، يتوقع تراغر ولوكا أن النجاح في التوصل إلى اتفاق لا يزال ممكناً إذا اقتدت الدول بمعاهدة حظر انتشار الأسلحة النووية، التي دخلت حيز التنفيذ عام 1970، إذ إن المعاهدة لم تطالب الذين يمتلكون أسلحة نووية بالتخلي عنها فوراً، وسمحت للدول الأخرى باستخدام الطاقة النووية لأغراض سلمية، كذلك يمكن لنظام حظر انتشار مماثل لأنظمة الأسلحة الفتاكة ذاتية التشغيل، أن يسهل تنظيم تطويرها ونقلها وتوظيفها.