الصعود المرعب للحرب الخوارزمية – القضايا العالمية


مصدر الصورة: أنجريت هيلس / رويترز عبر جالو إيمجز
  • رأي بقلم إينيس م. بوساديلا (مونتيفيديو، أوروغواي)
  • انتر برس سيرفس

مونتيفيديو، أوروغواي، 17 ديسمبر (IPS) – الآلات التي ليس لها ضمير تتخذ قرارات في أجزاء من الثانية حول من يعيش ومن يموت. هذا ليس خيالًا بائسًا. إنها حقيقة اليوم. وفي غزة، أنتجت الخوارزميات قوائم قتل تصل إلى 37 ألف هدف.

ويتم أيضًا نشر الأسلحة ذاتية التشغيل في أوكرانيا وتم عرضها في العرض العسكري الأخير في الصين. وتتسابق الدول لدمجها في ترساناتها، مقتنعة بأنها ستحافظ على سيطرتها. وإذا كانوا مخطئين، فقد تكون العواقب كارثية.

وعلى عكس الطائرات بدون طيار التي يتم توجيهها عن بعد، حيث يضغط المشغل البشري على الزناد، فإن الأسلحة المستقلة تتخذ قرارات مميتة. بمجرد تنشيطها، تقوم بمعالجة بيانات المستشعر – التعرف على الوجه، والتوقيعات الحرارية، وأنماط الحركة – لتحديد ملفات تعريف الهدف المبرمجة مسبقًا وإطلاق النار تلقائيًا عندما يجدون تطابقًا. إنهم يتصرفون دون تردد، ولا تفكير أخلاقي، ولا فهم لقيمة الحياة البشرية.

السرعة وعدم التردد يمنحان الأنظمة المستقلة القدرة على تصعيد الصراعات بسرعة. ولأنها تعمل على أساس التعرف على الأنماط والاحتمالات الإحصائية، فإنها تنطوي على احتمالات هائلة لارتكاب أخطاء مميتة.

لقد قدم الهجوم الإسرائيلي على غزة أول لمحة عن الإبادة الجماعية بمساعدة الذكاء الاصطناعي. وقد نشر الجيش الإسرائيلي أنظمة استهداف خوارزمية متعددة: فهو يستخدم Lavender وThe Gospel للتعرف على نشطاء حماس المشتبه بهم وإنشاء قوائم بالأهداف البشرية والبنية التحتية لقصفها، وWhere’s Daddy لتتبع الأهداف لقتلهم عندما يكونون في المنزل مع عائلاتهم. واعترف مسؤولو الاستخبارات الإسرائيلية بوجود معدل خطأ يصل إلى حوالي 10%، لكنهم ببساطة حسبوه، معتبرين أن مقتل ما بين 15 إلى 20 مدنيًا مقبول لكل متشدد صغير تحدده الخوارزمية وأكثر من 100 للقادة.

كما أن تبديد شخصية العنف يخلق فراغًا في المساءلة. عندما تقتل الخوارزمية الشخص الخطأ، من المسؤول؟ المبرمج؟ الضابط الآمر؟ السياسي الذي أذن بالانتشار؟ يعد عدم اليقين القانوني ميزة مدمجة تحمي مرتكبي الجرائم من العواقب. وبما أن القرارات المتعلقة بالحياة والموت تتخذها الآلات، فإن فكرة المسؤولية ذاتها تتلاشى.

تظهر هذه المخاوف ضمن سياق أوسع من القلق بشأن تأثيرات الذكاء الاصطناعي على الفضاء المدني وحقوق الإنسان. ومع انخفاض تكلفة التكنولوجيا، فإنها تنتشر عبر المجالات، من ساحات القتال إلى مراقبة الحدود إلى عمليات الشرطة. تعمل تقنيات التعرف على الوجه المدعومة بالذكاء الاصطناعي على تضخيم قدرات المراقبة وتقويض حقوق الخصوصية. تعمل التحيزات المضمنة في الخوارزميات على إدامة الاستبعاد على أساس الجنس والعرق وغيرها من الخصائص.

ومع تطور التكنولوجيا، أمضى المجتمع الدولي أكثر من عقد من الزمان في مناقشة الأسلحة المستقلة دون إصدار لوائح ملزمة. منذ عام 2013، عندما وافقت الدول التي اعتمدت اتفاقية الأمم المتحدة بشأن أسلحة تقليدية معينة على بدء المناقشات، كان التقدم بطيئا. يجتمع فريق الخبراء الحكوميين المعني بأنظمة الأسلحة الفتاكة المستقلة بانتظام منذ عام 2017، ومع ذلك، تم تعطيل المحادثات بشكل منهجي من قبل القوى العسكرية الكبرى – الهند وإسرائيل وروسيا والولايات المتحدة – مستفيدة من شرط التوصل إلى توافق في الآراء لمنع مقترحات التنظيم بشكل منهجي. وفي سبتمبر/أيلول، أصدرت 42 دولة بياناً مشتركاً أكدت فيه استعدادها للمضي قدماً. لقد كان ذلك بمثابة انفراجة بعد سنوات من الجمود، لكن الرافضين الرئيسيين ما زالوا يعارضون ذلك.

وللتحايل على هذه العائق، تولت الجمعية العامة للأمم المتحدة زمام الأمور. وفي ديسمبر/كانون الأول 2023، اعتمدت القرار 78/241، وهو الأول بشأن الأسلحة المستقلة، حيث صوتت لصالحه 152 دولة. في ديسمبر/كانون الأول 2024، كلف القرار 79/62 بإجراء مشاورات بين الدول الأعضاء، عُقدت في نيويورك في مايو/أيار 2025. واستكشفت هذه المناقشات المعضلات الأخلاقية، والآثار المترتبة على حقوق الإنسان، والتهديدات الأمنية، والمخاطر التكنولوجية. وقد دعا الأمين العام للأمم المتحدة واللجنة الدولية للصليب الأحمر والعديد من منظمات المجتمع المدني إلى اختتام المفاوضات بحلول عام 2026، بالنظر إلى التطور السريع للذكاء الاصطناعي العسكري.

وتتولى حملة وقف الروبوتات القاتلة، وهي تحالف يضم أكثر من 270 مجموعة من منظمات المجتمع المدني من أكثر من 70 دولة، قيادة هذه الحملة منذ عام 2012. ومن خلال الدعوة والبحث المستمرين، شكلت الحملة شكل المناقشة، ودعت إلى نهج ثنائي المستوى تدعمه حاليا أكثر من 120 دولة. وهذا يجمع بين الحظر المفروض على الأنظمة الأكثر خطورة – تلك التي تستهدف البشر بشكل مباشر، أو التي تعمل دون سيطرة بشرية حقيقية، أو التي لا يمكن التنبؤ بآثارها بشكل كاف – مع لوائح صارمة على جميع الأنظمة الأخرى. ولن يُسمح بهذه الأنظمة غير المحظورة إلا في ظل قيود صارمة تتطلب الإشراف البشري والقدرة على التنبؤ والمساءلة الواضحة، بما في ذلك القيود المفروضة على أنواع الأهداف والقيود الزمنية والمكانية والاختبار الإلزامي ومتطلبات الإشراف البشري مع القدرة على التدخل.

وإذا كان له أن يفي بالموعد النهائي، فإن المجتمع الدولي أمامه عام واحد فقط لإبرام معاهدة عجزت المحادثات التي عقدت من الزمان عن التوصل إليها. مع مرور كل شهر، تصبح أنظمة الأسلحة المستقلة أكثر تطوراً، وأكثر انتشاراً على نطاق واسع، وأكثر ترسيخاً في العقيدة العسكرية.

وبمجرد انتشار الأسلحة المستقلة على نطاق واسع، وتصبح فكرة أن الآلات هي التي تقرر من يعيش ومن يموت، أمراً طبيعياً، سيكون من الصعب للغاية فرض القواعد التنظيمية. يجب على الدول أن تتفاوض بشكل عاجل على معاهدة تحظر أنظمة الأسلحة المستقلة التي تستهدف البشر بشكل مباشر أو تعمل دون سيطرة بشرية ذات معنى، وتضع آليات واضحة للمساءلة عن الانتهاكات. لا يمكن عدم اختراع التكنولوجيا، ولكن لا يزال من الممكن التحكم فيها.

إينيس م. بوساديلا هو رئيس قسم البحث والتحليل في CIVICUS، ومدير مشارك وكاتب في CIVICUS Lens، ومؤلف مشارك لتقرير حالة المجتمع المدني. وهي أيضًا أستاذة السياسة المقارنة في جامعة ORT أوروغواي.

لإجراء المقابلات أو مزيد من المعلومات، يرجى الاتصال [email protected]

© إنتر برس سيرفس (20251217065522) — جميع الحقوق محفوظة. المصدر الأصلي: خدمة إنتر برس

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى