تعمل الأسلحة التي تعمل بالذكاء الاصطناعي على نزع الطابع الشخصي عن العنف، مما يسهل على الجيش الموافقة على المزيد من التدمير – القضايا العالمية

22 نوفمبر (آي بي إس) –
يناقش CIVICUS المخاطر الناشئة عن الاستخدامات العسكرية للذكاء الاصطناعي (AI) مع صوفيا جودفريند، زميلة ما بعد الدكتوراه في مبادرة الشرق الأوسط بكلية كينيدي بجامعة هارفارد.
أثار الصعود العالمي للذكاء الاصطناعي مخاوف بشأن تأثيره على حقوق الإنسان، لا سيما بالنسبة للمجموعات المستبعدة، مع استخدامات مثيرة للجدل تتراوح بين الشرطة والمراقبة المحلية إلى “قوائم القتل” مثل تلك التي تستخدمها إسرائيل لتحديد أهداف الضربات الصاروخية. تدعو مجموعات الحقوق الرقمية إلى تطوير إطار لحوكمة الذكاء الاصطناعي يعطي الأولوية لحقوق الإنسان ويحظر أخطر استخدامات الذكاء الاصطناعي. ورغم أن قرارات الأمم المتحدة الأخيرة تعترف بالمخاطر التي يفرضها الذكاء الاصطناعي على حقوق الإنسان، إلا أن هناك حاجة إلى اتخاذ إجراءات أكثر حسماً.
لماذا يجب أن نقلق بشأن الذكاء الاصطناعي واستخداماته الحالية والمحتملة؟
يتم دمج الذكاء الاصطناعي بسرعة في العمليات العسكرية في جميع أنحاء العالم، وخاصة في أنظمة الأسلحة وجمع المعلومات الاستخبارية وصنع القرار. إن استقلاليتها المتزايدة تقلل من الرقابة البشرية، مما يثير مخاوف جدية ومخاوف من الخيال العلمي من أن الآلات تتخذ قرارات الحياة والموت دون تدخل بشري حقيقي.
أصبحت التقنيات القائمة على الذكاء الاصطناعي مثل الطائرات بدون طيار والأسلحة الآلية وأنظمة الاستهداف المتقدمة جزءًا من الترسانات العسكرية. ويثير اعتماد الجيش المتزايد على هذه الأنظمة مخاوف كبيرة، لأنها غير منظمة إلى حد كبير بموجب القانون الدولي. إن مستوى المراقبة الذي تعتمد عليه هذه التقنيات ينتهك حماية الخصوصية بموجب القانون الدولي والعديد من قوانين الحقوق المدنية الوطنية.
إن التطور السريع لهذه التكنولوجيات ونشرها يتجاوز التنظيم، مما يجعل عامة الناس غير مدركين إلى حد كبير لعواقبها. وبدون الرقابة المناسبة، يمكن إساءة استخدام الذكاء الاصطناعي بطرق تسبب ضررا واسع النطاق وتتهرب من المساءلة. نحن بحاجة ماسة إلى تنظيم الاستخدام العسكري للذكاء الاصطناعي والتأكد من توافقه مع القانون الدولي والمبادئ الإنسانية.
بالإضافة إلى ذلك، يمكن أن تؤدي البيانات الخاطئة أو المتحيزة إلى أخطاء مدمرة، مما يثير أسئلة أخلاقية وقانونية خطيرة. والقرارات التي تتخذها هذه الأنظمة يمكن أن تقوض مبدأي التناسب والتمييز في الحرب، مما يعرض حياة المدنيين للخطر.
ما هو المثال على كيفية استخدام الذكاء الاصطناعي حاليًا؟
يستخدم الجيش الإسرائيلي أنظمة الاستهداف المدعومة بالذكاء الاصطناعي لتحديد وضرب الأهداف في غزة. تقوم هذه الأنظمة بتحليل كميات هائلة من البيانات التي تم جمعها من خلال الطائرات بدون طيار والأقمار الصناعية وكاميرات المراقبة ووسائل التواصل الاجتماعي واختراق الهواتف لتحديد الأهداف المحتملة وتحديد مواقعها وتحديد أين ومتى يجب قتل الأشخاص.
تثير “قوائم القتل” التي أنشأها الذكاء الاصطناعي مخاوف جدية. وقد أدت البيانات الخاطئة أو المتحيزة بالفعل إلى أخطاء مدمرة، حيث قُتل الصحفيون والعاملون في المجال الإنساني في الغارات. كما كانت هناك مزاعم بأن الجيش قام بتوسيع تعريفه لمن أو ما الذي يشكل هدفًا مشروعًا، مما سمح بشن هجمات على أشخاص أو أماكن قد لا تستوفي المعايير التي حددها القانون الدولي.
تعمل هذه الأنظمة بسرعة ونطاق غير مسبوقين، مما يؤدي إلى إنشاء عدد كبير من الأهداف. لديهم القدرة على التسبب في دمار واسع النطاق دون رقابة شاملة. لدى الجنود العاملين في غزة ما لا يزيد عن 20 ثانية للموافقة على الأهداف التي تشمل مقاتلي حماس، ولكن أيضًا الأشخاص الذين لا يمكن اعتبارهم أهدافًا عسكرية صالحة بموجب قوانين الحرب الدولية ومعايير حقوق الإنسان.
ماذا يعني هذا بالنسبة للمسؤولية الأخلاقية عن الضرر الناجم؟
إن تقنيات الاستهداف المدعومة بالذكاء الاصطناعي، مثل نظام لافندر، ليست مستقلة بشكل كامل. وما زالوا بحاجة إلى إشراف بشري. هذه نقطة حرجة لأن هذه التقنيات مدمرة بقدر الأشخاص المسؤولين. كل هذا يتوقف على القرارات التي يتخذها القادة العسكريون، وهذه القرارات يمكن أن تمتثل للقانون الدولي لحقوق الإنسان أو تنتهكه.
وفي الوقت نفسه، فإن استخدام الآلات للاستهداف والتدمير يمكن أن يؤدي إلى نزع الطابع الشخصي عن العنف، مما يسهل على الأفراد العسكريين السماح بمزيد من التدمير. ومن خلال الاستعانة بمصادر خارجية لصنع القرار للذكاء الاصطناعي، هناك خطر التخلي عن المسؤولية الأخلاقية. وهذا النهج التكنولوجي يجعل العمل العسكري يبدو أكثر كفاءة وعقلانية، وهو ما يمكن أن يساعد في تبرير كل قصف بمنطق منطقي ظاهريا، ولكنه يجرد أيضا الضحايا المدنيين والدمار واسع النطاق الذي يتبع ذلك من إنسانيتهم.
هل أطر إدارة الذكاء الاصطناعي الحالية كافية لحماية حقوق الإنسان؟
الإجابة المختصرة هي لا: إن أطر إدارة الذكاء الاصطناعي الحالية تقصر عن حماية حقوق الإنسان، وخاصة في التطبيقات العسكرية. في حين أن معظم الدول تتفق على أن الأسلحة التي تعتمد على الذكاء الاصطناعي – من الأسلحة المستقلة بالكامل إلى الأسلحة المدعومة بالذكاء الاصطناعي – يجب أن تمتثل للقانون الدولي لحقوق الإنسان، إلا أنه لا يوجد إطار عالمي لضمان حدوث ذلك.
وقد أدى هذا إلى دعوات لقواعد أكثر شمولا وقابلة للتنفيذ، وكانت هناك بعض الخطوات الإيجابية. على سبيل المثال، نجحت مجموعات المجتمع المدني والباحثون في الضغط من أجل فرض حظر على الأسلحة المستقلة بالكامل في اتفاقية الأمم المتحدة بشأن أسلحة تقليدية معينة، والتي دعمتها أكثر من 100 دولة. ونتيجة لذلك، دعا الأمين العام للأمم المتحدة إلى اعتماد معاهدة ملزمة قانونا في عام 2026 لحظر الأسلحة المستقلة بالكامل، والتي تعمل بالذكاء الاصطناعي ولكنها لا تخضع لأي إشراف بشري على عملياتها.
كما اتخذ الاتحاد الأوروبي أيضًا إجراءات، حيث حظر بعض تطبيقات الذكاء الاصطناعي العسكرية مثل أنظمة التسجيل الاجتماعي – التي تمنح الأشخاص تقييمات بناءً على سلوكهم الاجتماعي – كجزء من قانون الذكاء الاصطناعي الخاص به. ومع ذلك، لا يزال الاتحاد الأوروبي يفتقر إلى قواعد محددة للذكاء الاصطناعي العسكري.
لعبت منظمات مثل معهد مستقبل الحياة وهيومن رايتس ووتش ومنظمة أوقفوا الروبوتات القاتلة دورًا فعالًا في الضغط من أجل التغيير. لكنهم يواجهون تحديات متزايدة حيث يسعى الرؤساء التنفيذيون للتكنولوجيا في وادي السيليكون وأصحاب رؤوس الأموال الاستثمارية إلى تطوير أسرع للذكاء الاصطناعي مع لوائح أقل. وهذا أمر مثير للقلق، لأن هذه الشخصيات القوية سيكون لها الآن تأثير أكبر على سياسة الذكاء الاصطناعي في ظل إدارة ترامب الجديدة.
ما هو الدور الذي يجب أن تلعبه شركات الذكاء الاصطناعي في ضمان الامتثال لمبادئ حقوق الإنسان؟
الشركات لديها دور حاسم تلعبه. في السنوات الأخيرة، أصدرت العديد من الشركات الرائدة، مثل Amazon وGoogle وMicrosoft وOpenAI، بيانات عامة حول التزامها بحقوق الإنسان. على سبيل المثال، دعت شركة OpenAI إلى إنشاء هيئة رقابية مماثلة للوكالة الدولية للطاقة الذرية، وتعهد مؤسسوها بعدم السماح باستخدام التكنولوجيا الخاصة بهم لأغراض عسكرية. لدى أمازون وجوجل ومايكروسوفت أيضًا سياسات الاستخدام العادل، والتي يزعمون أنها تضمن استخدام تقنياتهم وفقًا لمبادئ حقوق الإنسان.
ولكن في الممارسة العملية، غالبا ما تكون هذه السياسات قاصرة، وخاصة عندما يتعلق الأمر بالتطبيقات العسكرية. وعلى الرغم من ادعاءاتها، فقد باعت العديد من هذه الشركات تقنياتها للقوات العسكرية، وغالبًا ما يكون مدى مشاركتها في تطوير الذكاء الاصطناعي العسكري غير واضح. قبل بضعة أسابيع فقط، ذكرت صحيفة The Intercept أن القيادة العسكرية الأمريكية في أفريقيا اشترت برنامج OpenAI من خلال شركة Microsoft. ونعلم أيضًا أن الجيش الإسرائيلي استخدم خدمات جوجل السحابية لاستهداف القنابل في غزة وخدمات الويب أمازون لتخزين بيانات المراقبة السرية للمدنيين في الأراضي الفلسطينية.
وقد أثار هذا احتجاجات داخل الشركات المعنية، حيث نظم العمال إضرابات مطالبين بمزيد من الشفافية والمساءلة. ورغم أهمية هذه الاحتجاجات، فإن شركات الذكاء الاصطناعي لا يمكنها في نهاية المطاف أن تفعل الكثير لضمان استخدام تقنياتها بشكل أخلاقي. نحن بحاجة إلى قوانين دولية أقوى وأكثر شمولاً بشأن الاستخدام العسكري للذكاء الاصطناعي، ويجب على الحكومات أن تتحمل المسؤولية عن ضمان إنفاذ هذه القوانين على المستوى الوطني.
وفي الوقت نفسه، ابتعد العديد من الرؤساء التنفيذيين في مجال التكنولوجيا، مثل إيلون ماسك، عن التزامهم السابق بحقوق الإنسان وأصبحوا أكثر انسجاما مع القادة السياسيين اليمينيين مثل ترامب. ويزعم بعض الرؤساء التنفيذيين، مثل بيتر ثيل من شركة باي بال وأليكس كارب من شركة بالانتير تكنولوجيز، أن الشركات الخاصة تحتاج إلى العمل بشكل وثيق مع المؤسسة العسكرية للحفاظ على التفوق التكنولوجي للولايات المتحدة. وقد أدى ذلك إلى خلق توترات بين المدافعين عن حقوق الإنسان وعمالقة التكنولوجيا، مما سلط الضوء على الحاجة إلى أطر تنظيمية أقوى لمحاسبة هذه الشركات ومنع استخدام الذكاء الاصطناعي بطرق تقوض حقوق الإنسان.
تواصل معنا
موقع إلكتروني
ينكدين
تغريد
انظر أيضا
تحتل حقوق الإنسان مرتبة متأخرة في لائحة منظمة العفو الدولية CIVICUS Lens بتاريخ 16 يناير 2024
الذكاء الاصطناعي: “أكبر التحديات هي التحيزات وانعدام الشفافية في الخوارزميات” مقابلة مع فريق OpenStreetMap الإنساني في 24 أغسطس 2023
تنظيم الذكاء الاصطناعي: “يجب أن يكون هناك توازن بين تشجيع الابتكار وحماية الحقوق” مقابلة مع نادية بن عيسى 25 يوليو 2023
© إنتر برس سيرفيس (2024) — جميع الحقوق محفوظةالمصدر الأصلي: خدمة إنتر برس