حماية الانتخابات من تلوث معلومات الذكاء الاصطناعي – القضايا العالمية


دون الحكم المناسبين والمدخلات من العديد من أصحاب المصلحة ، فإن الذكاء الاصطناعي يطرح مخاطر على حرية التعبير والانتخابات. الائتمان: Unsplash/Element5 Digital
  • بقلم نورين حسين (الأمم المتحدة)
  • خدمة Inter Press

الأمم المتحدة ، 07 مايو (IPS) – يؤدي انتشار الذكاء الاصطناعي (AI) إلى تغيير تدفق المعلومات والوصول إليها ، والتي لها تأثير أوسع على كيفية تأثر حرية التعبير. يمكن للانتخابات الوطنية والمحلية أن تُظهر نقاط القوة ونقاط الضعف التي يمكن استغلالها حيث يتم استخدام الذكاء الاصطناعى للتأثير على الناخبين والحملات السياسية. نظرًا لأن الناس ينتقدون بشكل أكبر للمؤسسات والمعلومات التي يتلقونها ، يجب على الحكومات وشركات التكنولوجيا ممارسة مسؤوليتهم في حماية حرية التعبير أثناء الانتخابات.

ركز يوم حرية الصحافة العالمي لهذا العام (3 مايو) على تأثير الذكاء الاصطناعي على حرية الصحافة ، والتدفق الحر للمعلومات ، وكيفية ضمان الوصول إلى المعلومات والحريات الأساسية. تجلب الذكاء الاصطناعي خطر نشر المعلومات الخاطئة أو التضليل ونشر خطاب الكراهية عبر الإنترنت. في الانتخابات ، يمكن أن ينتهك حرية التعبير وحقوق الخصوصية.

في حدث مواز استضافه مؤتمر العالم للحرية العالمية لعام 2025. تزامن هذا الحدث أيضًا مع إطلاق موجز جديد من القضية الجديدة من المنظمة التعليمية والعلمية والثقافية للأمم المتحدة (UNESCO) وبرنامج الأمم المتحدة للتنمية (UNDP) يوضح التأثير المتزايد للمخاطر المحتملة – وفرص التعبير أثناء الانتخابات.

يمكن أن يكون لخوارزميات التوصية التي تحدد ما يراه المستخدم ويتفاعل معه عندما يتعلق الأمر بالمعلومات آثار أوسع على المعلومات التي يمكن لهذا المستخدم الوصول إليها أثناء دورة الانتخابات ، وفقًا لما ذكرته Pedro Conceição ، مدير مكتب تقرير التنمية البشرية.

وقال كونسييو: “أعتقد أننا بحاجة إلى التواضع للاعتراف بأنهم معقدين للغاية ولديهم هذا العنصر من الجدة الذي يتطلب منا الجمع بين وجهات نظر من جميع أصحاب المصلحة”.

حرية التعبير ضرورية لإجراء الانتخابات في بيئة وشفافة موثوقة. إن تعزيز هذه الحرية والوصول إلى المعلومات يسمح للمشاركة العامة والخطاب. الدول ملزمة بموجب القانون الدولي باحترام وحماية حرية التعبير. خلال الانتخابات ، يمكن أن تصبح هذه المسؤولية صعبة. كيف يتم التعامل مع هذه المسؤولية عبر سلطات الدولة تختلف بين البلدان. سمحت الاستثمارات المتزايدة في الذكاء الاصطناعي للجهات الفاعلة في العملية الانتخابية للاستفادة من هذه التكنولوجيا.

هيئات الإدارة الانتخابية هي المسؤولة عن إبلاغ المواطنين حول كيفية المشاركة في الانتخابات. قد يعتمدون على منظمة العفو الدولية لنشر المعلومات بسهولة أكبر من خلال منصات التواصل الاجتماعي. يمكن أن تساعد الذكاء الاصطناعي أيضًا في تنفيذ استراتيجيات المعلومات الاستراتيجية وجهود الوعي العام ، وكذلك التحليل والبحث عبر الإنترنت.

توظف وسائل التواصل الاجتماعي والمنصات الرقمية الأخرى بشكل واضح من الذكاء الاصطناعي ، حيث تقوم الشركات الأم بتجربة كيفية دمجها في خدماتها. كما أنهم يستخدمونها في اعتدال المحتوى. ومع ذلك ، كان هناك تركيز على زيادة مشاركة النظام الأساسي والاحتفاظ به ، في خطر المساومة على سلامة المعلومات. يستخدم الشباب على وجه الخصوص وسائل التواصل الاجتماعي بشكل متزايد كمصدر رئيسي للمعلومات ، وفقًا لـ Cooper Gatewood ، مدير الأبحاث البارز الذي يركز على معلومات MIS/التضليل في BBC Media Action.

وقال جيتوود: “الجمهور يدرك وفهم كمية المعلومات الخاطئة التي تدور في الوقت الحالي”. وناقش نتائج الدراسات الاستقصائية التي أجريت في إندونيسيا وتونس وليبيا ، حيث أبلغ 83 و 39 و 35 في المائة من المجيبين ، عن مخاوف من مواجهة المعلومات الخاطئة أو التضليل بشكل منتظم. على العكس ، كان هناك “اتجاه مواز” ناشئ في تقارير من تونس ونيبال بأن العديد من المستخدمين اتفقوا على أنه من المهم أن يتم نشر المعلومات بسرعة من أن يتم التحقق من الحقائق.

“لذلك يوضح هذا بوضوح أن المعلومات المضللة التي تم إنشاؤها من الذكاء الاصطناعى ، وخاصة في المواقف مثل الانتخابات ، والسياقات الإنسانية ، أو حالات الأزمات … حيث يمكن أن تكون المعلومات متقطعة ، أو يصعب الوصول إليها ، أو التحرك بسرعة كبيرة … معلومات خاطئة يتم مشاركتها بسرعة من قبل الجماهير يمكن أن يكون لها تأثير بسرعة كبيرة ويمكن أن تنتج ضررًا”.

في سياق حرية التعبير والانتخابات ، يطرح الذكاء الاصطناعى العديد من المخاطر على سلامتها. من ناحية ، تختلف القدرات التكنولوجية عبر السلسلة بين البلدان. من غير المرجح أن يكون لدى البلدان النامية التي لديها بنية تحتية تقنية أصغر من الأدوات للاستفادة من الذكاء الاصطناعي أو للتعامل مع المشكلات التي تظهر. ستؤثر الأطر على إدارة المساحات الرقمية و AI على وجه الخصوص على مدى فعالية البلدان التي يمكن أن تنظمها.

توفر الأطر المبينة في وثائق مثل إرشادات اليونسكو لإدارة المنصات الرقمية (2023) وتوصياتها بشأن أخلاقيات الذكاء الاصطناعي (2021) لأصحاب المصلحة نظرة ثاقبة على مسؤولياتهم في حماية حرية التعبير والمعلومات في عملية الحكم. كما أنها توفر توصيات سياسية حول حوكمة البيانات والنظم الإيكولوجية والبيئة ، من بين مجالات أخرى ، بناءً على الحاجة الأساسية لحماية حقوق الإنسان والكرامة.

كما لاحظت Albertina Piterbarg ، مسؤولة المشروع الانتخابية لليونسكو في قسم حرية التعبير وسلامة الصحفيين ، في اللجنة ، وجدت المنظمة في وقت مبكر أنها “معقدة بشكل متزايد” لمعالجة المعلومات الرقمية بطريقة “بالأبيض والأسود” فقط. ما أدركوه هو أنه كان من المهم “إنشاء نهج متعددي للمصلحة” في التعامل مع التكنولوجيا الرقمية و AI. وهذا يعني العمل مع العديد من أصحاب المصلحة ، مثل الحكومات وشركات التكنولوجيا والمستثمرين من القطاع الخاص والأوساط الأكاديمية ووسائل الإعلام والمجتمع المدني ، لبناء “فهم مشترك” لآثار الذكاء الاصطناعي من خلال بناء القدرات ، على سبيل المثال.

وقال بيتربارج: “نحن بحاجة إلى معالجة هذا الأمر في نهج قائم على حقوق الإنسان. نحتاج إلى معالجة هذا بطريقة مساواة. وفي كل انتخابات ، كل ديمقراطية مهمة. لا يهم التأثير التجاري أو غيرها من المصالح الخاصة”.

تحدثت باميلا فيغروا ، رئيسة مجلس إدارة الخدمة الانتخابية في تشيلي ، في لجنة تجارب بلادها مع الذكاء الاصطناعي خلال العملية الانتخابية ، لا سيما خطر “تلوث المعلومات”. وحذرت من أن طوفان المعلومات بفضل الذكاء الاصطناعي يمكن أن “يولد عدم التناسق في المشاركة السياسية” ، والذي يمكن أن يؤثر بدوره على مستوى الثقة في المؤسسات والعملية الانتخابية بأكملها.

أصبحت المعلومات تعقيدًا بشكل متزايد في العصر الرقمي ، وقد أضافت الذكاء الاصطناعى فقط إلى هذا التعقيد. في حين أن الناس يدركون بشكل متزايد وجود الذكاء الاصطناعي. يتم استخدام المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعى ، وهو “Deepfakes” ، لتقويض العملية السياسية وتشويه سمعة المرشحين السياسيين ، والتكنولوجيا لإنشاء Deepfakes للأسف يمكن الوصول إليها بسهولة للجمهور.

لقد ثبت أن نماذج الذكاء الاصطناعى ليست محصنة من التحيزات البشرية والتمييز ، ويمكن أن ينعكس ذلك في مخرجاتها. كما تم استخدام الذكاء الاصطناعى في نشر التمييز بين الجنسين من خلال المضايقات والتنفيذ السيبي. من المرجح أن تكون السياسيات للسياسيات ضحايا من Deepfakes التي تصورها في سياقات جنسية. عند استخدامها في وسائل التواصل الاجتماعي ، يمكن للتمييز بين الجنسين والتحرش أن يثبط النساء عن المشاركة السياسية والنقاش العام خلال الانتخابات.

مع ذلك ، يقدم الذكاء الاصطناعي أيضًا فرصًا لحرية التعبير. يشير الموجز إلى أن هناك حاجة إلى نهج أصحاب المصلحة المتعدد لتلبية الاحتياجات المحددة لسلامة المعلومات في مواجهة الذكاء الاصطناعي. ضمان الثقة في العملية الانتخابية أكثر أهمية من أي وقت مضى. يمكن لمؤلفي الدولة تحقيق ذلك من خلال حملات الاتصالات الاستراتيجية الفعالة والموثوقة ، بدعم من أصحاب المصلحة الآخرين مثل وسائل الإعلام والمجتمع المدني وشركات التكنولوجيا. يجب أن يتم زراعة محو الأمية في وسائل الإعلام والمعلومات للتنقل في مساحات المعلومات المعقدة ، مع استثمارات في كل من التدخلات طويلة الأجل والقصيرة الأجل التي تستهدف الشباب والبالغين.

تتحمل المنصات الرقمية أيضًا مسؤولية تنفيذ ضمانات على الذكاء الاصطناعي وضمان الحماية في السياقات الخاصة بالانتخابات. يحدد الموجز بعض التدابير التي يمكن اتخاذها ، بما في ذلك الاستثمار في اعتدال المحتوى الكافي لتلبية احتياجات الانتخابات ؛ إعطاء الأولوية لصالح الفائدة العامة في كيفية توصية الخوارزميات بالمعلومات الانتخابية ؛ إجراء تقييمات المخاطر ونشرها ؛ تعزيز المعلومات الانتخابية عالية الجودة والدقيقة ؛ واستشارة المجتمع المدني والهيئات الإدارية الانتخابية.

ما يوضحه هذا هو أن الديناميات بين الذكاء الاصطناعي وحرية التعبير والانتخابات تتطلب مقاربات أصحاب المصلحة المتعددة. ستكون الفهم المشترك والأساليب المنظمة أمرًا بالغ الأهمية في إجراء الانتخابات في بيئة سريعة الحركة ، ويمكن أن توفر الرؤى المستمدة من هذا السياق المحدد استراتيجيات لكيفية تنمية إمكانات الذكاء الاصطناعي للبشرية. يجب أن يؤخذ هذا في الاعتبار عندما نعتبر أن تقنية الذكاء الاصطناعي الحديثة قد أصبحت أكثر سهولة وسائدة في العامين الماضيين ، وقد أدت بالفعل إلى تحويلات عبر قطاعات متعددة.

وقال أجاي باتيل ، خبير التكنولوجيا والانتخابات ، برنامج الأمم المتحدة الإنمائي ومؤلف القضية الموجز: “لقد أخذنا أدوات الذكاء الاصطناعى هذه وهم في هاتف الجميع ، و … إلى حد ما مجاني”. “إذن ، أين سيقود ذلك؟ ماذا يحدث؟ ما نوع الابتكار الذي سيتم إطلاقه؟ من أجل الخير؟ في بعض الأحيان من أجل المرض ، عندما يكون لدى الجميع هذا النوع من التكنولوجيا القوية المسطحة؟”

تقرير مكتب IPS UN


اتبع مكتب IPS News Un on Instagram

© Inter Press Service (2025) – جميع الحقوق محفوظة. المصدر الأصلي: Inter Press Service



مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى