هل سيحل الذكاء الاصطناعي محل البشر؟ يوشوا بنجيو يحذر من مخاطر الذكاء الاصطناعي
البروفيسور يوشوا بنجيو، في قمة One Young World في مونتريال، كندا، يوم الجمعة 20 سبتمبر 2024
حذر عالم الكمبيوتر الشهير يوشوا بينجيو ــ أحد رواد الذكاء الاصطناعي ــ من الآثار السلبية المحتملة للتكنولوجيا الناشئة على المجتمع ودعا إلى إجراء المزيد من الأبحاث للتخفيف من مخاطرها.
فاز بينجيو، الأستاذ في جامعة مونتريال ورئيس معهد مونتريال لخوارزميات التعلم، بالعديد من الجوائز لعمله في مجال التعلم العميق، وهو مجموعة فرعية من الذكاء الاصطناعي تحاول محاكاة النشاط في الدماغ البشري لتعلم كيفية التعرف على الأشياء المعقدة. الأنماط في البيانات
لكنه أعرب عن مخاوفه بشأن التكنولوجيا وحذر من أن بعض الأشخاص الذين يتمتعون “بقدر كبير من القوة” قد يرغبون في ذلك رؤية الإنسانية تحل محلها الآلات.
وقال بينجيو لمراسلة تانيا براير من CNBC في قمة One Young World في مونتريال: “من المهم حقًا أن نعرض أنفسنا للمستقبل حيث لدينا آلات ذكية مثلنا في العديد من النواحي، وماذا يعني ذلك بالنسبة للمجتمع”.
وقال إن الآلات يمكن أن تمتلك قريبًا معظم القدرات المعرفية للبشر، فالذكاء العام الاصطناعي (AGI) هو نوع من تكنولوجيا الذكاء الاصطناعي يهدف إلى مساواة الذكاء البشري أو أفضل منه.
“الذكاء يعطي القوة. فمن الذي سيتحكم في تلك القوة؟” قال. “إن وجود أنظمة تعرف أكثر من معظم الناس يمكن أن يكون خطيرًا في الأيدي الخطأ ويخلق المزيد من عدم الاستقرار على المستوى الجيوسياسي، على سبيل المثال، أو الإرهاب”.
سيكون عدد محدود من المنظمات والحكومات قادرًا على بناء آلات قوية للذكاء الاصطناعي، وفقًا لبنجيو، وكلما كانت الأنظمة أكبر، أصبحت أكثر ذكاءً.
“هذه الآلات، كما تعلمون، تكلف المليارات من أجل بنائها وتدريبها [and] لن يتمكن سوى عدد قليل جدًا من المنظمات وعدد قليل جدًا من البلدان من القيام بذلك. وقال “هذا هو الحال بالفعل”.
“سيكون هناك تركيز للقوة: القوة الاقتصادية، التي قد تضر بالأسواق؛ والقوة السياسية، التي قد تضر بالديمقراطية؛ والقوة العسكرية، التي قد تضر بالاستقرار الجيوسياسي لكوكبنا. لذا، فإن الكثير من أسئلة مفتوحة نحتاج إلى دراستها بعناية والبدء في التخفيف بأسرع ما يمكن.”
ليس لدينا طرق للتأكد من أن هذه الأنظمة لن تؤذي الناس أو لن تنقلب ضدهم… لا نعرف كيف نفعل ذلك.
يوشوا بنجيو
رئيس معهد مونتريال لخوارزميات التعلم
وقال إن مثل هذه النتائج ممكنة في غضون عقود. “لكن إذا استغرق الأمر خمس سنوات، فلسنا مستعدين… لأنه ليس لدينا طرق للتأكد من أن هذه الأنظمة لن تؤذي الناس أو لن تنقلب ضد الناس… لا نعرف كيف نفعل ذلك” وأضاف.
وقال بنجيو إن هناك حجج تشير إلى أن الطريقة التي يتم بها تدريب آلات الذكاء الاصطناعي حاليًا “ستؤدي إلى أنظمة تنقلب ضد البشر”.
“بالإضافة إلى ذلك، هناك أشخاص قد يرغبون في إساءة استخدام هذه السلطة، وهناك أشخاص قد يكونون سعداء برؤية الإنسانية تحل محلها الآلات. أعني، إنها هامشية، لكن هؤلاء الأشخاص يمكن أن يتمتعوا بالكثير من القوة، ويمكنهم ذلك وقال “لا نفعل ذلك إلا إذا وضعنا الحواجز الصحيحة الآن”.
توجيه وتنظيم الذكاء الاصطناعي
أيد بينجيو رسالة مفتوحة في يونيو/حزيران بعنوان: “الحق في التحذير من الذكاء الاصطناعي المتقدم”. تم التوقيع عليه من قبل الموظفين الحاليين والسابقين في Open AI – الشركة التي تقف وراء برنامج الدردشة الآلي الفيروسي ChatGPT.
وحذرت الرسالة من “مخاطر جسيمة” لتقدم الذكاء الاصطناعي ودعت إلى توجيه العلماء وصانعي السياسات والجمهور للتخفيف من هذه المخاطر. لقد تعرضت OpenAI لمخاوف متزايدة تتعلق بالسلامة خلال الأشهر القليلة الماضية، مع حل فريق “استعداد AGI” الخاص بها في أكتوبر.
“أول شيء يتعين على الحكومات القيام به هو أن يكون لديها تنظيم يفرض ذلك [companies] وقال بنجيو لشبكة CNBC: “للتسجيل عندما يقومون ببناء هذه الأنظمة الحدودية التي تشبه الأنظمة الأكبر، والتي تكلف تدريبها مئات الملايين من الدولارات. يجب على الحكومات أن تعرف مكان وجودها، كما تعلمون، تفاصيل هذه الأنظمة”.
وقال بنجيو إنه نظرا لتطور الذكاء الاصطناعي بسرعة كبيرة، يجب على الحكومات أن “تكون مبدعة بعض الشيء” وأن تضع تشريعات يمكنها التكيف مع التغيرات التكنولوجية.
ولم يفت الأوان بعد لتوجيه تطور المجتمعات والإنسانية في اتجاه إيجابي ومفيد.
يوشوا بنجيو
رئيس معهد مونتريال لخوارزميات التعلم
ويجب أن تكون الشركات التي تعمل على تطوير الذكاء الاصطناعي مسؤولة أيضًا عن أفعالها، وفقًا لعالم الكمبيوتر.
“المسؤولية هي أيضًا أداة أخرى يمكنها القوة [companies] التصرف بشكل جيد، لأنه… إذا كان الأمر يتعلق بأموالهم، فإن الخوف من التعرض للمقاضاة – سيدفعهم ذلك نحو القيام بأشياء تحمي الجمهور. وأضاف: “إذا علموا أنه لا يمكن مقاضاتهم، لأن الوضع الآن يشبه المنطقة الرمادية، فلن يتصرفوا بالضرورة بشكل جيد”.[Companies] يتنافسون مع بعضهم البعض، وكما تعلمون، يعتقدون أن أول من يصل إلى الذكاء الاصطناعي العام (AGI) هو الذي سيهيمن. لذا، فهو سباق، وهو سباق محفوف بالمخاطر”.
وقال بنجيو إن عملية التشريع لجعل الذكاء الاصطناعي آمنًا ستكون مماثلة للطرق التي تم بها تطوير القواعد للتكنولوجيات الأخرى، مثل الطائرات أو السيارات. “من أجل الاستمتاع بفوائد الذكاء الاصطناعي، علينا أن ننظم الأمور. علينا أن نضعها [in] الدرابزين. يجب أن يكون لدينا رقابة ديمقراطية على كيفية تطوير التكنولوجيا”.
معلومات مضللة
يعد انتشار المعلومات المضللة، خاصة فيما يتعلق بالانتخابات، مصدر قلق متزايد مع تطور الذكاء الاصطناعي. وفي أكتوبر/تشرين الأول، قالت شركة OpenAI إنها عطلت “أكثر من 20 عملية وشبكة خادعة من جميع أنحاء العالم حاولت استخدام نماذجنا”. ويشمل ذلك المنشورات الاجتماعية من خلال حسابات مزيفة تم إنشاؤها قبل الانتخابات في الولايات المتحدة ورواندا.
وقال بنجيو: “إن أحد أكبر المخاوف على المدى القصير، ولكنه سينمو مع تقدمنا نحو أنظمة أكثر قدرة، هو التضليل والمعلومات الخاطئة، وقدرة الذكاء الاصطناعي على التأثير على السياسة والآراء”. وقال: “بينما نمضي قدما، سيكون لدينا آلات يمكنها توليد صور أكثر واقعية، وتقليد أصوات أكثر واقعية، ومقاطع فيديو أكثر واقعية”.
وقال بنجيو إن هذا التأثير قد يمتد إلى التفاعلات مع روبوتات الدردشة، في إشارة إلى دراسة أجراها باحثون إيطاليون وسويسريون تظهر أن نموذج اللغة الكبير GPT-4 الخاص بـ OpenAI يمكن أن يقنع الناس بتغيير آرائهم بشكل أفضل من الإنسان. وقال “كانت هذه مجرد دراسة علمية، لكن يمكنك أن تتخيل أن هناك أشخاصا يقرؤون هذا ويريدون القيام بذلك للتدخل في عملياتنا الديمقراطية”.
“السؤال الأصعب على الإطلاق”
وقال بينجيو إن “السؤال الأصعب على الإطلاق” هو: “إذا أنشأنا كيانات أكثر ذكاءً منا ولها أهدافها الخاصة، فماذا يعني ذلك بالنسبة للبشرية؟ هل نحن في خطر؟”
وقال بنجيو: “هذه كلها أسئلة صعبة ومهمة للغاية، وليس لدينا كل الإجابات. نحن بحاجة إلى الكثير من البحث والاحتياطات للتخفيف من المخاطر المحتملة”.
وحث الناس على التحرك. وقال “لدينا القدرة. ولم يفت الأوان بعد لتوجيه تطور المجتمعات والإنسانية في اتجاه إيجابي ومفيد”. “ولكن لتحقيق ذلك، نحتاج إلى عدد كافٍ من الأشخاص الذين يفهمون المزايا والمخاطر على حدٍ سواء، ونحتاج إلى عدد كافٍ من الأشخاص للعمل على الحلول. ويمكن أن تكون الحلول تكنولوجية، ويمكن أن تكون سياسية… سياسية، لكننا بحاجة إلى جهد كافٍ. قال بنجيو: “في هذه الاتجاهات الآن”.
– ساهم هايدن فيلد وسام شيد من سي إن بي سي في إعداد هذا التقرير.
اكتشاف المزيد من نهج
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.