د.نادي شلقامي
دعا خبراء مخضرمون في مجال التكنولوجيا وسياسيون وحائزون على جائزة نوبل، أمس الاثنين، دول العالم إلى الإسراع في وضع “خطوط حمراء” يحظر على الذكاء الاصطناعي تجاوزها، لما يشكّله من مخاطر بالغة.
وجاءت هذه الدعوة في رسالة موقَّعة من أكثر من 200 شخصية بارزة، بينها عشرة من الحائزين على نوبل، إلى جانب علماء يعملون في كبريات شركات الذكاء الاصطناعي، مثل “أنثروبيك” (Anthropic)، و”غوغل ديب مايند” (Google DeepMind)، و”مايكروسوفت” (Microsoft)، و”أوبن إيه آي” (OpenAI). وقد نُشرت الرسالة مع افتتاح الدورة الجديدة للجمعية العامة للأمم المتحدة.
وجاء في الرسالة: “يحمل الذكاء الاصطناعي إمكانات هائلة لتعزيز رفاه البشرية، لكن مساره الحالي ينطوي على أخطار غير مسبوقة. على الحكومات أن تتحرّك بحزم قبل أن يُغلق باب التدخّل الفعّال”. وأوضح معدّوها أنّ “الخطوط الحمراء” تعني حظراً دولياً متفقاً عليه على استخدامات تُعتبر محفوفة بالمخاطر في جميع الظروف.
ومن الأمثلة التي سُردت: تسليم أنظمة الذكاء الاصطناعي السيطرة على الترسانات النووية أو أي أنظمة أسلحة فتاكة ذاتية التشغيل. كما شملت الأمثلة الأخرى: استخدام الذكاء الاصطناعي في المراقبة الجماعية، أو أنظمة “التنقيط الاجتماعي”، أو الهجمات الإلكترونية، أو انتحال هويات الأشخاص.
وحثّ الموقعون الحكومات على اعتماد هذه الخطوط الحمراء بحلول نهاية العام المقبل، نظراً للسرعة الكبيرة التي تتطور بها التقنية.
وجاء في الرسالة أيضاً: “قد يتجاوز الذكاء الاصطناعي قريباً قدرات البشر بمراحل، ما يضاعف مخاطر مثل الأوبئة المُصنَّعة، وانتشار التضليل، والتلاعب واسع النطاق بالأفراد، بما في ذلك الأطفال، إضافة إلى تهديدات للأمن القومي والدولي، وبطالة جماعية، وانتهاكات ممنهجة لحقوق الإنسان”، وختمت بالتحذير من أنه في حال “تُرك الأمر بلا ضوابط، فإن كثيراً من الخبراء، بمن فيهم أولئك الذين يقودون تطوير هذه التقنيات، يحذّرون من أنّه سيصبح من الصعب بشكل متزايد الحفاظ على سيطرة بشرية ذات مغزى في السنوات المقبلة”