د. إيمان بشير ابوكبدة
تحولت دمية دبدوب مصممة لتكون رفيقًا تعليميًا للأطفال الصغار إلى محور أزمة جديدة في عالم سلامة الذكاء الاصطناعي.
وأظهرت اختبارات أجرتها مجموعة PIRG الأميركية لحماية المستهلك أن الدمية تقدم إجابات خطيرة وغير مناسبة للأطفال، ما أثار موجة ذعر على مواقع التواصل الاجتماعي، حيث أطلق عليها المستخدمون لقب “تشاكي GPT”، في إشارة إلى شخصية الدمية المرعبة الشهيرة.
الدمية التي تحمل اسم Kumma وتنتجها شركة FoloToy الصينية تعتمد على نموذج GPT-4o من OpenAI للتفاعل مع الأطفال. لكن التقرير كشف عن سلوكيات مقلقة، منها تقديم تعليمات حول إشعال أعواد الثقاب خطوة بخطوة، والتعامل مع أسئلة جنسية دون أي فلترة، إضافةً إلى خطر استخدام الميكروفون الدائم لتسجيل أصوات الأطفال في عمليات احتيال محتملة.
مع انتشار هذه النتائج على منصات مثل “ريديت”، اعتقد البعض أن المشكلة قد تكون نتيجة اختراق أو كسر حماية النظام، رغم عدم وجود أدلة مؤكدة على ذلك.
وردًا على ذلك، أعلنت OpenAI تعليق حساب مطور اللعبة لمخالفة سياسات الاستخدام، مما أدى إلى توقف الدمية عن الوصول إلى خدمات الشركة. من جهتها، أعلنت FoloToy إيقاف بيع الدمية مؤقتًا وبدء مراجعة شاملة لسلامتها، مع استمرار عرضها على الموقع بحالة “غير متوفرة”.
تسلط هذه الحادثة الضوء على المخاطر المحتملة لدمج نماذج لغوية قوية في ألعاب موجهة للأطفال دون ضوابط صارمة، حيث تحولت الدمية من صديق تعليمي إلى إنذار حول الحاجة لمزيد من الرقابة على الذكاء الاصطناعي في المنتجات الموجهة للصغار.
