د. إيمان بشير ابوكبدة
أصدر مكتب التحقيقات الفيدرالي (FBI) تحذيراً عاجلاً بشأن نوع جديد من الاحتيال يعتمد على الذكاء الاصطناعي لتعديل الصور واستخدامها في عمليات ابتزاز مالي. حيث يقوم المجرمون بجمع صور من وسائل التواصل الاجتماعي، ثم يعدّلونها باستخدام تقنيات الذكاء الاصطناعي لتبدو وكأن أحد أفراد العائلة مخطوف أو محتجز، قبل إرسالها لأسر الضحية وطلب فدية.
ورغم أن هذه الصور قد تبدو واقعية عند النظرة الأولى، إلا أنها غالباً ما تحتوي على تفاصيل غير منطقية يمكن أن تكشف التلاعب، مثل اختلاف الوشم، أو ملامح الوجه، أو وضعية الجسد.
ويقدم الـFBI مجموعة من الإرشادات لحماية العائلات من الوقوع في هذا الفخ، أبرزها:
الاتصال الفوري بالشخص المزعوم خطفه قبل اتخاذ أي قرار بالدفع.
فحص الصور بدقة بحثاً عن أي تفاصيل غير طبيعية.
الاتفاق على “كلمة سر” عائلية تُستخدم في المواقف الطارئة لكشف عمليات استنساخ الصوت بالذكاء الاصطناعي، حيث يُطلب من المتصل قول كلمة السر حتى لو كان صوته مطابقاً لصوت قريبك.
تجنب نشر خطط السفر والمواقع بشكل علني لتقليل فرص استهداف العائلات.
هذه التحذيرات تأتي في وقت تتصاعد فيه الهجمات الاحتيالية المبنية على الذكاء الاصطناعي، مما يجعل الوعي الرقمي ضرورة أكثر من أي وقت مضى.
