الجانب المظلم للذكاء الاصطناعي: كيف يستخدم الاحتيال الصوتي التكنولوجيا للإيقاع بالضحايا
تسببت التطورات في مجال الذكاء الاصطناعي في بروز شكلٍ جديد من أشكال النصب والاحتيال، إذ يلجأ المجرمون -وفقًا لتقريرٍ نشرته صحيفة الواشنطن بوست- إلى خدمات تقليد الأصوات المعتمدة على الذكاء الاصطناعي لتضليل الأشخاص عبر تقليد أصوات أحبائهم وإرسالها في رسائل صوتية يشتكي صاحبها الوقوع في أزمة والحاجة المستعجلة إلى المال.
وقد ازداد انتشار عدد عمليات الاحتيال القائمة على انتحال الشخصية بشكلٍ كبير في الولايات المتحدة في عام 2022، وفقًا لبيانات اللجنة التجارية الفيدرالية، إذ تلقت اللجنة أكثر من 36,000 تقريرًا عن عمليات انتحال، منها أكثر من 5000 عملية احتيال عبر الهاتف تسببت بخسائر تُقدر بأكثر من 11 مليون دولار.
وتحدثت الصحيفة عن إحدى الضحايا التي وصلها اتصال من رجل يبدو أنه حفيدها، مدعيًا أنه في السجن ولا يملك محفظته أو هاتفه المحمول، ويحتاج نقودًا لدفع كفالة الإفراج عنه. وقامت الضحية وزوجها بسحب 3,000 دولارًا وكانوا في طريقهم لسحب المزيد من المال، عندما تواصل معهم مدير المصرف وأبلغهم أن زبونًا آخر تلقى مكالمةً مماثلة، ليكتشفوا أن الصوت المشابه لحفيدهم هو صوتٌ مزوّر. وأدركوا حينها أنهم سقطوا ضحايا الاحتيال.
ويُعد الاحتيال بتقنية الذكاء الاصطناعي هذه أكثر إقناعًا وفعالية بالنسبة للمجرمين، إذ يمكن لمن يمتلك عينةً صوتية لشخصٍ ما، استخدام أدوات تحويل النص إلى صوت لكتابة رسائل استغاثة مزيفة ثم إدخالها في برامج توليد الصوت بواسطة الذكاء الاصطناعي كي تظهر بأصواتٍ تُشبه أصوات معارف الضحايا. ويمكن لهذه الأدوات تحليل العينات الصوتية القصيرة، التي يمكن أن تأتي من مصادر مثل يوتيوب أو إنستاجرام أو فيسبوك. ويمكن لهذه الأدوات إعادة إنشاء الصوت بناءً على العوامل الفريدة لكل شخص، مثل العمر والجنس واللهجة والنغمة الصوتية، لتوليد صوت يشبه الأصل.