حين يكون الذكاء الاصطناعي في خدمة التزييف العميق

نشر بتاريخ 11/10/2023
الخبر .ما


تعد تقنية Deepfake الصوتية، التي تولد نسخًا صوتية أو صوتية مقلدة لأشخاص حقيقيين، مصدر قلق متزايد في مجال الأمن السيبراني. وفي حين لا توجد بيانات إحصائية واضحة عن مدى انتشارها، فقد لاحظ الخبراء زيادة في حوادثها وارتفاعًا في احترافية محاولات الاحتيال الصوتي.

أدى استخدام الذكاء الاصطناعي (AI) في تكنولوجيا التزييف العميق إلى زيادة عمليات الاحتيال الصوتي. تتعرض بيانات العملاء، مثل التفاصيل المصرفية، باستمرار لخطر السرقة من قبل المتسللين وهي متاحة على نطاق واسع في السوق السوداء. إن وفرة التسجيلات الصوتية الرقمية، وخاصة للعملاء الأثرياء الذين غالبًا ما يتم نشر ظهورهم وخطبهم عبر الإنترنت، قد سهلت على المحتالين استخدامها في عملياتهم. يمكن أن تكون تطبيقات الوسائط الاجتماعية مثل TikTok وInstagram أيضًا مصادر للمقاطع الصوتية للمحتالين.

يترك الكلام الاصطناعي وراءه آثارًا يمكن اكتشافها والتحكم فيها باستخدام الخوارزميات المصممة لكشف الاحتيال ومنعه. ومع ذلك، حقق المهاجمون تقدمًا كبيرًا في قدرتهم على استخدام برامج استنساخ الصوت والحصول على ترجمات صوتية مستهدفة.

ويذكر أن أكثر من 300 مليون فرد قد وقعت بياناتهم الشخصية في أيدي مجرمي الإنترنت، مما أدى إلى خسائر مالية كبيرة. مما يوجب ضرورة أن يكون الأفراد والمؤسسات يقظين واستباقيين في حماية المعلومات الشخصية. وعلى أهمية فهم هذه التهديدات ومعالجتها لمنع المزيد من الخسائر المالية وحماية الخصوصية الشخصية.