تطويع الذكاء الاصطناعي لتنفيذ أخطر عمليات الاحتيال عبر الصوت

تطويع الذكاء الاصطناعي لتنفيذ أخطر عمليات الاحتيال عبر الصوت

أصبح استخدام "استنساخ الصوت"، وهو نوع جديد من التزييف العميق، ظاهرة جديدة يلجأ إليها قراصنة المعلومات، من أجل تنفيذ أخطر عمليات الاحتيال بواسطة الذكاء الاصطناعي.

وكان مشاهير مثل ستيفن فراي وصادق خان وجو بايدن، ضحايا لجريمة تقليد أصواتهم بتصريحات تسبب لهم حرجاً أو إزعاجاً.

وتعرض أحد المسؤولين البارزين للخداع وأجبر على تحويل 243 ألف دولار إلى محتال بعد تلقي مكالمة هاتفية مزيفة، بحسب ما نشرته "ديلي ميل" البريطانية.

ونقلت الصحيفة عن دين شيريتس مهندس الحلول الصوتية قوله إن "استنساخ الصوت هو تقنية ذكاء اصطناعي تسمح للهاكرز بأخذ تسجيل صوتي لشخص ما، وتدريب أداة الذكاء الاصطناعي على صوته، وإعادة إنشائه".

وأضاف أن "تلك التقنية تم ابتكارها بالأساس لمساعدة الأشخاص الذين فقدوا أصواتهم لأسباب طبية، ولكن يتم حاليًا استخدامها بشكل متزايد من قبل صناع السينما في هوليوود، وللأسف المحتالين والهاكرز".

وأوضح أنه "لاستنساخ صوته الشخصي، فإن كل ما أحتاج إليه هو مقطع فيديو مدته خمس دقائق وهو يتحدث"، لافتاً إلى أنه"معظم الهاكرز يمكنهم ببساطة سرقة الصوت من مكالمة هاتفية سريعة، أو حتى من مقطع فيديو منشور على وسائل التواصل".

ونوه إلى أن الأمر المثير هو أن "الأدوات المتوفرة الآن تجعله قادرا على إضافة المزيد من التصريفات أو التوقفات أو أشياء أخرى تجعل الكلام يبدو أكثر طبيعية، مما يجعله أكثر إقناعًا في سيناريو الاحتيال".

الأكثر قراءة

No stories found.


logo
إرم نيوز
www.eremnews.com