بنبرة الصوت الزائفة.. كيف يُستخدم الذكاء الاصطناعي في عمليات الاحتيال؟

الوطن البحرينية 0 تعليق ارسل طباعة تبليغ حذف

تطورت أساليب الاحتيال بفضل التكنولوجيا الحديثة، وأصبحت تقنيات الذكاء الاصطناعي في الآونة الأخيرة موضع اتهام رئيسي في عالم الجريمة، إذ تمتلك البرامج المتطورة قدرة فائقة على إنشاء مقاطع فيديو مزيفة بدقة عالية، مما قد يؤدي إلى تشويه سمعة الأفراد وإثارة الخلافات والأزمات على المستويين الاجتماعي والنفسي.

كما انتشرت تقنية التلاعب الصوتي بشكل واسع في مختلف أنحاء العالم، حيث يتم من خلالها تزييف الأصوات بدقة عالية، مما يسهل استخدامها في تنفيذ جرائم الاحتيال والنصب بطرق يصعب كشفها.

وفي تقرير صادم صادر عن وكالة إنفاذ القانون الأوروبية "يوروبول"، جرى تسليط الضوء على التهديد المتزايد للذكاء الاصطناعي في دعم الجريمة المنظمة، حيث يتيح للمجرمين استخدام تقنيات متطورة تجعل عملياتهم أكثر إقناعًا، مما يزيد من صعوبة اكتشافها وإثبات الإدانة.

التزييف العميق

وكشف موقع "PhoneArena" المتخصص في أخبار الهواتف الذكية، عن حقائق صادمة بشأن استخدام الذكاء الاصطناعي في عمليات الاحتيال، والتي باتت تنتشر بشكل متزايد، حيث أوضح أن التزييف العميق لم يعد يقتصر على مقاطع الفيديو المفبركة فحسب، بل امتد ليشمل التلاعب الصوتي، حيث أصبح من الصعب التمييز بين الصوت الحقيقي والمزيف.

وأوضح الموقع أن هذه التقنية استُخدمت في خداع الضحايا عبر محاكاة أصوات أقاربهم، من خلال تسجيل مكالمات مزيفة واستغاثات كاذبة، لإقناعهم بوجود خطر حقيقي، مما يسهل عمليات النصب والاحتيال بطريقة غير مسبوقة.

إخترنا لك

أخبار ذات صلة

0 تعليق