الوضع المظلم
السبت ١٦ / نوفمبر / ٢٠٢٤
Logo
  • “استنساخ الصوت”: تقنية تمكن الهاكرز من تقليد الأصوات بالذكاء الاصطناعي

“استنساخ الصوت”: تقنية تمكن الهاكرز من تقليد الأصوات بالذكاء الاصطناعي
Image by Alexandra_Koch from Pixabay

في الوقت الذي يزداد فيه القلق من التزييف العميق، أو استخدام الذكاء الاصطناعي لإنشاء صور أو فيديوهات مزيفة، يظهر نوع جديد من هذه التقنية يُعرف باسم "استنساخ الصوت"، والذي يتيح للهاكرز تقليد صوت أي شخص بدقة عالية.

وقد تعرض عدد من المشاهير والسياسيين لهذا النوع من الاحتيال، حيث تم استنساخ أصواتهم واستخدامها في تصريحات مضللة أو محرجة، مثل ستيفن فراي وصادق خان وجو بايدن، وفقاً لما نشرته صحيفة "ديلي ميل" البريطانية.

وفي حالة أخرى، تمكن محتال من خداع أحد المديرين التنفيذيين، الذي لم يكشف عن هويته، وإقناعه بتحويل 243 ألف دولار إلى حساب مزيف، بعد أن اتصل به بصوت مزيف يشبه صوت رئيسه.

اقرأ أيضاً: سامسونغ تطور شريحة ذاكرة جديدة لتعزيز الذكاء الاصطناعي

ويقول دين شيريتس، مهندس الحلول الإلكترونية، إنه قام بتجربة استنساخ صوته الخاص، وأن النتائج كانت "مرعبة"، لأن الصوت المستنسخ كان يبدو وكأنه يتحدث هو بالفعل.

ويشرح شيريتس أن استنساخ الصوت هو عملية تستخدم فيها الذكاء الاصطناعي لتحليل تسجيل صوتي لشخص ما، وتعلم كيفية تقليد صوته ولغته ونبرته، وإنشاء تسجيلات صوتية جديدة بنفس الصوت.

ويوضح بإن هذه التقنية كانت في البداية مخصصة لأغراض إنسانية، مثل مساعدة الأشخاص الذين فقدوا أصواتهم بسبب مرض أو حادث، أو تحسين جودة الصوت في الأفلام والألعاب، لكنها أصبحت الآن أداة للمحتالين والهاكرز الذين يستخدمونها للنصب والابتزاز والتشويه.

ويضيف أنه من السهل جداً استنساخ الصوت باستخدام بعض الأدوات المجانية والمفتوحة المصدر على الإنترنت، وأنه يكفي أن يكون لديك مقطع فيديو أو تسجيل صوتي للشخص الذي تريد تقليده، وأن تقوم بتحميله على الأداة، وأن تنتظر بضع دقائق حتى تحصل على النتيجة.

ويذكر إنه لاستنساخ صوته الشخصي، استخدم مقطع فيديو مدته خمس دقائق وهو يتحدث بلهجته الأميركية الأسكتلندية، وأن الصوت المستنسخ كان يبدو وكأنه هو نفسه، وأنه استطاع أن يقول أي شيء يريده.

ويلفت إلى إنه قام بتجربة استخدام الصوت المستنسخ في سيناريوهات احتيال مختلفة، مثل الاتصال بوالدته وطلب منها تحويل بعض الأموال، أو الادعاء بأنه ابنته وأنها تعرضت للاختطاف، وأنه يحتاج إلى فدية.

ويقول شيريتس إنه لجعل الصوت أكثر إقناعاً، قام بإضافة بعض التفاصيل الصوتية، مثل التوقفات والأنفاس والترددات، وأنه يمكن للهاكرز أن يفعلوا الشيء نفسه بسهولة.

ويحذر من أن هذه التقنية تشكل خطراً كبيراً على الأمن والخصوصية، لأنها تمكن الهاكرز من اختراق الثقة بين الناس، والحصول على معلومات حساسة أو مالية، أو التأثير على الرأي العام أو السياسة.

ويلفت إلى إنه يوجد بعض العلامات التي تساعد على التمييز بين الصوت الحقيقي والمستنسخ، مثل وجود فجوات أو تشوهات أو ضوضاء في الخلفية، لكنه يقول إنه مع تطور التكنولوجيا، سيصبح هذا الأمر أصعب.

وينصح الناس بأن يكونوا أكثر حذراً وتشكيكاً في أي مكالمة أو رسالة تطلب منهم القيام بشيء عاجل أو مهم، وأن يتحققوا من هوية المتصل أو المرسل، وأن يطرحوا الأسئلة التي لا يمكن للمستنسخ الإجابة عليها.

ليفانت-وكالات

كاريكاتير

قطر تغلق مكاتب حماس

النشرة الإخبارية

اشترك في قائمتنا البريدية للحصول على التحديثات الجديدة!