تقنيه استنساخ الاصوات لتحويل الاموال

  • أثبتت مقاطع الفيديو المزيفة ” Deepfake ” أنها مشكلة بعدما رأينا مدى قدرتها على الإقناع، ولكن يبدو أنه بينما تمثل مقاطع الفيديو المزيفة مشكلة، فقد تمثل المحادثات الصوتية المزيفة مشكلة أيضًا يجب علينا الإنتباه إليها في المستقبل، وخاصة بعد وجود تقرير يفيد أنه تم خداع موظف في شركة لتحويل أكثر من 200 آلف دولار أمريكي إلى المخادع، معتقدًا أنه رئيسه في العمل. وفي حالة إذا لم تسمع عنDeepfake من قبل، فهو عبارة تقنية من تقنيات الذكاء الاصطناعي، والتي تُستخدم لإنتاج فيديو أو الصوت أو التعديل على محتواه بشكل كامل ليعرض شيئًا لم يكن موجودًا فيه بالأصل.

     

    ووفقا لتقرير من صحيفة وول ستريت جورنال الأمريكية، فقد قام المتصل بخداع الضحية ليعتقد أن المتصل كان هو الرئيس التنفيذي للشركة الأم لشركته في ألمانيا. كان هذا بسبب إستخدام لهجة ألمانية، حيث يبدو أنها تشبه إلى حد كبير لهجة ولحن صوت رئيسه، وهذا هو السبب الذي جعله يعتقد أن رئيسه هو من إتصل به.

     

    ثم طُلب منه تحويل 220 آلف يورو، وهو ما يعادل 243 آلف دولار أمريكي إلى مورد مجري في غضون ساعة، وهو ما فعله. ومع ذلك، يبدو أن المخادع تمادى كثيرًا لأنه قام بإستدعائه مرة ثالثة بإستخدام رقم مختلف، وبالتالي شكك الضحية في صحة المتصل ولم يستجب لطلبه.

     

    هذه ليست هي المرة الأولى التي يتم فيها إستخدام الذكاء الإصطناعي لإعادة إنشاء أصوات الأشخاص. في الأونة الأخيرة، أثبتت شركة تدعى Desa أن ذلك ممكن عن طريق محاكاة البودكاستر Joe Rogan،

     

     

     



    حمّل تطبيق Alamrakamy| عالم رقمي الآن