تحليل يكشف أن عمليات الاحتيال بالتزييف العميق أصبحت صناعة قائمة

  • أفاد تحليل نشره خبراء في الذكاء الاصطناعي أن عمليات الاحتيال بتقنية التزييف العميق، التي تستخدم الذكاء الاصطناعي، قد أصبحت على نطاق "صناعي".

    وذكر التحليل أن الأدوات التي تتيح ابتكار عمليات احتيال مخصصة، وحتى شخصية، مثل استخدام مقاطع فيديو مزيفة، لم تعد مقتصرة على فئة محدودة، بل أصبحت رخيصة الثمن وسهلة الاستخدام على نطاق واسع، بحسب قاعدة بيانات حوادث الذكاء الاصطناعي.

     

    ووثق التحليل أكثر من اثنتي عشرة حالة حديثة من "انتحال الشخصية لتحقيق الربح"، بما في ذلك مقطع فيديو مُزيف بتقنية التزييف العميق لرئيس وزراء أستراليا الغربية، روبرت كوك، وهو يروج لمخطط استثماري، وأطباء مُزيفين بتقنية التزييف العميق يروجون لكريمات للبشرة، بحسب تقرير لصحيفة "ذا غارديان البريطانية، اطلعت عليه "العربية Business".

    تُعد هذه الأمثلة جزءًا من اتجاهٍ يستخدم فيه المحتالون أدوات الذكاء الاصطناعي المتاحة على نطاق واسع لتنفيذ عمليات احتيال متزايدة الاستهداف. ففي العام الماضي، دفع مسؤول مالي في شركة متعددة الجنسيات سنغافورية ما يقرب من 500 ألف دولار أميركي لمحتالين خلال ما اعتقد أنه مكالمة فيديو مع قيادة الشركة.

    تشير التقديرات إلى أن المستهلكين في المملكة المتحدة خسروا 9.4 مليار جنيه إسترليني نتيجة للاحتيال خلال الأشهر التسعة المنتهية في نوفمبر 2025.

    وقال سايمون ميليوس، الباحث في معهد ماساتشوستس للتكنولوجيا والذي يعمل على مشروع مرتبط بقاعدة بيانات حوادث الذكاء الاصطناعي: "لقد وصلت القدرات فجأة إلى مستوى يسمح لأي شخص تقريبًا بإنتاج محتوى مزيف".

    وأشار إلى أن عمليات الاحتيال والنصب والتلاعب المُستهدف شكلت النسبة الأكبر من الحوادث المُبلغ عنها في قاعدة البيانات خلال 11 شهرًا من الأشهر ال 12 الماضية، مضيفًا: "لقد أصبح الأمر متاحًا جدًا لدرجة أنه لا توجد فعليًا أي عوائق أمام استخدامه".

    وقال فريد هايدينغ، الباحث في جامعة هارفارد والذي يدرس عمليات الاحتيال المدعومة بالذكاء الاصطناعي: "النطاق يتغير... أصبح الأمر رخيصًا للغاية، بحيث يمكن لأي شخص تقريبًا استخدامه الآن. تصبح النماذج جيدة حقًا- تصبح أسرع بكثير مما يعتقد معظم الخبراء".

    في أوائل يناير، نشر جيسون ريبولز، الرئيس التنفيذي لشركة إيفوك المتخصصة في أمان الذكاء الاصطناعي، عرض وظيفة على منصة لينكدإن، وتواصل معه فورًا شخص غريب ضمن شبكته، أوصى بمرشح. في غضون أيام، تبادل ريبولز رسائل بريد إلكتروني مع شخص بدا، على الورق، مهندسًا موهوبًا.

    قال ريبولز: "اطلعت على السيرة الذاتية وقلت في نفسي: إنها سيرة ذاتية جيدة حقًا. لذا فكرت، رغم وجود بعض العلامات التحذيرية، دعني أجري معه محادثة".

    ثم بدأت الأمور تأخذ منحىً غريبًا. وصلت رسائل المرشح مباشرةً إلى مجلد الرسائل غير المرغوب فيها. كانت سيرته الذاتية مليئة بالتفاصيل غير المألوفة، لكن ريبولز كان قد تعامل مع مرشحين غير عاديين من قبل، فقرر المضي قدمًا في المقابلة.

    ثم، عندما أجري ريبولز المكالمة، استغرق ظهور فيديو المرشح ما يقرب من دقيقة. وقال ريبولز: "الخلفية كانت مزيفة للغاية. كانت تبدو مزيفة جدًا جدًا. وكانت تكافح حقًا للتعامل مع المنطقة حول حواف الفرد. كأن جزءًا من جسده يظهر ويختفي… وعندما أنظر إلى وجهه، كان ناعمًا جدًا عند الحواف".

    أكمل ريبولز المحادثة، متجنبًا الإحراج الناتج عن سؤال المرشح مباشرةً عما إذا كان عملية احتيال متقنة. بعد ذلك، أرسل تسجيلًا للمحادثة إلى أحد معارفه في شركة متخصصة في كشف التزييف العميق، فأخبره أن صورة المرشح في الفيديو مُولّدة بواسطة الذكاء الاصطناعي. فرفض ريبولز المرشح.

    لا يزال ريبولز يجهل ما الذي يريده المحتال، راتب مهندس، أم أسرار تجارية. ورغم وجود تقارير عن محاولات قراصنة كوريين شماليين الحصول على وظائف في شركة أمازون عملاق التجارية الإلكترونية، فشركة "إيفوك" ليست سوى شركة ناشئة، وليست شركة عملاقة.

    قال ريبولز: "إذا كنا مستهدفين بهذا، فالجميع مستهدفون به".

    ويرى هايدينغ أن الأسوأ لم يأتِ بعد. تُعدّ تقنية استنساخ الصوت بتقنية التزييف العميق متطورة للغاية حاليًا، مما يُسهّل على المحتالين انتحال شخصيات، على سبيل المثال، حفيد في محنة عبر الهاتف. أما مقاطع الفيديو المُزيّفة بتقنية التزييف العميق، فلا تزال بحاجة إلى مزيد من التطوير.

    و قد تترتب على ذلك عواقب وخيمة سواء على التوظيف، والانتخابات، والمجتمع ككل. وقال هايدينغ: "ستكون المشكلة الكبرى هنا، (هي) انعدام الثقة التام في المؤسسات الرقمية، والمؤسسات والمواد عمومًا".

     

     

     

     

    حمّل تطبيق Alamrakamy| عالم رقمي الآن