بقدر ما للذكاء الاصطناعي من فوائد عديدة إلا أن له مخاطر كبيرة في نفس الوقت يجب الحذر منها.
فقد أظهرت دراسة حديثة أن واجهة برمجة التطبيقات الصوتية لمساعد ChatGPT-4o من OpenAI قد يستغلها مجرمو الإنترنت لتنفيذ عمليات احتيال مالي، لافتة إلى أن معدلات نجاح هذه العمليات تتراوح بين منخفضة ومتوسطة، وفق البوابة العربية للأخبار التقنية.
ويعد ChatGPT-4o أحدث نموذج ذكاء اصطناعي من OpenAI، ويتميز بقدرته على استيعاب النصوص والأصوات والمرئيات وإخراجها. للحد من إساءة الاستخدام، أدمجت OpenAI آليات أمان عدة تهدف إلى اكتشاف المحتوى الضار، ومنع تكرار الأصوات غير المُصرّح بها.
غير أنه مع ازدياد انتشار تقنيات التزييف الصوتي العميق وأدوات تحويل النص إلى صوت، تتفاقم مشكلة الاحتيال الصوتي التي تقدر خسائرها بالملايين.
تفتقر إلى آليات حماية كافية
ونشر باحثون من جامعة إلينوي ورقة بحثية تبين أن الأدوات التقنية الحديثة المتاحة للجمهور تفتقر إلى آليات حماية كافية من إساءة استخدامها في عمليات الاحتيال.
كما استعرضت الدراسة أنواعاً متعددة من عمليات الاحتيال، منها التحويلات المصرفية وسرقة بطاقات الهدايا وتحويل العملات الرقمية وسرقة بيانات حسابات التواصل الاجتماعي والبريد الإلكتروني.
أدوات مبرمجة تعتمد على الصوت
وتستخدم هذه العمليات الاحتيالية أدوات مبرمجة تعتمد على الصوت في ChatGPT-4o للتنقل بين صفحات الويب، وإدخال البيانات، وإدارة الأكواد الخاصة بالمصادقة الثنائية، واتباع إرشادات الاحتيال. ويرفض نموذج GPT-4o غالباً التعامل مع بيانات حساسة، إلا أن الباحثين استطاعوا تجاوز بعض القيود باستخدام تقنيات بسيطة لتحفيز النموذج على الاستجابة.
ولإثبات فاعلية عمليات الاحتيال، حاكى الباحثون أدوار الضحايا في التجارب، واستخدموا مواقع مثل "بنك أميركا" للتحقق من نجاح عمليات التحويل المصرفي، لكنهم لم يقيسوا مدى قدرة النموذج على الإقناع.