حذر مكتب التحقيقات الفيدرالي (FBI) من أن المتسللين يستخدمون أدوات الذكاء الاصطناعي التوليدية (AI) مثل ChatGPT، ويخلقون تعليمات برمجية ضارة ويطلقون هجمات الجرائم الإلكترونية .
وقام مكتب التحقيقات الفيدرالي (FBI) بتفصيل مخاوفه بشأن مكالمة مع الصحفيين وأوضح أن روبوتات الدردشة للذكاء الاصطناعي قد غذت جميع أنواع الأنشطة غير المشروعة، من المحتالين الذين يتقنون تقنياتهم إلى
الإرهابيين الذين يستشيرون الأدوات حول كيفية شن المزيد من الهجمات الالكترونية الضارة، وفقاً لموقع digitartlends.
وفقًا لمسئول كبير في مكتب التحقيقات الفيدرالي (عبر Tom’s Hardware)، "نتوقع بمرور الوقت مع استمرار اعتماد نماذج الذكاء الاصطناعي وإضفاء الطابع الديمقراطي عليها، ستزداد هذه الاتجاهات"، وتابعوا أن الجهات الفاعلة السيئة تستخدم الذكاء الاصطناعي لتكملة أنشطتها الإجرامية المعتادة، بما في ذلك استخدام مولدات الصوت بالذكاء الاصطناعي لانتحال شخصية الأشخاص الموثوق بهم من أجل الاحتيال على أحبائهم أو كبار السن.
إنها ليست المرة الأولى التي نرى فيها متسللين يأخذون أدوات مثل ChatGPT ويقومون بتحريفها لإنشاء برامج ضارة خطيرة، في فبراير 2023، اكتشف باحثون من شركة Checkpoint الأمنية أن الجهات الخبيثة كانت قادرة على تغيير واجهة برمجة تطبيقات روبوت الدردشة، مما مكنها من إنشاء كود برمجي ضار ووضع إنشاء فيروسات في متناول أي متسلل محتمل تقريبًا.
يتخذ مكتب التحقيقات الفيدرالي موقفًا مختلفًا تمامًا عن بعض الخبراء السيبرانيين الذين تحدثنا إليهم في مايو 2023، لقد أخبرونا أن التهديد من روبوتات الدردشة للذكاء الاصطناعي قد تم تضخيمه إلى حد كبير، حيث وجد معظم المتسللين ثغرات أكواد أفضل من تسريبات البيانات التقليدية والمصادر المفتوحة بحث.
على سبيل المثال، أوضح مارتن زوجيك ، مدير الحلول التقنية في Bitdefender، أن "غالبية كتاب البرامج الضارة المبتدئين من غير المرجح أن يمتلكوا المهارات المطلوبة" لتجاوز حواجز الحماية من البرامج الضارة لروبوتات المحادثة، بالإضافة إلى ذلك، أوضح Zugec أن "جودة شفرات البرامج الضارة التي تنتجها روبوتات المحادثة تميل إلى الانخفاض".