يساعد كل من "مؤشر أمن الذكاء الاصطناعي الشامل" و"مقياس مقاومة الوكلاء" المؤسسات على تقييم متانة أنظمة الذكاء الاصطناعي واختبار جاهزيتها الأمنية بداية من مرحلة التجارب الأولية وصولاً إلى بيئات التشغيل الفعلية
كتب : وائل مجدي
كشفت اليوم شركة F5، العالمية المتخصصة في تسليم التطبيقات وواجهات برمجة التطبيقات وتأمينها، عن أدوات متقدمة لتحليل التهديدات تتيح لقادة الأمن السيبراني في المؤسسات قياس مستوى المخاطر المرتبطة بنماذج الذكاء الاصطناعي الشائعة ومقارنتها بصورة موثوقة.
ويقدّم فريق أبحاث التهديدات في مختبرات F5 مرجعين تحليليين هما "مؤشر أمن الذكاء الاصطناعي الشامل (CASI)، ومقياس مقاومة الذكاء الاصطناعي القائم على الوكلاء (ARS)، وهما مؤشران مرجعيان يتم تحديهما بشكل شهري ويستندان إلى أبحاث متخصصة، حيث يوفران معايير موحدة تجمع بين البيانات الفورية حول الهجمات وتحليلات لأنماط الهجمات المتطورة التي تستهدف تقنيات الذكاء الاصطناعي.
في أعقاب استحواذ شركة F5 على شركة CalypsoAI، تضم هذه الموارد الأمنية المتقدمة إحدى أكبر مكتبات بيانات ثغرات الذكاء الاصطناعي، إذ يتم تحديها بشكل شهري بإضافة أكثر من 10,000 نموذج جديد لمحاولات الهجوم، مستندةً إلى بيانات تراكمية للهجمات تم جمعها على مدار أكثر من عام. وتتيح مختبرات F5 اليوم للمؤسسات ولمجتمع الأمن السيبراني على نطاق أوسع مرجعاً موثوقاً يتيح تقييم نماذج الذكاء الاصطناعي ومقارنتها واختيار مزوديها قبل إدخالها إلى بيئات التشغيل الفعلية، وذلك بالاستناد إلى قدرتها على التعامل مع التحديات الرئيسية ومخاطر أمن التطبيقات التي تواجه الاستخدامات العملية.
وقال كونال أناند، كبير مسؤولي المنتجات لدى F5: "إن نشر نماذج الذكاء الاصطناعي غير المتحقق منها ضمن البنية التحتية الحيوية لا يعد ابتكاراً، بل تقصيراً في المسؤولية. تحتاج المؤسسات إلى أدوات تتيح قياس مستوى المرونة بشكل مستمر. وتوفر مؤشرات تصنيف الذكاء الاصطناعي الصادرة عن مختبرات F5 هذا المعيار، إذ تكشف هذه المؤشرات نقاط الضعف المحددة على مستوى طبقة النماذج، وتزوّد فرق الأمن بالمعطيات اللازمة لضبط عمليات الاستدلال والتصدي للهجمات قبل وقوعها".
وبفضل ما توفره من مستوى أعمق من الرؤية، تسهم مؤشرات التصنيف الصادرة عن مختبرات F5 في تمكين فرق الأمن من تحديد نقاط الضعف ومعالجتها بصورة شاملة، وتعزيز منظومة الحماية بالتكامل مع منصة F5 لتسليم التطبيقات والأمن. ويشمل ذلك حماية واجهات برمجة التطبيقات والبيانات، والتصدي لهجمات حجب الخدمة الموزعة (DDoS)، إضافةً إلى تسريع ممارسات تطوير البرمجيات وأمنها (DevSecOps) عبر الأتمتة والقدرة على التوسع.
تقييم مشهد نماذج الذكاء الاصطناعي اليوم
أدى التوسع المتسارع في دمج تقنيات الذكاء الاصطناعي ضمن مختلف جوانب العمليات المؤسسية إلى بروز الحاجة إلى التحقق الدقيق من الجوانب الأمنية للنماذج التي تعتمدها المؤسسات. ولمساعدة المتخصصين في الأمن السيبراني على الإجابة عن السؤال: "ما مستوى أمان النموذج الذي أستخدمه؟"، توفّر مؤشرات التصنيف الصادرة عن مختبرات F5 معايير واضحة لقياس مسارات الاختراق الأسهل والحد الأدنى من الموارد الحاسوبية المطلوبة لتنفيذ الهجمات، سواء كانت بسيطة أو معقدة.
إلى جانب التصنيف المباشر، يوفر مؤشر أمن الذكاء الاصطناعي الشامل (CASI) الصادر عن مختبرات F5 مجموعة من المقاييس، من بينها:
متوسط الأداء: يقيس الأداء الأساسي للنموذج عبر مجموعة من المهام المعيارية في ظروف التشغيل الاعتيادية.
نسبة المخاطر إلى الأداء: توفّر قراءةً حول الموازنة بين مستوى أمان النموذج وأدائه.
تكلفة الأمن: تقيس تكلفة الاستدلال الحالية مقارنةً بدرجة النموذج في أمن الذكاء الاصطناعي الشامل (CASI)، بما يتيح تقدير الأثر المالي لمتطلبات الحماية.
إلى جانب مؤشر أمن الذكاء الاصطناعي الشامل (CASI)، يقيّم مقياس مقاومة الوكلاء (ARS) الصادر عن مختبرات F5 قدرة أنظمة الذكاء الاصطناعي على الصمود أمام الهجمات المتواصلة التي ينفذها وكيل ذكاء اصطناعي مكلف بتحقيق هدف محدد. فبدلا من الاكتفاء بمحاولة تنفيذ توجيه واحد، يجري وكلاء الذكاء الاصطناعي تفاعلات ممتدة مع النماذج، مستخدمين أساليب الاستدلال وتقنيات التأثير السلوكي في محاولة لتجاوز الضوابط الأمنية. ويقيّم مقياس مقاومة الوكلاء أنظمة الذكاء الاصطناعي عبر ثلاثة أبعاد رئيسية:
مستوى التعقيد المطلوب: الحد الأدنى من مستوى المهارة أو الابتكار الذي يحتاجه المهاجم لاختراق نظام الذكاء الاصطناعي بنجاح.
قدرة الصمود الدفاعي: المدة التي يظل فيها النظام محافظًا على أمنه في مواجهة هجمات ممتدة ومتكيّفة ومتعددة المراحل.
الاستقصاء المضاد للمعلومات: مدى كشف الهجمات الفاشلة، دون قصد، عن مؤشرات أو أنماط سلوك في النظام قد تتيح استغلالها في هجمات لاحقة.








