• وجود آليات تحكم احتياطية آمنة شرط أساسي لضمان بقاء القرار النهائي بيد الإنسان في أنظمة الذكاء الاصطناعي الداعمة للبنية التحتية الوطنية
كتب : باكينام خالد
توقعت شركة جارتنر، الشركة العالمية المتخصصة في تحليلات الأعمال والتكنولوجيا، أنه بحلول عام 2028 سيؤدي الإعداد غير السليم لتطبيقات الذكاء الاصطناعي داخل الأنظمة السيبرانية المادية إلى تعطل بنية تحتية وطنية حساسة في إحدى دول مجموعة العشرين.
وتعرف جارتنر الأنظمة السيبرانية المادية بأنها أنظمة هندسية تعمل على تنسيق عمليات الاستشعار والحوسبة والتحكم والاتصال الشبكي والتحليلات بهدف التفاعل مع العالم المادي، بما في ذلك البشر. ويُعدّ هذا المصطلح مظلة جامعة تضم تقنيات التشغيل، وأنظمة التحكم الصناعية، وأنظمة الأتمتة والتحكم الصناعية، وإنترنت الأشياء الصناعي، والروبوتات، والطائرات المسيّرة، إضافة إلى منظومة الثورة الصناعية الرابعة.
وقال وام فوستر، نائب الرئيس للأبحاث لدى جارتنر: "قد لا ينجم الإخفاق الكبير التالي في البنية التحتية عن هجوم إلكتروني أو كارثة طبيعية، بل قد يكون نتيجة مهندس حسن النية، أو برنامج تحديث يحتوي على خطأ برمجي، أو حتى فاصلة عشرية وضعت في غير مكانتها. ويعد توفير آلية إيقاف طارئ آمنة، أو وضع تحكم احتياطي محصور بالمشغلين المعتمدين أمراً جوهرياً لحماية البنية التحتية الوطنية من حالات التوقف غير المقصود الناجمة عن إعداد غير سليم لأنظمة الذكاء الاصطناعي".
وقد يؤدي الإعداد غير السليم لأنظمة الذكاء الاصطناعي إلى إيقاف خدمات حيوية بصورة ذاتية، أو إساءة تفسير بيانات أجهزة الاستشعار، أو إطلاق أوامر تشغيلية غير آمنة، الامر الذي قد يترتب عليه أضرار مادية جسيمة أو تعطّل واسع النطاق في الخدمات يشكل تهديدا مباشراً للسلامة العامة والاستقرار الاقتصادي نتيجة فقدان السيطرة على أنظمة محورية مثل شبكات الطاقة أو المنشآت الصناعية.
فعلى سبيل المثال، تعتمد شبكات الطاقة الحديثة على أنظمة الذكاء الاصطناعي لضبط التوازن الفوري بين توليد الكهرباء واستهلاكها. وقد يؤدي نموذج تنبؤي تم تطويره على نحو غير سليم إلى تفسير الطلب باعتباره مؤشراً على حالة عدم استقرار، الأمر الذي يفضي إلى عزل أجزاء من الشبكة أو تطبيق إجراءات فصل الأحمال دون مبرر عبر مناطق واسعة، بل وحتى على مستوى دول بأكملها.
وأضاف فوستر: "إن نماذج الذكاء الاصطناعي الحديثة بلغت درجة من التعقيد تجعلها أقرب إلى ما يُعرف بـ "الصندوق الأسود". وحتى مطوروها لا يستطيعون دائماً توقع الكيفية التي قد تنعكس بها تغييرات طفيفة في إعداداتها على السلوك الناتج عنها. وكلما ازدادت هذه الأنظمة انغلاقاً وغموضاً، تعاظم خطر الإعداد غير السليم. ومن ثمّ تزداد الحاجة إلى تمكين التدخل البشري عند الضرورة".
للتخفيف من المخاطر، توصي جارتنر رؤساء ومسؤولي أمن المعلومات بما يلي:
• اعتماد أوضاع تحكم احتياطية آمنة: بالنسبة لجميع الأنظمة السيبرانية الفيزيائية المرتبطة بالبنية التحتية الحيوية، ينبغي تضمين آلية إيقاف طارئ آمنة أو وسائل تجاوز تشغيلية لا يفعّلها إلا مشغّلون معتمدون، بما يضمن بقاء القرار النهائي بيد العنصر البشري حتى في حالات التشغيل الذاتي الكامل.
• إنشاء توائم رقمية: تطوير نموذج رقمي مطابق للأنظمة الداعمة للبنية التحتية الحيوية، لإجراء اختبارات واقعية للتحديثات وتعديلات الإعدادات قبل اعتمادها في بيئة التشغيل الفعلية.
• المراقبة الفورية وآليات الاسترجاع: إلزام الجهات المعنية بتطبيق مراقبة آنية مستمرة للتغييرات التي تطرأ على أنظمة الذكاء الاصطناعي ضمن الأنظمة السيبرانية الفيزيائية، مع توفير آليات استرجاع سريعة للتراجع عن أي تعديل، إلى جانب تأسيس فرق وطنية متخصصة للاستجابة لحوادث الذكاء الاصطناعي.








