كيف ينبغي لمسئولي أمن المعلومات الاستجابة للذكاء الاصطناعي؟

  •  

    بقلم محمد أبوخاطر

     

     نائب الرئيس لدى F5 في الشرق الأوسط وتركيا وأفريقيا

     

    في ظلّ تزايد استخدام الذكاء الاصطناعي، يلعب كبار مسئولي أمن المعلومات (CISOs)  دورًا مهمًا في تنفيذ تقنياته واعتمادها، وسيتعيّن عليهم الاستعداد للأخطار المرتبطة بإنشاء محتوى قائم على الذكاء الاصطناعي، عدا عن التهديدات الأمنية التي تُنشئها الجهات التخريبية بمساعدة الذكاء الاصطناعي.

     

    إن أية استراتيجية شاملة للذكاء الاصطناعي لا بدّ وأن تضمن الخصوصية والأمن والامتثال، وسيكون عليها مراعاة الجوانب التالية:

    حالات الاستخدام التي يمكن للذكاء الاصطناعي فيها إتاحة أكبر قدر ممكن من المنفعة.

    الموارد اللازمة لتنفيذ الذكاء الاصطناعي بنجاح.

    إطار حوكمة يُدير سلامة بيانات العملاء ويضمن الامتثال للوائح وقوانين حقوق النشر في كل بلد تمارَس فيه الأعمال.

    تقييم مدى التأثير الذي يُحدثه تطبيق الذكاء الاصطناعي في الموظفين والعملاء.

     

    وبمجرد إجراء مؤسستك تقييمًا لحالات الاستخدام وتحديد أولوياتها للذكاء الاصطناعي التوليدي، يجب إنشاء منظومة لحوكمة خدمات الذكاء الاصطناعي، مثل ChatGPT، تشمل مكوناتها وضع قواعد لجمع البيانات والاحتفاظ بها، كما ينبغي وضع سياسات للتخفيف من أخطار التحيّز، وتوقع الطرق التي قد يُساء بها استخدام الأنظمة، وتخفيف الضرر الذي يمكن أن تحدثه هذه الأنظمة إذا استُخدمت بشكل غير صحيح.

     

    إن على استراتيجيات الذكاء الاصطناعي المؤسسية أن تتناول الطريقة التي تؤثّر فيها التغييرات الناجمة عن أتمتة الذكاء الاصطناعي في الموظفين والعملاء. وقد تساعد مبادرات تدريب الموظفين على ضمان فهم الجميع للسبل التي تغيّر فيها هذه التقنيات الجديدة إجراءات العمل اليومية، وكيف يمكن للجهات التخريبية، في المقابل، استغلالها لزيادة فاعلية هجماتهم القائمة على أساليب الهندسة الاجتماعية. لذلك، ينبغي على الفِرق المسئولة عن تطوير تجربة العملاء تقييم مدى تأثير التغيّرات الناتجة عن استخدام الذكاء الاصطناعي في تقديم خدمة العملاء حتى تتمكّن من تعديل إجراءاتها بحسب تلك التأثيرات.

     

    ومن المهمّ إنشاء معايير أمن قوية للذكاء الاصطناعي، والحفاظ عليها، لذلك فإن المؤسسات ستكون بحاجة إلى حواجز حماية خاصة بسبل عمل الذكاء الاصطناعي، كالخدمات التي يُسمح للذكاء الاصطناعي بأن يستمدّ المحتوى منها، مثلًا، وماذا يفعل بالمعلومات التي يُغذّى بها.

     

    إن تصميم أدوات الذكاء الاصطناعي يجب أن يراعي قوة الخصوم، وهو ما نراه يحدث حاليًا في المختبر لتحسين مستويات التدريب، ولكن تنفيذ ذلك على أرض الواقع، وضدّ عدوّ مجهول، يجب أن يغدو على قمة اهتماماتنا، لا سيما في سيناريوهات البنية التحتية العسكرية والحرجة.

     

    وفي ظلّ تزايد اهتمام المهاجمين باستغلال الذكاء الاصطناعي في أعمالهم التخريبية، تحتاج مؤسستك من الآن إلى التخطيط المُحكم والإعداد الكافي لدفاعاتها. وفيما يلي بعض الممارسات التي ينبغي مراعاتها في هذا الشأن:

    1. ـ الحرص على تحليل الشيفرة البرمجية بحثًا عن الأخطاء والبرمجيات الخبيثة والشذوذ البرمجي السلوكي. فعمليات الفحص الأمني التقليدية تبحث فقط عما هو معروف، لكن الهجمات الجديدة سوف تسخّر التقنيات والأدوات غير المعروفة.

    2. ـ عند مراقبة سجلاتك، استخدم الذكاء الاصطناعي لمحاربة الذكاء الاصطناعي. ويُعدّ تحليل السجل الأمني لتعلّم الآلات طريقة رائعة للبحث عن الأنماط والشذوذ السلوكي، ويمكن أن تتضمن متغيرات لا حصر لها للبحث عن الذكاء التنبؤي وإنتاجه، والذي يتيح بدوره اتخاذ إجراءات تنبؤية.

    3. ـ تحديث تدريب الأمن السيبراني ليتناول التهديدات الجديدة ضروري، كالتصيد المدعوم بالذكاء الاصطناعي، وتحديث سياسات الأمن السيبراني لمواجهة أدوات اختراق كلمات المرور المبنية باستخدام الذكاء الاصطناعي.

    4. ـ الاستمرار في مراقبة الاستخدامات الجديدة للذكاء الاصطناعي، كالذكاء الاصطناعي التوليدي، للبقاء على أهبة الاستعداد لمواجهة الأخطار الناشئة.

     

    إن هذه الممارسات ضرورية لبناء الثقة مع موظفيك وشركائك وعملائك في شأن ما إذا كنت تحمي بياناتهم بالطريقة الصحيحة.

     

    ويبقى أن نشير إلى أنه لا بدّ للمؤسسات، في سبيل الحفاظ على قدرتها التنافسية، من أن تتبنّى تقنيات الذكاء الاصطناعي مع الحرص على الوقاية من أخطارها المحتملة. وبمسارعة المؤسسات إلى اتخاذ هذه الخطوات يمكنها ضمان قدرتها على جني المنافع الكاملة للذكاء الاصطناعي وتقليل انكشافها أمام الأخطار.

    &

     

     



    حمّل تطبيق Alamrakamy| عالم رقمي الآن