كتب : باكينام خالد
تساهم استراتيجيات النمو في دول مجلس التعاون الخليجي، كرؤية السعودية 2030، واستراتيجية الإمارات الوطنية للذكاء الاصطناعي 2031، ورؤية قطر الوطنية، بوضع الذكاء الاصطناعي في صميم مبادرات التنويع الاقتصادي.
وفقاً لتقديرات مؤسسة ماكينزي، تبلغ نسبة تبني الذكاء الاصطناعي في مؤسسات دول مجلس التعاون الخليجي نحو 84%، مع التوقع بأن يحقق الذكاء الاصطناعي تأثيراً اقتصادياً يصل إلى 320 مليار دولار أمريكي في منطقة الشرق الأوسط بحلول عام 2030. ومع تسارع وتيرة اعتماد الذكاء الاصطناعي، يُعدّ الامتثال للوائح التنظيمية عاملاً حاسماً يفصل بين الطموح والتوسع المستدام. حدّدت شفرة، الشركة المتخصصة في أبحاث وتطبيقات الذكاء الاصطناعي، والتي تُنشئ فرق ذكاء اصطناعي متخصصة للمؤسسات والحكومات، ست اتجاهات واضحة تُعيد تشكيل طريقة عمل الشركات في المنطقة.
التنظيم يسرّع من وتيرة تبني الذكاء الاصطناعي في القطاعات الحيوية
تشهد الجهات الحكومية، الخدمات المالية، الاتصالات، الطيران والمؤسسات شبه الحكومية الكبيرة أسرع وتيرة في تبنّي الذكاء الاصطناعي. تعمل هذه القطاعات على نطاق واسع، وتواجه متطلبات صارمة لتحقيق الكفاءة، وتخضع لإشراف تنظيمي مستمر. أما قطاعا الرعاية الصحية والطاقة، فيتقدمان بحذر أكبر نظراً لاعتبارات السلامة وحساسية البيانات. في كثير من الحالات، كلما زاد تنظيم القطاع، كلّما تسارعت وتيرة نشر الذكاء الاصطناعي. ومع ذلك، يكشف التوسع السريع أيضاً عن نقاط ضعف في الحوكمة، لا سيما في حال ضعف آليات التوثيق والملكية والإشراف.
الامتثال شرط أساسي للتوسع
خلال العام الماضي، أفاد 88% من الرؤساء التنفيذيين في الشرق الأوسط بتبني مؤسساتهم للذكاء الاصطناعي التوليدي. اليوم، وبشكل متزايد، تتطلب المؤسسات سجلات تدقيق، وإمكانية تفسير البيانات، ووضوحاً في تتبع أصل البيانات وضوابط الإقامة، ومعايير أداء محددة، وآليات إشراف بشري قابلة للتنفيذ. وبما أن واحداً من كل أربعة من المستهلكين في الشرق الأوسط يعتبر الخصوصية مصدر قلق رئيسي، يُنظر إلى الامتثال على أنه مطلب هيكلي لتوسيع نطاق الذكاء الاصطناعي بمسؤولية وعملية تحقق تأتي بعد نشر الذكاء الاصطناعي.
الذكاء الاصطناعي السيادي وإقامة البيانات يشكّلان البنية التحتية
تتأثر حوكمة الذكاء الاصطناعي في دول مجلس التعاون الخليجي بشكل أقل بقوانين الذكاء الاصطناعي المستقلة، وأكثر بأطر حماية البيانات والأمن السيبراني. تم وضع قوانين حماية البيانات - مثل القانون الاتحادي لحماية البيانات في الإمارات العربية المتحدة، وقانون حماية البيانات الشخصية في المملكة العربية السعودية التابع للهيئة السعودية للبيانات والذكاء الاصطناعي (سدايا)، وقانون حماية البيانات الشخصية في سلطنة عُمان - لمعالجة القانونية للبيانات والضوابط العابرة للحدود. في القطاعات شديدة التنظيم، كالبنوك والرعاية الصحية والطاقة والاتصالات، تُعدّ إقامة البيانات والتحكم المحلي في نماذج الذكاء الاصطناعي من الضرورات الاستراتيجية خاصة وأن الذكاء الاصطناعي السيادي يواصل التطور من طموح سياسي إلى متطلب تشغيلي يؤثر على البنية التحتية واختيار الموردين وتصميم الأنظمة.
التأكيد على المساءلة البشرية
عندما تنشر المؤسسات الذكاء الاصطناعي دون تحديد الجهة المسؤولة عن اتخاذ القرار، ومتى يلزم التدخل البشري، وما يُسمح للنظام بفعله أو ما يُمنع منه، فإنها تُنشئ إما اعتماداً مُفرطاً أو استخداماً غير كافٍ له، فبدون تحديد واضح للملكية وضوابط مراجعة موثقة، تضعف المساءلة ويزداد التعرض للمساءلة التنظيمية.
على سبيل المثال، يُعزز مركز دبي المالي العالمي الاستخدام المسؤول للذكاء الاصطناعي في معالجة البيانات الشخصية، حيث تتطلب القرارات المصيرية المتعلقة بالأهلية القانونية، الاحتيال، التوظيف، التوجيهات الصحية أو قرارات القطاع العام التي تؤثر على المواطنين، إشرافاً بشرياً، بينما يتولى الذكاء الاصطناعي مهام السرعة والاتساق وأتمتة المهام المتكررة. باختصار، ينبغي أن تخضع هذه القرارات لإشراف بشري مسؤول.
نضج الحوكمة يبطىء من وتيرة النشر
تتميز العديد من المؤسسات بنشاطها في مجال الذكاء الاصطناعي، لكن أطر نضج حوكمتها لا تزال قيد التطوير. غالباً ما تكون فجوات الحوكمة هيكلية وليست تقنية، فكثيراً ما يتم تنفيذ مشاريع تجريبية متعددة بالتوازي، بينما يتسم تبنّي الأدوات بالتشتت، وتتوزع المسؤولية بين أقسام تكنولوجيا المعلومات والشؤون القانونية وإدارة المخاطر. غالباً ما تفتقر المؤسسات الناشئة إلى جهة مركزية مسؤولة عن حوكمة الذكاء الاصطناعي، وقائمة شاملة للاستخدامات، وتقييم متسق لمخاطر المورّدين والنماذج، وبروتوكولات رسمية للتصعيد. ورغم أن السياسات على مستوى مجلس الإدارة قد تكون موجودة، لكنها لا تُدمج باستمرار في العمليات اليومية. يتطلب سدّ هذه الفجوة دمج الحوكمة في سير العمل منذ البداية.
التدقيق المستمر هو أساس الانضباط
تشير الدراسات إلى أن غالبية نماذج تعلّم الآلة تتدهور بمرور الوقت، من خلال انحراف النموذج، أو التحيز الخفي، أو ثغرات سوء الاستخدام. تكشف عمليات التدقيق الأولية غالباً عن استخدامات غير موثقة، وضعف في تجزئة الوصول، وعدم كفاية التسجيل، وبروتوكولات مراجعة غير واضحة. تتطلب الحوكمة الفعّالة الامتثال لقواعد إقامة البيانات الدولية والمحلية، تصنيف المخاطر بشكل منهجي، التحقق من صحة مسار البيانات ضوابط الوصول، اختبار التحيز، قياس الأداء وإجراءات محددة للاستجابة للحوادث. تستدعي الأنظمة ذات التأثير الكبير مراجعات ربع سنوية مدعومة بمراقبة مستمرة، بينما تتطلب التطبيقات الأقل مخاطرة إعادة تقييم دورية. يُقاس أداء الحوكمة بشكل متزايد بالأدلة بدلاً من بيانات السياسات، وتطلب مجالس الإدارة لوحات معلومات وسجلات ووثائق تدقيق، وليس مجرّد ملفات “PDF” للسياسات.
تُعتبر الحوكمة جزءً لا يتجزأ من بنية الذكاء الاصطناعي، وتواصل أطر الامتثال في التطور لتصبح بنية تشغيلية مُدمجة ضمن الأنظمة وسير العمل ونماذج المساءلة. ستتصدّر المؤسسات التي تصمم الحوكمة بالتزامن مع تصميم القدرات الريادة في دول مجلس التعاون الخليجي، لأن ذلك يضمن توسع نطاق الذكاء الاصطناعي بانضباط خالٍ من المخاطرة.








