خالد حسن
في الوقت الذي كان فيه العالم يتسابق لتبني الذكاء الاصطناعي كأداة سحرية لحل أزمات الاقتصاد والطب، شهد عامي 2025 و2026 تحولاً درامياً في بوصلة القوى العظمى. من بروكسل إلى واشنطن ومن نيودلهي إلى برازيليا، لم يعد الشعار "الابتكار أولاً"، بل أصبح "الاختبار أولاً، والحوكمة دائماً".
هذا التوجه نحو "التباطؤ المتعمد" في نشر تقنيات الذكاء الاصطناعي لم يعد مجرد رفاهية فكرية، بل تحول إلى قوانين صارمة وإجراءات تدقيق معقدة ترسم ملامح عصر جديد من التكنولوجيا المقيدة.
فمع دخول "قانون الذكاء الاصطناعي الأوروبي" (EU AI Act) حيز التنفيذ الكامل في أغسطس 2026، بدأت الشركات الكبرى تواجه اختبارات حقيقية. لم يعد يكفي أن يكون النموذج ذكياً؛ بل يجب أن يكون "قابلاً للتفسير" و"خالياً من التحيز" .
كما شهدت الولايات المتحدة الامريكية ، مؤخرا ، تحركاً متسارعاً لفرض قيود ومراجعات أمنية صارمة على نماذج الذكاء الاصطناعي قبل طرحها للاستخدام العام، وذلك في ظل تزايد المخاوف من المخاطر الأمنية والاجتماعية المرتبطة بهذه التقنيات حيث أبرمت الحكومة الأمريكية اتفاقيات مع كبرى شركات التكنولوجيا (مثل مايكروسوفت، جوجل، وxAI) تُلزمها بمنح الحكومة وصولاً مبكراً إلى نماذج الذكاء الاصطناعي المتقدمة لاختبارها قبل إطلاقها للجمهور كما تم اطلاق مركز مسؤول عن التقييم: سيتولى "مركز معايير وابتكار الذكاء الاصطناعي" (CAISI) التابع لوزارة التجارة الأمريكية مسؤولية تحليل قدرات هذه النماذج وتقييم مخاطرها، لاسيما في سياق الأمن القومي كذلك تشير تقارير إلى أن إدارة الرئيس دونالد ترامب تدرس تعزيز الرقابة الحكومية عبر أوامر تنفيذية لإنشاء فرق عمل مشتركة بين المسؤولين الحكوميين وشركات التكنولوجيا لتقييم النماذج الجديدة ناهيك عن القيود على تصدي تكنولوجيا رقائق الذكاء الاصطناعي والتى كانت فرضتها إدارة الرئيس الامريكى بايدن منذ عامين تقريبا للحفاظ على الهيمنة الأمريكية.
ومن ثمان ان العديد من الحكومات حول العالم باتت تفرض الآن اختبارات إجهاد (Stress Tests) إجبارية قبل طرح أي نظام ذكاء اصطناعي يمس قطاعات الصحة، البنية التحتية، أو القضاء كما تشير ، التقارير الحديثة لعام 2026 ، إلى أن 64% من المؤسسات العالمية باتت ملزمة بتقييم أمن أدواتها الذكاء الاصطناعي، ليس فقط خوفاً من الاختراقات، بل امتثالاً لمعايير الحوكمة الوطنية.
وبالطبع لم يأتِ هذا التباطؤ من فراغ؛ فالأحداث التي شهدها عام 2025 من انتشار لعمليات الاحتيال السيبراني المتطورة "Deepfake" وتزايد المخاوف من "سباق التسلح السيبراني" جعلت القادة يدركون أن السرعة قد تؤدي إلى انهيار الثقة الرقمية.
وفقاً لمنتدى الاقتصاد العالمي (WEF)، أصبح "الاحتيال المدعوم بالذكاء الاصطناعي" القلق الأول للمديرين التنفيذيين في 2026، متجاوزاً بذلك هجمات الفدية التقليدية. هذا القلق دفع الحكومات لفرض فترات "حضانة واختبار" أطول قبل منح تراخيص التشغيل التجارية.
وفى تصورى دخل المشهد التكنولوجي العالمي في عام 2026 مرحلة "النضج التنظيمي"، حيث انتقلت الحكومات من دور المراقب إلى دور المهندس المشرف. لم يعد التباطؤ الحالي في اعتماد أنظمة الذكاء الاصطناعي نتاجاً لضعف تقني، بل هو "تباطؤ هيكلي مقصود" تفرضه أطر الحوكمة الصارمة لضمان السيادة الرقمية والأمن القومي.
تشير البيانات الصادرة عن "مرصد الذكاء الاصطناعي" والمنظمات الدولية إلى تحول جذري في توجهات الاستثمار والامتثال حيث ارتفعت ميزانيات "الامتثال التنظيمي" في شركات التكنولوجيا الكبرى بنسبة 35% خلال العام الماضي، حيث يُقدر أن استيفاء معايير قانون الذكاء الاصطناعي الأوروبي (EU AI Act) يكلف الشركات المتوسطة ما متوسطه 250,000 إلى 500,000 دولار لكل منتج عالي المخاطر كذلك شهدت دورة المنتج تباطؤ ملحوظ اذ زاد الوقت اللازم لنقل نماذج الذكاء الاصطناعي التوليدي من "المختبر" إلى "السوق" بنسبة 40% نتيجة لمتطلبات اختبارات الأمان (Red Teaming) واختبارات التحيز الإلزامية علاوة على تزايد "رفض التراخيص " في النصف الأول من عام 2026، سجلت هيئات الرقابة الرقمية في مجموعة السبع (G7) رفض أو تأجيل إطلاق 18% من التطبيقات المعتمدة على الذكاء الاصطناعي في قطاعات التمويل والصحة لعدم قدرتها على تفسير آلية اتخاذ القرار (Explainability).
وفى اعتقادي فأن هذه التحركات الحكومية سيكون لها تأثيرات متنوعة على عدة محاور أولها على مستوى" الشركات الناشئة " فيرى البعض أن تكاليف الامتثال الباهظة قد تخنق الشركات الصغيرة، مما يمنح العمالقة (Big Tech) ميزة احتكارية لأنهم الوحيدون القادرون على دفع فواتير "مكاتب الحوكمة".
أما على مستوى " جودة الابتكار " فيرى المتفائلون بأن التباطؤ سيؤدي إلى إنتاج تقنيات أكثر رصانة وموثوقية، تماماً كما تخضع الأدوية لسنوات من الاختبار قبل طرحها في الصيدليات وعلى مستوى " الفجوة الرقمية " فهناك تخوف من نشوء "ملاذات تقنية" دول ترفض الحوكمة لجذب الاستثمارات، مما قد يخلق ذكاءً اصطناعيًا "مارقًا" خارج السيطرة الدولية.
ويواجه صناع القرار اليوم تحدي "المفارقة التنظيمية"؛ فبينما يضغط الاقتصاد من أجل الميكنة ، تضغط اعتبارات الأمن القومي نحو التقييد. وتتركز الإجراءات الحالية على ثلاثة محاور أولها " سيادة البيانات وحوكمة الحوسبة " اذ بدأت دول مثل الصين والاتحاد الأوروبي بفرض قيود على "تصدير القوة الحوسبية"، مع اشتراط وجود مراكز بيانات محلية تخضع للتدقيق الدوري، مما أدى إلى تباطؤ التوسع العابر للحدود للشركات السحابية.
والمحور الثاني " التدقيق في خوارزميات " اذ تفرض الحكومات الآن "شهادة جودة رقمية" تضمن أن الخوارزميات لا تمارس تمييزاً مطلقا ووفقاً لاستطلاع "جارتنر" لعام 2026، فإن 70% من صناع القرار يعتبرون "قابلية التفسير" أهم من "الدقة المطلقة" في الأنظمة السيادية اما المجور الثالث فيتمثل فى صناديق الاختبار التنظيمية (Regulatory Sandboxes) : كحل وسط، تبنت 45 دولة مفهوم "صناديق الاختبار" التي تسمح بالابتكار في بيئة محكومة، لكنها أدت عملياً إلى تأخير الاعتماد الشامل للتقنيات بنحو 12 إلى 18 شهراً.
وبالطبع هذا التباطؤ ليس مجرد إجراء إداري، بل أصبح له انعكاسات استراتيجية فمع اشتعال "سباق التسلح التنظيمي " نشأت فجوة بين "كتلة الحوكمة الصارمة" (أوروبا وبعض دول آسيا) و"كتلة الابتكار المفتوح". هذا الانقسام قد يؤدي إلى "بلمرة" (Fragmentation) في معايير الذكاء الاصطناعي العالمية، مما يصعب عملية التوافق الدولي كذلك " إعادة توجيه الاستثمار " اذ نلاحظ تحول رؤوس الأموال من "النماذج العامة" (General Models) إلى "الذكاء الاصطناعي المتخصص والقابل للتدقيق" (Vertical AI)، حيث يفضل المستثمرون الآن الشركات التي تمتلك "حصانة قانونية" وشهادات امتثال معتمدة.
السؤال الذي سيجيب عنه العام القادم: هل ستنجح هذه القوانين في حماية البشرية، أم أنها ستجعلنا نتفرج على قطار التقدم وهو يغادر المحطة بسرعة الدول التي اختارت "الابتكار دون قيود"؟ وهل تشديد الرقابة الحكومية سيحمي وظائفنا وخصوصيتنا، أم أنه مجرد عائق أمام التطور التكنولوجي؟
فنحن لا نشهد نهاية عصر الذكاء الاصطناعي، بل نشهد نهاية عصر "الغرب المتوحش" في التكنولوجيا. إن فرض إجراءات الحوكمة والاختبار هو بمثابة "فرامل" ضرورية لسيارة تسير بسرعة جنونية في طريق ضبابي ومن ثم فإن إجراءات الحوكمة والاختبار الصارمة التي نشهدها في 2026 ليست عائقاً أمام التقدم بقدر ما هي "إعادة ضبط لمسار التطور" وبالنسبة لصناع القرار، فإن تكلفة الانهيار التقني أو الأخلاقي للذكاء الاصطناعي تفوق بكثير تكلفة التباطؤ التنظيمي.
فى النهاية الرهان الآن ليس على من يمتلك الذكاء الاصطناعي الأسرع، بل على من يمتلك "الذكاء الاصطناعي الأكثر موثوقية". ففي اقتصاد المستقبل، ستكون "الثقة" هي العملة الأغلى، والحوكمة هي الضامن الوحيد لاستقرار هذه هذا الاتجاه . .








