بقلم : خالد حسن
مع تغلل تقنيات وتطبيقات الذكاء الاصطناعي " Artificial Intelligence " فى حياتنا فان الخلاف يتفاقم بين ما ينادي بضروة الحذر كل الحذر من هذا التغلل فى مختلف نواحي حياتنا وتغيرها للابد بصورة سلبية وبين من يشجع ويطالب بضرورة زيادة الاعتماد على هذه التقنيات لانها ستجعل حياتنا اكثر سهولة وثرية وتفرغ البشر لمهام اكثر ابداعا من الاعمال الروينية .
ومن ثمة فى ظل هذا الاختلاف والتناقد سيظل السؤال هل ستقودنا تقنيات الذكاء الاصطناعي إلى طريق الأمان وإصلاح ما أفسده الانسان عبر العصور الماضية ؟ وهل سنتمكن من العودة إذا ما اكتشفنا أن الآثار الضارة كبيرة جدًا ؟ ولهذا من المهم أن نفهم كيف يمكننا استخدام التقنية بشكل صحيح كأداة ووسيلة لتحسين نمط حياتنا ولمساعدة أطفالنا على التعلم والتطور في المستقبل. وحينها نستخدم التقنية لمساعدتنا على فهم أفضل التوجهات لخدمة متطلبات دعم التنمية المستدامة وتأهيل أطفالنا وتمكينهم من المهارات اللازمة التي يتطلبها ذلك.
وفى خطوة مهمة نحو تنظيم ورسم ملامح استخدام تقنيات " الذكاء الاصطناعي " أصبح الاتحاد الأوروبي أول قارة تضع قواعد واضحة لاستخدام الذكاء الاصطناعي اذ لأول مرة في التاريخ، تم تفعيل قانون "قانون الذكاء الاصطناعي" ، مطلع شهر أغسطس الحالي ، والذى يهدف الى تنظيم تعاملات واستخدامات الشركات والدول لتقنيات الذكاء الاصطناعي بعد حصوله ، فى شهر مايو الماضي ، على موافق الدول الأعضاء في الاتحاد الأوروبي وصناع القرار وواضعو السياسات في الاتحاد الأوروبي والمفوضية الاوروبية .
ويعتقد الكثيرون ان دخول هذا القانون حيز التنفيذ سيشكل اكبر تحدى لشركات التكنولوجيا الامريكية ، مثل أوبن اى بى ومايكروسوفت وجوجل وأمازون وأبل وميتا وأمازون ، والتى تقود على أرض الواقع ضخ الاستثمارات المالية الضخمة لتعزيز جهود تطوير أنظمة والحلول القائمة على تقنيات الذكاء الاصطناعي كما ان جميع الشركات سواء التكنولوجية أو غير التكنولوجية ، التى توظف حلول الذكاء الاصطناعي فى تطوير أعمالها .
وتؤكد الفوضية الاوروبية أن القانون أكثر من مجرد مجموعة من القواعد بل إنه بمثابة منصة انطلاق للشركات الناشئة والباحثين في الاتحاد الأوروبي لقيادة سباق الذكاء الاصطناعي العالمي مشيرة ان الأفضل لم يأت بعد حيث تضع اللائحة إطاراً تنظيمياً شاملاً ومتناسقاً للذكاء الاصطناعي في جميع أنحاء الاتحاد الأوروبي، مع تطبيق نهج قائم على المخاطر لتنظيم التكنولوجيا وهو ما يعني أن التطبيقات المختلفة للتكنولوجيا يتم تنظيمها بشكل مختلف اعتماداً على مستوى المخاطر التي تشكلها على المجتمع فعلى سبيل المثال بالنسبة لتطبيقات الذكاء الاصطناعي التي تعتبر «عالية المخاطر»، سيتم تقديم التزامات صارمة بموجب قانون الذكاء الاصطناعي وتشمل هذه الالتزامات أنظمة مناسبة لتقييم المخاطر والتخفيف من حدتها، ومجموعات بيانات تدريبية عالية الجودة لتقليل مخاطر التحيز، والتسجيل الروتيني للنشاط، ومشاركة إلزامية للوثائق التفصيلية حول النماذج مع السلطات لتقييم الامتثال اذ تشمل أمثلة أنظمة الذكاء الاصطناعي عالية المخاطر: المركبات ذاتية القيادة، والأجهزة الطبية، وأنظمة اتخاذ القرارات بشأن القروض، والتقييم التعليمي، وأنظمة التعرف البيومترية عن بعد.
كما يفرض القانون أيضاً حظراً شاملًا على أي تطبيقات للذكاء الاصطناعي تعتبر «غير مقبولة» من حيث مستوى خطورتها وتشمل تطبيقاته التي تنطوي على مخاطر غير مقبولة: أنظمة التقييم الاجتماعي التي تصنف المواطنين على أساس تجميع وتحليل بياناتهم، و«الشرطة التنبئية»، واستخدام تكنولوجيا التعرف إلى المشاعر في مكان العمل أو المدارس.
ومن ثمة يمكن ان يتجاوز تأثير قانون الذكاء الاصطناعي حدود دول الاتحاد الأوروبي؛ خاصة وانه ينطبق على أي منظمة لديها أي عملية أو تأثير في الاتحاد الأوروبي، مما يعني أن القانون من المرجح أن ينطبق على مؤسسة ما بغض النظر عن مكان تواجده وهنا يجب الاشارة الى قيام شركة ميتا بتقييد توفر نموذج الذكاء الاصطناعي الخاص بها في أوروبا بسبب المخاوف التنظيمية على الرغم من أن هذه الخطوة لم تكن بسبب قانون الذكاء الاصطناعي في الاتحاد الأوروبي.
كذلك تم تصنيف الذكاء الاصطناعي التوليدي في قانون الذكاء الاصطناعي في الاتحاد الأوروبي كمثال على الذكاء الاصطناعي " للأغراض العامة " وتشير هذه التسمية إلى الأدوات التي من المفترض أن تكون قادرة على إنجاز مجموعة واسعة من المهام على مستوى مماثل للبشر إن لم تكن أفضل حيث تتضمن نماذج الذكاء الاصطناعي للأغراض العامة، على سبيل المثال لا الحصر، «جي بي تي» من أوبن إيه آي ، و«جيميناي» من جوجل، و«كلود» من انثروبي.
وبالنسبة لهذه الأنظمة يفرض "قانون الذكاء الاصطناعي " متطلبات صارمة مثل احترام قانون حقوق النشر في الاتحاد الأوروبي، وإصدار إفصاحات الشفافية حول كيفية تدريب النماذج، وإجراء اختبارات روتينية وحماية كافية للأمن السيبراني ولكن لا يتم التعامل مع جميع نماذج الذكاء الاصطناعي على قدم المساواة. فقد قال مطورو الذكاء الاصطناعي إن الاتحاد الأوروبي بحاجة إلى ضمان عدم فرض قيود صارمة للغاية على النماذج مفتوحة المصدر؛ والتي تكون مجانية للعامة ويمكن استخدامها لبناء تطبيقات الذكاء الاصطناعي المخصصة وتتضمن أمثلة النماذج مفتوحة المصدر «لاما» من ميتا حيث يضع الاتحاد الأوروبي بعض الاستثناءات لنماذج الذكاء الاصطناعي التوليدي مفتوحة المصدر.
ولكن للتأهل للإعفاء من القواعد يتعين على مزودي البرمجية مفتوحة المصدر جعل معاييرهم، بما في ذلك الأوزان وهندسة النموذج واستخدام النموذج، متاحة للجمهور، وتمكين الوصول إلى النموذج واستخدامه وتعديله وتوزيعه ووفقاً لقانون الذكاء الاصطناعي لن يتم احتساب النماذج مفتوحة المصدر التي تشكل مخاطر «نظامية» ضمن الإعفاء.
وفيما يتعلق بالعقوبات التى يتضمنها القانون الجديد فى حالة انتهاك بنوده فانه سيتم تغريم الشركات التي تنتهك قانون الذكاء الاصطناعي في الاتحاد الأوروبي مبلغاً يتراوح بين 35 مليون يورو (41 مليون دولار) أو 7% من إيراداتها السنوية العالمية، أيهما أعلى، إلى 7.5 مليون يورو أو 1.5% من إيراداتها السنوية العالمية ويعتمد حجم العقوبة على المخالفة وحجم الشركة التي تم تغريمها وهذا أعلى من الغرامات الممكنة بموجب اللائحة العامة لحماية البيانات، وهو قانون الخصوصية الرقمية الصارم في أوروبا.
كذلك ستواجه الشركات جرامات تصل إلى 20 مليون يورو أو 4% من إجمالي مبيعاتها السنوية في حالة انتهاك اللائحة العامة لحماية البيانات ومسؤولية الإشراف على جميع نماذج الذكاء الاصطناعي التي تندرج ضمن نطاق القانون، بما في ذلك أنظمة الذكاء الاصطناعي للأغراض العامة، تقع على عاتق مكتب الذكاء الاصطناعي الأوروبي، وهو هيئة تنظيمية أنشأتها المفوضية في فبراير 2024.
الا أنه من المهم الإشارة إلى أن القانون رغم دخوله حيز التنفيذ فإن معظم الأحكام المنصوص عليها لن تطبق فعلياً حتى عام 2026 على الأقل ولن تبدأ القيود المفروضة على الأنظمة ذات الأغراض العامة إلا بعد مرور 12 شهراً على دخول القانون حيز التنفيذ وسيتم منح أنظمة الذكاء الاصطناعي التوليدي المتاحة تجارياً في الوقت الحالي، مثل «تشات جي بي تي» وجيميناي، فترة انتقالية مدتها 36 شهراً لجعل أنظمتها متوافقة وفى نفس الوقت سيكون هذا القانون بمثابة معيار للدول التي تسعى إلى بديل للنهج الخفيف الذي تتبناه الولايات المتحدة والقواعد المؤقتة التي أقرتها الصين.
فى النهاية نؤكد أن ملامح مستقبل الذكاء الاصطناعي من الصعب جدا تحديد ملامح او توقع الى ماذا سيقود البشرية وسيظل السؤال هل ستثق الالات المزودة بتقيات الذكاء الاصطناعي تثق فى قدرة الانسان على اتخاذ القرارات السليمة أم انها ستطور نفسها لاتخاذ قرارات تراها هى الأكثر ابتكارا واكثر موائمة لما لديها من بيانات ومعلومات مخزنة فى ذاكراتها ؟