عكس " ميتا " : «جوجل» تصادق على مدونة قواعد السلوك الأوروبية للذكاء الاصطناعي

  • كتب : سارة نور الدين

     

     

    كشفت شركة «جوجل» ، العالمية للتكنولوجيا ، أنها ستوقّع على مدونة قواعد السلوك الخاصة بنماذج الذكاء الاصطناعي الخاصة بالاتحاد الأوروبي، على عكس «ميتا».

     

    وقال رئيس الشؤون العالمية في «جوجل» كينت ووكر «سننضم إلى الكثير من الشركات الأخرى، في التوقيع على مدونة قواعد السلوك الخاصة بالاتحاد الأوروبي للذكاء الاصطناعي المخصص للاستخدام العام».

     

    وسبق لشركة «أوبن أيه آي» مبتكرة «تشات جي بي تي» ولشركة «ميسترال» الفرنسية الناشئة أن أعلنتا عن توقيعهما على مدونة السلوك هذه، بينما صرحت «ميتا» (فيسبوك، إنستغرام وسواهما)، وهي من أشد منتقدي القواعد الرقمية الأوروبية، بأنها لن تفعل ذلك.

     

    ونُشرت هذه التوصيات الأوروبية في 10 يوليو، وهي تتناول أحدث نماذج الذكاء الاصطناعي، مثل «تشات جي بي تي»، وتركز بشكل خاص على قضايا حقوق النشر.

     

    ويدعو الاتحاد الأوروبي إلى استبعاد المواقع المعروفة بأعمال القرصنة المتكررة من الذكاء الاصطناعي، ويطلب من الموقعين الالتزام بالتحقق من أن نماذجهم لا تحتوي على مضامين مسيئة أو عنيفة.

     

    وصُممت هذه التوصيات لنماذج الذكاء الاصطناعي المخصصة للاستخدام العام، مثل «تشات جي بي تي» و«جروك» من منصة «إكس»، و«جيميناي» من «جوجل».

     

    واستحوذت «جروك» على اهتمام إعلامي واسع أخيراً لنشرها مواقفة متطرفة ومسيئة. واعتذرت شركة «إكس أيه آي» الناشئة المملوكة لإيلون ماسك والمسؤولة عن «جروك» عن «السلوك الفظيع» لبرنامجها المخصص للدردشة.

     

    ورغم كون هذه «المدونة» غير مُلزمة، ستستفيد الشركات الموقعة عليها من «عبء إداري مُخفّف» عند إثبات امتثالها للتشريعات الأوروبية للذكاء الاصطناعي، وفقاً لما وعدت به المفوضية الأوروبية.

     

    وأثار هذا التشريع الذي سمّيَ «قانون الذكاء الاصطناعي»، غضب شركات التكنولوجيا العملاقة، التي دعت مراراً وتكراراً إلى تأجيل تنفيذه.

     

    وكررت «جوجل» أن القواعد الأوروبية «قد تؤدي إلى إبطاء تطوير الذكاء الاصطناعي في أوروبا».

     

    لكنّ المفوضية أبقت على جدولها الزمني، إذ يبدأ التنفيذ في 2 آب/ أغسطس، ويدخل معظم المتطلبات حيز التنفيذ بعد عام.

     

    وأكدت المفوضية أنها تسعى إلى الحد من تجاوزات الذكاء الاصطناعي مع تجنب خنق الابتكار. ولهذا السبب، تُصنّف الأنظمة وفقاً لمستوى خطورتها، مع فرض قيود تتناسب مع مستوى الخطورة.

     

    وستخضع التطبيقات العالية المخاطر، المستخدمة على سبيل المثال في البنية التحتية الحيوية، والتعليم، والموارد البشرية، وإنفاذ القانون، لمتطلبات أكثر صرامة بحلول سنة 2026 قبل أي ترخيص تسويق في أوروبا.

     

     

    حمّل تطبيق Alamrakamy| عالم رقمي الآن