مع تزايد المخاوف : الإدارة الأميركية تدرس المخاطر المحتملة لـ ChatGPT

  • كتب :  رشا حسين

     

     

    بدأت الإدارة الأميركية في النظر إلى ما إذا كانت هناك حاجة لإجراء فحوصات، على أدوات الذكاء الاصطناعي مثل ChatGPT، وسط مخاوف متزايدة من إمكانية استخدام التكنولوجيا للتمييز أو نشر المعلومات الضارة.

     

    وفي خطوة أولى نحو التنظيم المحتمل، قدمت وزارة التجارة الأميركية يوم الثلاثاء، طلباً عاماً رسمياً للتعليق على ماوصفته بإجراءات المساءلة، بما في ذلك ما إذا كانت نماذج الذكاء الاصطناعي الجديدة التي يحتمل أن تكون محفوفة بالمخاطر ويجب أن تخضع لعملية اعتماد قبل إصدارها.

     

    ويأتي إجراء الإدارة الأميركية، وسط طفرة في استخدام أدوات الذكاء الاصطناعي، التي يمكن أن تنتج بشكل سريع نصا وصورا ومقاطع فيديو والمزيد.

     

    وقدر بعض المحللين أن ChatGPT، روبوت الدردشة المطور من شركة OpenAI والمدعوم من شركة مايكروسوفت كروب، قد وصل إلى 100 مليون مستخدم، كأسرع من أي تطبيق استهلاكي في التاريخ.

    وقال آلآن ديفيدسون الذي يقود الإدارة الوطنية للاتصالات والمعلومات، أن ما فعلته هذه الأدوات في بدايتها يعتبر أمرا مدهشا، مشيراً إلى وجود حاجة لوضع بعض حواجز الحماية، للتأكد من أنها تستخدم بطريقة مسؤولة.

    وقال ديفيدسون، إن التعليقات التي سيتم قبولها خلال الـ 60 يوماً القادمة، ستستخدم للمساعدة في صياغة المشورة لصانعي السياسية الأميركية، حول كيفية التعامل مع الذكاء الاصطناعي، وأوضح أن التفويض القانوني لوكالته يتضمن تقديم المشورة للإدارة الأميركية بشأن سياسة التكنولوجيا.

     

    أعرب مسؤولو الصناعة والحكومة، عن قلقهم بشأن مجموعة من الأضرار المحتملة للذكاء الاصطناعي، بما في ذلك استخدام التكنولوجيا لارتكاب جرائم أو نشر الأكاذيب.

     

    وكانت سلامة الأطفال على رأس أولويات السؤناتور مايكل بينيت، عندما كتب الشهر الماضي إلى العديد من شركات الذكاء الاصطناعي، حيث استفسر عن التجارب العامة التي قدم فيها روبوتات المحادثة نصائح مزعجة للمستخدمين، الذين يتظاهرون بأنهم صغار السن.

     

    ومؤخراً دعا العديد من قادة التكنولوجيا بما في ذلك الرئيس التنفيذي لشركتي تويتر وتسلا، إيلون ماسك، إلى التوقف لمدة ستة أشهر لتطوير أدوات الذكاء الاصطناعي، التي تفوق GPT-4 وهو إصدار من روبوت الدردشة التابع لشركة OpenAI، الذي تم إصداره منذ حوالي شهر.

     

    وحذر قادة التكنولوجيا من وجود سباق بين الشركات المنافسة دون إدارة وتخطيط كافيين بشأن المخاطر المحتملة.

     

    وناقش الرئيس الأميركي جو بايدن الأمر مع مجلس استشاري من العلماء في البيت الأبيض الأسبوع الماضي، ورداً على سؤال من أحد المراسلين عما إذا كانت التكنولوجيا خطيرة ، قال بايدن: "لم يتضح بعد. يمكن ان تكون."

     

    وكان من بين أعضاء المجموعة الاستشارية، ممثلون عن مايكروسوفت وغوغل، حيث أكدوا إلى جانب شركات أخرى تطلق أنظمة ذكاء اصطناعي، أنهم يقومون باستمرار بتحديث حواجز الأمان، مثل برمجة برامج الدردشة حتى لا تجيب على أسئلة معينة.

     

    وقالت شركة OpenAI في مدونة حديثة: "نعتقد أن أنظمة الذكاء الاصطناعي القوية يجب أن تخضع لتقييم سلامة صارم". "التنظيم مطلوب لضمان اعتماد مثل هذه الممارسات، ونحن نشارك بنشاط مع الحكومات بشأن أفضل شكل يمكن أن يتخذه هذا التنظيم".

     

    وفي غياب قانون اتحادي يركز على أنظمة الذكاء الاصطناعي، استخدمت بعض الوكالات الحكومية سلطات قانونية أخرى.

     

    وقام منظمو القطاع المالي بالتحقيق في كيفية استخدام المقرضين للذكاء الاصطناعي للاكتتاب في القروض، مع التركيز على منع التمييز ضد مجموعات الأقليات.

    وقال قسم مكافحة الاحتكار بوزارة العدل إنه يراقب المنافسة في هذا القطاع، بينما حذرت لجنة التجارة الفيدرالية الشركات، من أنها قد تواجه عواقب قانونية لتقديم ادعاءات كاذبة أو لا أساس لها بشأن منتجات الذكاء الاصطناعي.

     

    في وثيقة التعليق العام الصادرة يوم الثلاثاء، سألت الوكالة الاستشارية التقنية الفيدرالية، عما إذا كان ينبغي إضافة تدابير لضمان ثقة الجمهور في أنظمة الذكاء الاصطناعي، مثل "شهادات ضمان الجودة".

     

    وتساءلت الوثيقة عما إذا كان ينبغي تطبيق قوانين أو لوائح جديدة، لكنها لم تورد تفاصيل الأضرار المحتملة أو المصادقة على أي ضمانات محددة.

     

     

     



    حمّل تطبيق Alamrakamy| عالم رقمي الآن