- استقال ديف ويلنر، رئيس قسم الثقة والأمان في OpenAI، الشركة التي تعمل وراء ChatGPT، عن منصبه بالشركة حيث تواجه صناعة الذكاء الاصطناعي مزيدًا من التدقيق حول الخصوصية والأمان، ويعمل ويلنر في الثقة والأمان منذ ما يقرب من عقد من الزمان، فقبل الانضمام إلى OpenAI، كان ويلنر رئيسًا للثقة والأمان في شركة Otter الناشئة لرعاية الأطفال، وقاد سياسة الثقة والمجتمع في Airbnb.
أطلقت لجنة التجارة الفيدرالية (FTC) تحقيقًا في OpenAI الأسبوع الماضي لتحديد ما إذا كانت أساليب جمع بيانات التدريب لديها تنتهك حقوق المستهلك.
كما أعربت لجنة الأوراق المالية والبورصات عن قلقها من أن نماذج الذكاء الاصطناعي الكبيرة يمكن أن تركز البيانات واتخاذ القرار في مجال التمويل، مما يؤدي إلى نوع من التفكير الجماعي يشبه الأحداث التي سبقت الأزمة المالية لعام 2008.
وقعت شركة OpenAI و Meta و Microsoft وغيرها من الأسماء الكبيرة في مجال الذكاء الاصطناعي التزامًا مع البيت الأبيض هذا الأسبوع للاستثمار في أبحاث الأمن والتمييز ونظام علامة مائية جديد لتحديد المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي.
كان سام ألتمان، الرئيس التنفيذي لشركة OpenAI، صريحًا بشأن لوائح الذكاء الاصطناعي، داعيًا الكونجرس إلى سن سياسات، وكما ذكرت بلومبرج، فقد دعم مبادرة لطلب تراخيص لتطوير نماذج قوية للذكاء الاصطناعي.