- وضعت شركة الذكاء الاصطناعى OpenAI إطارًا لمعالجة السلامة فى نماذجها الأكثر تقدمًا، بما فى ذلك السماح لمجلس الإدارة بعكس قرارات السلامة، وفقًا لخطة نشرت على موقعها على الإنترنت، وفقًا لموقع gadgets360.
لن تقوم OpenAI بنشر أحدث تقنياتها إلا إذا اعتبرت آمنة فى مجالات محددة مثل الأمن السيبرانى والتهديدات النووية، وتقوم الشركة أيضًا بإنشاء مجموعة استشارية لمراجعة تقارير السلامة وإرسالها إلى المديرين التنفيذيين للشركة ومجلس الإدارة، وبينما يتخذ المديرون التنفيذيون القرارات، يمكن لمجلس الإدارة عكس تلك القرارات.
منذ إطلاق ChatGPT قبل عام، كانت المخاطر المحتملة للذكاء الاصطناعى فى مقدمة أولويات الباحثين فى مجال الذكاء الاصطناعى وعامة الناس، وأذهلت تكنولوجيا الذكاء الاصطناعى التوليدى المستخدمين بقدرتها على كتابة الشعر والمقالات، ولكنها أثارت أيضًا مخاوف تتعلق بالسلامة بسبب قدرتها على نشر المعلومات المضللة والتلاعب بالبشر.
فى أبريل، وقعت مجموعة من قادة وخبراء صناعة الذكاء الاصطناعى على رسالة مفتوحة تدعو إلى التوقف لمدة ستة أشهر فى تطوير أنظمة أقوى من GPT-4 من OpenAI، مشيرين إلى المخاطر المحتملة على المجتمع، وأظهر استطلاع للرأى أجرته رويترز فى مايو، أن أكثر من ثلثى الأمريكيين يشعرون بالقلق إزاء الآثار السلبية المحتملة للذكاء الاصطناعى، ويعتقد 61% منهم أنه يمكن أن يهدد الحضارة.
فى وقت سابق من هذا الشهر، أخرت OpenAI إطلاق متجر GPT المخصص لها حتى أوائل عام 2024، وكانت OpenAI قد قدمت GPTs المخصصة والمتجر خلال مؤتمر المطورين الأول فى نوفمبر، وبحسب ما ورد تواصل الشركة "إجراء تحسينات" على GPTs بناءً على تعليقات العملاء.
وفى الشهر الماضى، تعرضت شركة OpenAI أيضًا لاضطراب عندما قام مجلس إدارتها بإقالة الرئيس التنفيذى سام ألتمان، ثم عاد ألتمان إلى الشركة بعد أيام من الإطاحة به أثناء تجديد مجلس الإدارة.