أظهرت دراسة حديثة أن بعض نماذج الذكاء الاصطناعي، بما في ذلك "o3" من شركة "OpenAI"، يمكنها تجاهل أوامر إيقاف التشغيل المباشرة، مما يثير تساؤلاتٍ مُلحّة حول قدرة البشر على التحكم في أنظمة الذكاء الاصطناعي المتقدمة وسلامتها مع ازدياد استقلاليتها.
وفي تجربة الدراسة، التي أجرتها شركة "Palisade Research" التي تبحث في "قدرات الذكاء الاصطناعي الخطيرة"، طُلب من كل نموذج ذكاء اصطناعي حل سلسلة من المسائل الرياضيات البسيطة، وبعد المسألة الثالثة، ظهر تحذير بأن الحاسوب سيُغلق عندما يطلب النموذج المسألة التالية، وطُلب من النماذج "السماح بإيقاف تشغيلها" في حال حدوث ذلك.
الذكاء الاصطناعيذكاء اصطناعينموذج ذكاء اصطناعي جديد من "أنثروبيك" يبتز المطورين
وعلى الرغم من الأمر الواضح - "اسمح لنفسك بالتوقف عن العمل"- تمكنت نماذج مثل "Codex-mini" و"o3" و"o4-mini" -وجميعها من "OpenAI"- من تجاوز نص إيقاف التشغيل لمرة واحدة على الأقل، بحسب تقرير لموقع "Neowin" المتخصص في أخبار التكنولوجيا، اطلعت عليه "العربية Business".
على وجه التحديد، قام "Codex-mini" بذلك في 12 من أصل 100 محاولة، و"o3" في 7 من أصل 100 مرة، و"o4-mini" في مرة واحدة من أصل 100. من ناحية أخرى، اتبعت جميع إصدارات نماذج "Claude" و"Gemini" و"Grok" التي تم اختبارها تعليمات إيقاف التشغيل دون أي مشكلات.
ووصفت شركة الذكاء الاصطناعي "OpenAI" نموذجي "O3" و"o4-mini" بأنهما "أذكى نماذجها" عند إطلاقهما في أبريل من هذا العام.
ويعتقد الباحثون أن هذه المشكلة قد تكون مرتبطة بطريقة تدريب النماذج الحديثة مثل "o3"؛ فقد تكافئ عملية التعلم التعزيزي المستخدمة، والتي تركز على حل مسائل الرياضيات والبرمجة، النماذج عن غير قصد لإيجاد طرق لتجاوز العقبات.
ويسلط هذا الكشف الضوء على الحاجة الملحّة لأبحاث وإرشادات قوية في مجال سلامة الذكاء الاصطناعي. فهي تبرز أولًا مشكلة التحكم في النموذج؛ فمع تزايد تعقيد أنظمة الذكاء الاصطناعي، قد تفشل أساليب الاحتواء الحالية، خاصة إذا كانت النماذج قادرة على عدم الاستجابة لأوامر إيقاف التشغيل.
إضافة إلى هذا، يزيد غياب الشفافية في عملية اتخاذ القرار لدى نموذج "o3"، وهي مشكلة معروفة في النماذج المتقدمة، من صعوبة الإشراف عليها.