قالت OpenAI، إن المعلمين لن يتمكنوا أبدًا من معرفة ما إذا كان قد تم إنجاز مهمة ما باستخدام "شات جي بي تي"، ما يزيد من مشاكل المعلمين في جميع أنحاء العالم، حيث كان الطلاب يستخدمون ChatGPT وسيستمرون في استخدامه لإنجاز عملهم، حيث تقول الشركة إن أجهزة الكشف عن محتوى الذكاء الاصطناعي لم تكن قادرة على التمييز بنجاح بين المحتوى الناتج عن الذكاء الاصطناعي والمحتوى البشرى.
"بينما أصدر البعض (بما في ذلك OpenAI) أدوات تدعي اكتشاف المحتوى الذي ينشئه الذكاء الاصطناعي، لم يثبت أي منها أنه يميز بشكل موثوق بين المحتوى الذي ينشئه الذكاء الاصطناعى والمحتوى الذى ينشئه الإنسان.
بالإضافة إلى ذلك، ليس لدى ChatGPT "معرفة" بالمحتوى الذي ينشئه، يمكن أن يتم إنشاؤها بواسطة الذكاء الاصطناعى.
في بعض الأحيان، سيشكل إجابات على أسئلة مثل "هل كتبت هذا المقال؟" أو "هل يمكن أن يكون هذا مكتوبًا بواسطة الذكاء الاصطناعى؟" وقالت الشركة في صفحة الأسئلة الشائعة الخاصة بها: "هذه الإجابات عشوائية وليس لها أي أساس في الواقع".
قالت OpenAI إن أدوات مثل ChatGPT تخطئ أحيانًا في تصنيف المحتوى الذي ينشئه الإنسان على أنه من إنشاء الذكاء الاصطناعي، على سبيل المثال عندما حاولت شركة OpenAI تدريب كاشف المحتوى الناتج عن الذكاء الاصطناعي، قامت بتصنيف النص الذي ألفه البشر، مثل كتابات شكسبير وإعلان الاستقلال، على أنه من إنتاج الذكاء الاصطناعي وهذا يسلط الضوء على أوجه القصور الحالية في أجهزة كشف الذكاء الاصطناعي.
علاوة على ذلك، هناك مخاوف من أن تؤثر أجهزة الكشف هذه بشكل غير متناسب على مجموعات معينة من الطلاب، الذين يتعلمون اللغة الإنجليزية كلغة ثانية أو أولئك الذين تظهر كتاباتهم أسلوبًا موجزًا قد يكونون عرضة بشكل خاص للإيجابيات الكاذبة الناتجة عن هذه الأدوات.
حتى لو قامت أجهزة كشف الذكاء الاصطناعي بتحسين دقتها (وهذا ليس هو الحال حاليًا)، فلا يزال بإمكان الطلاب إجراء تعديلات طفيفة على محتواها لتجنب اكتشافها.
تشكل هذه القدرة على التكيف والتهرب من الاكتشاف تحديًا مستمرًا للمعلمين والمؤسسات التي تسعى إلى مكافحة العمل الأكاديمي الناتج عن الذكاء الاصطناعي.