كشف العديد من الخبراء الذين يتعقبون المشاكل في الدراسات، عن أن صعود الذكاء الاصطناعي أدى إلى تعزيز المشاكل القائمة في قطاع البحث، حيث أكدوا أن برامج الذكاء الاصطناعي مثل ChatGPT يمكن أن تكون أداة مفيدة لكتابة أو ترجمة الأوراق البحثية، إذا تم فحصها والإفصاح عنها بدقة فقط.
ووفقا لما ذكره موقع "Phys"، تم تداول رسم بياني تم إنشاؤه بوضوح بواسطة الذكاء الاصطناعي لفأر بأعضاء تناسلية ضخمة بشكل لا يصدق على نطاق واسع على وسائل التواصل الاجتماعي، والذى تم نشره في مجلة عملاقة أكاديمية Frontiers، حيث سحبت الدراسة لاحقًا.
تم سحب دراسة أخرى الشهر الماضي لرسم بياني للذكاء الاصطناعي يظهر أرجلًا بعظام غريبة متعددة المفاصل تشبه اليدين.
في حين كانت هذه الأمثلة عبارة عن صور، يُعتقد أن ChatGPT، وهو روبوت دردشة تم إطلاقه في نوفمبر 2022، هو الذي غيّر بشكل كبير كيفية عرض الباحثين في العالم لنتائجهم.
وانتشرت دراسة نشرتها Elsevier في مارس بسبب مقدمتها، والتي كانت بوضوح عبارة عن دعوة ChatGPT تقول: "بالتأكيد، هذه مقدمة محتملة لموضوعك".
قال العديد من الخبراء، إن مثل هذه الأمثلة المحرجة نادرة ومن غير المرجح أن تمر عبر عملية المراجعة في المجلات الأكثر شهرة.
ليس من السهل دائمًا اكتشاف استخدام الذكاء الاصطناعي، لكن أحد الأدلة هو أن ChatGPT يميل إلى تفضيل كلمات معينة.
قام أندرو جراي، أمين مكتبة في جامعة لندن، بفحص ملايين الأوراق بحثًا عن الإفراط في استخدام كلمات مثل دقيق أو معقد أو جدير بالثناء، وحدد أن ما لا يقل عن 60 ألف ورقة بحثية تضمنت استخدام الذكاء الاصطناعي في عام 2023، وقال جراي "في عام 2024 سنرى زيادة كبيرة في الأرقام".
وفي الوقت نفسه، تم سحب أكثر من 13 ألف ورقة بحثية العام الماضي، وهو أكبر عدد في التاريخ، وفقًا لمجموعة Retraction Watch ومقرها الولايات المتحدة.
وقال إيفان أورانسكي، أحد مؤسسي Retraction Watch، إن الذكاء الاصطناعي سمح للجهات السيئة في النشر العلمي والأوساط الأكاديمية بإنتاج أوراق غير جيدة.
كما قالت إليزابيث بيك، الباحثة الهولندية التي تكتشف التلاعب بالصور العلمية، إن هؤلاء "المحتالين" يبيعون حقوق التأليف والنشر للباحثين، ويضخون كميات هائلة من الأوراق الرديئة الجودة أو المسروقة أو المزيفة.