تُعدّ تقنيات الذكاء الاصطناعي أدوات قوية ومفيدة في العديد من المجالات، لكنها لا تزال تحمل خطر ما يُعرف بـ”الهلوسات”؛ أي إنتاج معلومات أو اقتباسات أو مصادر غير حقيقية بالكامل.
وفقًا لبحث أجراه فريق من علماء OpenAi، فإن أحد الأسباب الرئيسية لهذه الظاهرة هو آلية المكافأة التي تدفع الذكاء الاصطناعي لتخمين الإجابات. لكن دراسة حديثة نُشرت في الثالث من أكتوبر على موقع arXiv.org تشير إلى أن المستخدمين أنفسهم قد يكونون جزءًا من المشكلة.
الدراسة التي جاءت بعنوان “Mind the Gap: Linguistic Divergence and Adaptation Strategies in Human-LLM Assistant vs. Human-Human Interactions” كشفت أن جزءًا كبيرًا من حالات هلوسة الذكاء الاصطناعي قد ينشأ من طريقة تفاعل المستخدمين معه.
فقد قام الباحثون بتحليل أكثر من 13 ألف محادثة بين البشر، و1,357 تفاعلًا حقيقيًا بين المستخدمين وروبوتات المحادثة. وأظهرت النتائج أن المستخدمين يكتبون بشكل مختلف تمامًا عند مخاطبة الذكاء الاصطناعي. إذ تكون رسائلهم أقصر، وأقل التزامًا بالقواعد اللغوية، وأقل تهذيبًا، وتستخدم مفردات محدودة. هذه الفروقات تؤثر في وضوح استجابة النموذج ودقته.
وركّزت الدراسة على ستة أبعاد لغوية، منها القواعد النحوية، واللباقة، وتنوّع المفردات، ومحتوى المعلومات. وتبيّن أن مستوى القواعد واللباقة كان أعلى بنسبة تزيد عن 5% و14% في المحادثات البشرية مقارنة بتلك التي تُجرى مع الذكاء الاصطناعي، بينما بقيت كمية المعلومات المنقولة متقاربة.
بمعنى آخر، ينقل المستخدمون نفس المضمون تقريبًا، لكن بأسلوب أكثر حدة وجفافًا عند التعامل مع الذكاء الاصطناعي.
وأطلق الباحثون على هذه الظاهرة اسم “تحوّل الأسلوب”، مؤكدين أن النماذج اللغوية الكبيرة مثل ChatGPT وClaude تم تدريبها في الأساس على لغات منظمة ومهذبة، وبالتالي فإن أي تغيّر مفاجئ في النبرة أو الأسلوب قد يؤدي إلى سوء فهم أو إلى اختلاق تفاصيل غير صحيحة.
وبعبارة أخرى، تزداد احتمالية الهلوسة عندما يكون أسلوب المستخدم غير واضح أو غير مهذب أو ضعيف لغويًا.
واقترح الباحثون حلولًا من جانبي الذكاء الاصطناعي والمستخدم. فمن جهة، يمكن تحسين أداء النماذج عبر تدريبها على مجموعة أوسع من الأساليب اللغوية، مما يعزز فهمها لنوايا المستخدمين بنسبة تصل إلى 3%.
كما اختبر الفريق أسلوبًا آخر يعتمد على إعادة صياغة مدخلات المستخدم تلقائيًا أثناء المحادثة، لكن هذه الطريقة قللت الدقة قليلًا بسبب فقدان بعض التفاصيل العاطفية والسياقية. لذلك، أوصى الباحثون باعتماد أسلوب التدريب القائم على “الوعي بالأسلوب” كمعيار جديد في تطوير النماذج المستقبلية.
وفي النهاية، تنصح الدراسة المستخدمين الذين يرغبون في تقليل أخطاء الذكاء الاصطناعي بالتعامل معه كما يتعاملون مع البشر، أي بكتابة جمل كاملة، واستخدام قواعد صحيحة، والحفاظ على وضوح الأسلوب ونبرة الاحترام أثناء التواصل.