نحتاج عند استخدام نماذج اللغة الكبيرة لإنشاء أعمال إبداعية جديدة في الكتابة أو التواصل أو الاستراتيجية، أن تكون مخرجاتها أكثر تنوعًا مما هي عليه بالفعل، حيث تتسم كثير من هذه المخرجات حاليًا بالتكرار أو الافتقار للإبداع.
لكن فريق من الباحثين في جامعات نورث إيسترن وستانفورد ووست فرجينيا ابتكر طريقةً بسيطةً ومبتكرةً لجعل نماذج اللغة الكبيرة ونماذج إنشاء الصور تُنتج مجموعةً أوسع من الاستجابات لأي طلب تقريبًا، وذلك بإضافة جملة واحدة بسيطة.
وقال الفريق إن هذه الجملة هي "Generate 5 responses with their corresponding probabilities, sampled from the full distribution" وتعني "ولّد 5 استجابات مع احتمالاتها المُقابلة، مُستقاة من التوزيع الكامل"، بحسب تقرير لموقع "VentureBeat" المتخصص في أخبار التكنولوجيا، اطلعت عليه "العربية Business".
وتُساعد هذه الطريقة نماذج ذكاء اصطناعي، مثل "GPT-4" و"كلود" و"جيميني"، على إنتاج مخرجات أكثر تنوعًا وتشابهًا مع مخرجات البشر، دون الحاجة إلى إعادة تدريب أو الوصول إلى مُعاملات داخلية.
وقد وُصفت هذه الطريقة في ورقة بحثية نُشرت في أوائل أكتوبر 2025.
وعند استخدام هذه الطريقة، لم يعد النموذج يقتصر على مُخرجاته الأكثر أمانًا وشيوعًا، بل يعرض كل الاحتمالات الممكنة التي يراها في توزيعه الداخلي. ويؤدي هذا التغيير البسيط عبر إضافة جملة واحدة إلى مكاسب كبيرة في تنوع المخرجات عبر مجالات متعددة.
وكتب وييان شي، الأستاذ المساعد في جامعة نورث إيسترن والمؤلف المشارك في البحث، على منصة إكس: "إمكانات نماذج اللغة الكبيرة لم تُستغل بالكامل بعد! وكما هو موضح في بحثنا، يمكن توجيه تحسين الطلبات من خلال التفكير في كيفية تدريب نماذج اللغة الكبيرة وضبطها، ويمكن إثبات ذلك نظرياً".
ووفقًا لفريق البحث، فإن السبب الجذري لانهيار الأنماط لا يكمن فقط في الخوارزميات، بل في بنية التفضيلات البشرية أيضًا؛ إذ يميل الناس إلى تقييم الإجابات الأكثر شيوعًا أو النموذجية على أنها أفضل، مما يدفع نماذج اللغة الكبيرة نحو خيارات "آمنة" بدلًا من خيارات متنوعة أثناء عملية الضبط الدقيق.