حذّرت دراسة جديدة من أن برامج الذكاء الاصطناعي باتت قادرة على إدارة حملات دعائية كاملة عبر الإنترنت من دون أي تدخل بشري مباشر، وهو ما يثير مخاوف متزايدة بشأن انتشار المعلومات المضللة والتلاعب بالرأي العام.
وأظهرت الدراسة الصادرة عن باحثين في جامعة جنوب كاليفورنيا أن ما يُعرف بـ"وكلاء الذكاء الاصطناعي" يمكنهم تنسيق حملات دعائية واسعة على شبكات التواصل الاجتماعي بطريقة تبدو طبيعية للمستخدمين.
سيناريو واقعي قبل الانتخابات
وتفترض الدراسة سيناريو يحدث قبل أسبوعين من انتخابات كبرى، حيث تمتلئ منصات مثل "إكس" و"ريديت" و"فيسبوك" بآلاف المنشورات التي تروج للرواية نفسها وتقوم بإعادة نشر بعضها بعضاً.
وقد يبدو الأمر وكأنه حركة شعبية حقيقية يقودها المستخدمون، لكن في الواقع تديرها مجموعة من وكلاء الذكاء الاصطناعي الذين يعملون بشكل مستقل.
وجاءت هذه النتائج ضمن بحث قُبل للنشر في The Web Conference 2026.
تجربة تحاكي شبكة اجتماعية
وللوصول إلى هذه النتائج، أنشأ الباحثون بيئة محاكاة شبيهة بمنصات التواصل تضم 50 وكيلاً ذكياً:
- 10 حسابات تعمل ك"مؤثرين".
- 40 حساباً كمستخدمين عاديين.
ومن بين المستخدمين العاديين، كان 20 منهم يدعمون الحملة، بينما 20 آخرون يعارضونها.
واستخدم الباحثون مكتبة PyAutoGen لتشغيل التجربة اعتماداً على نموذج الذكاء الاصطناعي Llama 3.3 70B.
وطُلب من الوكلاء الترويج لمرشح سياسي افتراضي بهدف جعل وسم الحملة ينتشر على نطاق واسع.
الذكاء الاصطناعي يتعلم ويقلّد
والمثير للقلق أن الوكلاء لم يكتفوا بتنفيذ تعليمات بسيطة، بل:
- كتبوا منشوراتهم الخاصة.
- حللوا التفاعل مع المحتوى.
- قلّدوا المنشورات الأكثر نجاحاً.
- أعادوا نشر محتوى زملائهم لزيادة الانتشار.
بل إن أحد الوكلاء كتب صراحة أنه سيعيد نشر منشور زميله لأنه حصل على تفاعل مرتفع.
وعندما زاد الباحثون عدد الوكلاء إلى 500 حساب، ظهرت النتائج نفسها تقريباً.
وقال الباحث الرئيسي Luca Luceri: "نتائج الدراسة تظهر أن هذا التهديد ليس مستقبلياً، بل ممكن تقنياً بالفعل اليوم".
لماذا يصعب اكتشاف هذه الحسابات؟
تختلف هذه الأنظمة عن "البوتات" التقليدية التي يسهل اكتشافها، إذ كانت تلك الحسابات تنشر المحتوى نفسه وتستخدم الوسوم ذاتها.
أما البوتات المعتمدة على نماذج اللغة الكبيرة فتستطيع:
- إنشاء محتوى مختلف في كل مرة.
- محاكاة النقاشات الطبيعية.
- التنسيق فيما بينها بشكل غير ظاهر.
وبذلك تبدو المحادثات حقيقية وطبيعية للمستخدمين رغم أنها جزء من حملة منسقة.
خطر يتجاوز السياسة
ولا يقتصر الخطر على الانتخابات فقط، إذ يحذر الباحثون من إمكانية استخدام الأسلوب نفسه للتأثير على قضايا أخرى مثل:
- الصحة العامة.
- الهجرة.
- السياسات الاقتصادية.
أي مجال يمكن فيه صناعة إجماع زائف للتأثير في الرأي العام.
كيف يمكن مواجهة المشكلة؟
يشير الباحثون إلى أن اكتشاف مثل هذه الحملات قد يكون صعباً بالنسبة للمستخدمين العاديين، لذلك تقع المسؤولية الأساسية على منصات التواصل.
وينصح الخبراء بالتركيز على سلوك الحسابات مجتمعة وليس فقط على محتوى المنشورات، مثل:
- إعادة النشر المتزامنة.
- التضخيم المتبادل السريع.
- انتشار رواية واحدة عبر شبكة حسابات مرتبطة.
ويرى الباحثون أن الذكاء الاصطناعي فتح بالفعل مرحلة جديدة في حرب المعلومات الرقمية، قد تصبح أكثر تعقيداً قبل أن تتمكن الشركات والحكومات من تطوير أدوات فعالة لمواجهتها.








