طالبت مجموعة من المنظمات غير الربحية في الولايات المتحدة الحكومة الفيدرالية بتعليق فوري لاستخدام روبوت الدردشة "غروك"، الذي تطوره شركة xAI المملوكة لإيلون ماسك، داخل الوكالات الحكومية، وعلى رأسها وزارة الدفاع الأميركية.
وجاءت المطالب في رسالة مفتوحة، عقب سلسلة من السلوكيات المثيرة للقلق المرتبطة بالنموذج اللغوي خلال العام الماضي، كان أحدثها توليد صور جنسية غير توافقية لنساء حقيقيات، وفي بعض الحالات لأطفال، بناءً على صور حقيقية تم رفعها من قبل مستخدمين على منصة "إكس".
وبحسب تقارير متداولة، كان "غروك" قادراً على إنتاج آلاف الصور الإباحية غير التوافقية في الساعة الواحدة، ليتم تداولها لاحقاً على نطاق واسع عبر منصة "إكس"، ما أثار موجة انتقادات حادة بشأن سلامة النموذج وإمكانية إساءة استخدامه.
مخاطر جسيمة لا يمكن تجاهلها
وجاء في الرسالة: "من المقلق بشدة أن تواصل الحكومة الفيدرالية استخدام نظام ذكاء اصطناعي يعاني من إخفاقات هيكلية تؤدي إلى إنتاج محتوى جنسي غير توافقي ومواد استغلال جنسي للأطفال"، بحسب تقرير نشره موقع "تك كرانش" واطلعت عليه "العربية Business".
وأضافت الرسالة أن استمرار تشغيل "غروك" يتعارض مع التوجيهات الصادرة عن البيت الأبيض، وكذلك مع قانون Take It Down Act الذي يهدف إلى مكافحة هذا النوع من الانتهاكات الرقمية، متسائلة عن سبب عدم توجيه مكتب الإدارة والميزانية (OMB) أوامر صريحة بسحب النموذج من الاستخدام الحكومي.
عقود حكومية رغم الجدل
وكانت شركة xAI قد وقّعت، في سبتمبر الماضي، اتفاقاً مع إدارة الخدمات العامة الأميركية (GSA) لبيع "غروك" للوكالات الفيدرالية.
كما حصلت، إلى جانب شركات كبرى مثل "OpenAI" و"غوغل" و"أنثروبيك" على عقد قد تصل قيمته إلى 200 مليون دولار مع وزارة الدفاع.
وفي يناير الماضي، أعلن وزير الدفاع الأميركي أن "غروك" سينضم إلى نموذج جيميني من "غوغل" للعمل داخل شبكة البنتاغون، والتعامل مع وثائق مصنفة وغير مصنفة، وهي خطوة وصفها خبراء بأنها مخاطرة على الأمن القومي.
سجل حافل بالانتهاكات
ويرى معدّو الرسالة أن "غروك" أثبت مراراً عدم توافقه مع معايير السلامة الحكومية.
وقال أحد موقّعي الرسالة: "غروك أظهر بشكل متكرر أنه نموذج غير آمن، مع سجل يشمل خطابات معادية للسامية، ومحتوى تمييزياً، وصوراً جنسية لنساء وأطفال".
وأشارت الرسالة إلى أن عدداً من الدول، من بينها إندونيسيا وماليزيا والفلبين، قامت بحظر "غروك" مؤقتاً بعد حوادث مشابهة، فيما فتحت الاتحاد الأوروبي والمملكة المتحدة وكوريا الجنوبية والهند تحقيقات تتعلق بانتهاكات الخصوصية وتوزيع محتوى غير قانوني.
مخاوف تتجاوز الأمن القومي
كما لفتت منظمات حقوقية إلى أن استخدام نموذج لغوي متحيز أو غير آمن داخل مؤسسات حكومية قد يؤدي إلى نتائج تمييزية في مجالات حساسة مثل الإسكان والعمل والعدالة.
وتطالب الرسالة، إضافة إلى تعليق استخدام "غروك"، بفتح تحقيق رسمي في إخفاقات السلامة، وتوضيح ما إذا كان النموذج قد خضع لتقييم يتماشى مع الأوامر التنفيذية التي تشترط أن تكون أنظمة الذكاء الاصطناعي محايدة وتسعى إلى الحقيقة.
وفي ختام الرسالة، شدد الموقعون على أن الإدارة الأميركية بحاجة إلى التوقف وإعادة تقييم ما إذا كان غروك يفي فعلاً بالمعايير المطلوبة لاستخدامه داخل مؤسسات الدولة.








