منع تقنيات تستخدم في التشغيل الذاتي للأسلحة

  •  

    في تطور لافت بساحة الذكاء الاصطناعي في واشنطن، كشفت شركة OpenAI تفاصيل إضافية حول اتفاقها الأخير مع وزارة الدفاع الأميركية وذلك بعد جدل واسع أعقب فشل مفاوضات بين البنتاغون وشركة أنثروبيك.

    الرئيس التنفيذي للشركة سام ألتمان أقرّ بأن الاتفاق تم على عجل، معترفاً بأن "الانطباع العام لا يبدو جيداً"، في إشارة إلى الانتقادات التي طالت الشركة عقب الإعلان المفاجئ.

    خلفية الأزمة

    بدأت القصة عندما تعثرت مفاوضات "أنثروبيك" مع وزارة الدفاع الأميركية، ما دفع الرئيس الأميركي دونالد ترامب إلى توجيه الوكالات الفيدرالية بوقف استخدام تقنيات الشركة خلال فترة انتقالية تمتد ستة أشهر.

    كما أعلن وزير الدفاع تصنيف الشركة كمخاطر محتملة على سلاسل الإمداد، بحسب تقرير نشره موقع "تك كرانش" واطلعت عليه "العربية Business".

     

    وبينما شددت "أنثروبيك" على وضع خطوط حمراء تمنع استخدام تقنياتها في الأسلحة ذاتية التشغيل بالكامل أو في أنظمة المراقبة الداخلية واسعة النطاق، سارعت "OpenAI" إلى الإعلان عن اتفاق لنشر نماذجها في بيئات مصنفة سرّية.

    خطوط حمراء مماثلة

    في محاولة لاحتواء الجدل، نشرت "OpenAI" تدوينة توضح فيها الضوابط التي تحكم الاتفاق، مؤكدة أن نماذجها لا يمكن استخدامها في ثلاث حالات رئيسية:

    المراقبة الداخلية الجماعية.

    أنظمة الأسلحة الذاتية بالكامل.

    القرارات الآلية عالية الخطورة (مثل أنظمة الائتمان الاجتماعي).

    وأكدت الشركة أنها تعتمد نهجاً متعدد الطبقات لحماية هذه الخطوط الحمراء، مشيرة إلى أنها تحتفظ بالتحكم الكامل في منظومة الأمان الخاصة بها، وأن عمليات النشر تتم عبر واجهات سحابية (Cloud API)، مع إشراك موظفين معتمدين أمنياً، إلى جانب ضمانات تعاقدية قوية.

    وأضافت أن هذه الضمانات تأتي فوق ما يفرضه القانون الأميركي من قيود تنظيمية.

    اتهامات بالمراقبة

    رغم ذلك، لم تهدأ الانتقادات. فقد اعتبر الكاتب التقني مايك ماسنيك أن الاتفاق قد يسمح فعلياً بالمراقبة الداخلية، مستنداً إلى الإشارة في العقد إلى الامتثال للأمر التنفيذي 12333، وهو إطار قانوني لطالما أثار جدلاً بشأن أنشطة جمع البيانات خارج الولايات المتحدة.

    من جانبها، دافعت كاترينا موليجان، المسؤولة عن شراكات الأمن القومي في "OpenAI"، عن الاتفاق، معتبرة أن النقاش الدائر يختزل القضية في بند تعاقدي واحد، بينما الواقع – بحسب قولها – يتعلق بهندسة النشر التقنية أكثر من صياغة البنود.

    وأوضحت أن حصر استخدام النماذج عبر واجهات سحابية يمنع دمجها مباشرة في أنظمة الأسلحة أو أجهزة الاستشعار أو العتاد العسكري التشغيلي.

    لماذا استعجلت "OpenAI"؟

    على منصة "إكس"، واجه ألتمان أسئلة مباشرة حول دوافع الشركة، خصوصاً بعد أن تفوق روبوت كلود التابع ل "أنثروبيك" على تشات جي بي تي في تصنيفات متجر تطبيقات Apple App Store لفترة وجيزة، ما عُد مؤشراً على تزايد التعاطف مع المنافس.

    ألتمان برر الخطوة بالرغبة في "خفض التصعيد" بين وزارة الدفاع وقطاع الذكاء الاصطناعي، معتبراً أن الاتفاق قد يُنظر إليه لاحقاً على أنه خطوة جريئة لتحمل تبعات سياسية بهدف حماية الصناعة ككل.

    وأضاف أن الحكم النهائي سيتوقف على النتائج: فإذا ساهم الاتفاق في تهدئة التوتر بين الحكومة وشركات الذكاء الاصطناعي، فستُسجل الخطوة كتحرك استراتيجي ذكي. أما إذا لم يتحقق ذلك، فستبقى الشركة في مرمى الاتهامات بالتسرع وقلة الحذر.

    وبين هذا وذاك، يبدو أن العلاقة بين شركات الذكاء الاصطناعي والمؤسسة العسكرية الأميركية دخلت مرحلة جديدة، عنوانها: توازن دقيق بين الأمن القومي والضوابط الأخلاقية.

    حمّل تطبيق Alamrakamy| عالم رقمي الآن