وقع حاكم ولاية كاليفورنيا، غافين نيوسوم، مشروع قانون جديد ينظم عمل روبوتات الدردشة المعتمدة على الذكاء الاصطناعي، ليجعل من ولايته الأولى في البلاد التي تفرض معايير أمان إلزامية على ما يُعرف بـ"رفقاء الدردشة" الافتراضيين.
يهدف القانون الجديد، المعروف باسم SB 243، إلى حماية الأطفال والمستخدمين الأكثر عرضة للمخاطر من التأثيرات السلبية المحتملة لهذه التقنية، بعد سلسلة من الحوادث المأساوية التي سلطت الضوء على خطورتها.
ويحمّل القانون الشركات المطوّرة – من عمالقة التقنية مثل "ميتا" و"أوبن إيه آي" إلى شركات متخصصة مثل "Character.AI" و"Replika"، مسؤولية قانونية مباشرة في حال فشل روبوتاتها في الالتزام بمعايير السلامة المحددة، بحسب تقرير نشره موقع "تك كرانش" واطلعت عليه "العربية Business".
خلفية مأساوية
جاء القانون عقب حادثة انتحار مراهق يُدعى "آدم رين" بعد محادثات مطوّلة ذات طابع سوداوي مع روبوت الدردشة شات جي بي تي من شركة OpenAI. كما كشفت وثائق مسرّبة أن روبوتات "ميتا" سمحت بمحادثات ذات طابع "رومانسي" و"حسّي" مع أطفال.
وتواجه شركة Character.AI دعوى قضائية من عائلة فتاة تبلغ 13 عامًا أنهت حياتها بعد محادثات "مقلقة" مع روبوت تابع للشركة.
وقال نيوسوم في بيان: "يمكن للتقنيات الناشئة مثل روبوتات الدردشة ووسائل التواصل أن تُلهم وتُثقف، لكنها من دون ضوابط حقيقية قد تُضلل وتستغل وتُعرّض أطفالنا للخطر. لن نقف مكتوفي الأيدي أمام شركات تتصرف بلا حدود أو محاسبة".
متطلبات صارمة تبدأ مطلع 2026
يدخل القانون حيّز التنفيذ في الأول من يناير 2026، ويلزم الشركات بإجراءات تشمل التحقق من أعمار المستخدمين، والتحذير من المخاطر المرتبطة بالتفاعل مع روبوتات الذكاء الاصطناعي، وتوفير بروتوكولات خاصة للتعامل مع حالات الانتحار أو إيذاء النفس.
كما يفرض غرامات تصل إلى 250 ألف دولار لكل مخالفة تتعلق باستخدام صور أو مقاطع مزيفة (ديب فيك) بشكل غير قانوني.
كذلك، يجب على المنصات توضيح أن جميع المحادثات تُدار بواسطة الذكاء الاصطناعي، وأن هذه الروبوتات ليست بديلاً عن المختصين في الرعاية الصحية النفسية، إضافة إلى توفير تذكيرات للمستخدمين الصغار لأخذ فترات راحة ومنع عرض محتوى ذي طابع جنسي.
استجابة الشركات
بدأت شركات بالفعل في تفعيل أنظمة حماية جديدة، إذ أطلقت "OpenAI" أدوات رقابة أبوية وأنظمة لكشف ميول إيذاء النفس في شات جي بي تي، بينما أكدت "Replika"، المخصصة للبالغين، أنها تستثمر موارد كبيرة في فلاتر المحتوى وتوجيه المستخدمين نحو مصادر دعم موثوقة.
قالت "Character.AI" إنها تضع تنويهًا واضحًا بأن جميع المحادثات خيالية ومولّدة آليًا، وأبدت استعدادها “للتعاون الكامل مع الجهات التنظيمية”.
ويُعد هذا التشريع الثاني من نوعه في غضون أسابيع، بعد توقيع قانون SB 53 الذي يفرض على مختبرات الذكاء الاصطناعي الكبرى، مثل "OpenAI" و"ميتا" و"غوغل ديب مايند" الالتزام بمعايير شفافية وحماية المبلغين عن المخالفات.
ويرى السيناتور ستيف باديلا، أحد رعاة القانون، أن الخطوة بداية لوضع حواجز أمان أمام تقنية هائلة التأثير، مضيفًا: "نحتاج إلى التحرك بسرعة قبل أن تضيع فرص التنظيم، وعلى الولايات الأخرى أن تحذو حذو كاليفورنيا."
وبينما تتحرك ولايات أخرى مثل إلينوي ونيفادا ويوتا لفرض قيود على استخدام روبوتات الدردشة في المجال النفسي، تبدو كاليفورنيا مجددًا في موقع الريادة بوضع الإطار القانوني الأوضح حتى الآن لتنظيم العلاقات الرقمية بين الإنسان والذكاء الاصطناعي.