بقلم : لورا بيترون
المحللة الرئيسية لفريق الاستخبارات المواضيعية في " جلوبال داتا "
يمكن لمخاطر الذكاء الاصطناعي (AI) أن تشوه سمعة الشركة بشكل خطير. تتراوح المشكلات المحتملة من انتهاك حقوق الطبع والنشر إلى انتهاكات خصوصية البيانات وخطر الضرر المادي الفعلي. كما أن زيادة استخدام الذكاء الاصطناعي ستعزز وتفاقم العديد من أكبر التحديات التي تواجه المجتمع، بما في ذلك التحيز والتمييز والمعلومات المضللة وغيرها من الأضرار عبر الإنترنت. وبالتالي ، لمساعدة الشركات على تنفيذ الذكاء الاصطناعي بمسؤولية وأمان ، تم تطوير إطار من قبلالبيانات العالميةشركة رائدة في مجال البيانات والتحليلات.
تواجه الشركات التي تفشل في اعتماد أعلى معايير حوكمة الذكاء الاصطناعي مخاطر كبيرة على السمعة والمالية. على سبيل المثال ، في عام 2024 ، اضطرت Google إلى حظر نموذج توليد صور الذكاء الاصطناعي الجديد مؤقتًا بعد أن صورت جنود الحرب العالمية الثانية الألمان بشكل غير دقيق على أنهم أشخاص ملونون. في عام 2023 ، دفعت iTutor Group 365،000 دولار لتسوية دعوى قضائية بعد أن رفض برنامج التوظيف الذي يعمل بالذكاء الاصطناعي المتقدمين تلقائيًا بناءً على العمر.
إطار حوكمة الذكاء الاصطناعي للبيانات العالمية هي أداة إدارية تساعد كبار المديرين التنفيذيين على تحديد مخاطر الذكاء الاصطناعي المحتملة ضمن خمسة تصنيفات واسعة:
إن الرحلة نحو الذكاء الاصطناعي المسؤول معقدة ومحفوفة بعدم اليقين. يمكن أن تنشأ المخاطر من مصادر مختلفة وتتكاثر مع تنفيذ أنظمة الذكاء الاصطناعي. سيكون للشركات التي تستثمر في الذكاء الاصطناعي المسؤول في وقت مبكر ميزة على منافسيها. لا يمكنهم إظهار أنهم مواطنون صالحون من الشركات فحسب ، بل يمكنهم أيضًا الاستعداد بنشاط للوائح القادمة."
لا توجد حاليًا معايير تنظيمية عالمية للذكاء الاصطناعي ، لذلك قد يكون من الصعب على الرؤساء التنفيذيين معرفة ما يشكل حوكمة أفضل الممارسات لأنظمة الذكاء الاصطناعي. وبدلاً من ذلك، تتركها الحكومات لتضمين قيم وممارسات الذكاء الاصطناعي المسؤولة طوعاً في استراتيجية الذكاء الاصطناعي الخاصة بها. الذكاء الاصطناعي المسؤول هو نهج لتطوير الذكاء الاصطناعي وإدارة المخاطر المتعلقة بالذكاء الاصطناعي من منظور أخلاقي وقانوني.
وفي حين أن معظم المديرين التنفيذيين للشركات سوف يستعينون بمصادر خارجية لتوفير الذكاء الاصطناعي لبائعي التكنولوجيا - في كثير من الأحيان شركات التكنولوجيا الكبرى - يجب أن يضعوا في اعتبارهم أن سمعة شركاتهم ستعاني إذا حدث خطأ ما. لذلك ، إذا كنت مسؤولًا تنفيذيًا كبيرًا في نشر أنظمة الذكاء الاصطناعي المصممة من قبل بائع تقنية تابع لجهة خارجية ، فإن المسؤولية تقع على عاتقك لضمان استخدام عملك للذكاء الاصطناعي بمسؤولية."