بقلم : مارك شوارتز
خبير تكنولوجيا المعلومات والاستشارى لاستراتيجيات مؤسسات الاعمال
يبدو مؤكداً أن مجالس الإدارة المسؤولة عن الإشراف على استخدام الذكاء الاصطناعي في شركاتها تواجه مواقف صعبة. ويعزى هذا الأمر إلى حقيقة أن التداعيات الناجمة عن هذه التكنولوجيا ليس واضحة تماماً.
ومن الأسئلة الصعبة التي ينبغي على تلك المجالس الإجابة عنها: هل يجب التعامل مع نماذج الذكاء الاصطناعي التوليدية اليوم كوسيلة قوية لتحقيق أهداف تجارية محددة؟ أم أنها مجرد خطوة شبه نهائية على الطريق إلى الذكاء الاصطناعي العام، أي ذلك النوع من الذكاء الاصطناعي القادر على محاكاة الذكاء البشري؟
ومع أنه يتم إصدار نماذج جديدة للتعلم الآلي باستمرار، نجد أن كل نموذج منها يتمتع بقدرات مختلفة، وتكون مدربة على مجموعات بيانات متباينة، ناهيك عن وجود عناصر تحكم وحواجز أمنية مختلفة ومدمجة أيضاً.
وعندما تقوم شركة ما بدمج هذه النماذج مع بياناتها الخاصة، وتوظيفها في سير العمليات الداخلية المعقدة، يتضاعف حجم المخاطر التي لا تكشف عن هويتها على الفور، وإنما تظهر فقط بمرور الوقت.
صحيح أن هناك توافق يعمّ المجتمع واللوائح الواسعة على مبادئ الذكاء الاصطناعي المسؤول، من قبيل العدالة والقدرة على التفسير والخصوصية، إلا أن هناك القليل من الإجماع على المعاني والتفسيرات المحددة لهذه المصطلحات. وفي الوقت الذي يتحمّل فيه مجلس الإدارة المسؤوليات الحاسمة عن مهام الإشراف على الذكاء الاصطناعي، يظل يشكّل مخاطرة كبيرة على السمعة، كما أنه يحمل أهمية أخلاقية.
وحتى نكون أكثر دقّة في هذا الشأن، نستعرض في هذا المقال موضوع الذكاء الاصطناعي باعتباره المجال الشامل الذي يحاول محاكاة القدرات البشرية من خلال التكنولوجيا. وهنا تنبغي الإشارة إلى أن التعلم الآلي يعدّ بحدّ ذاته مجموعة فرعية من الذكاء الاصطناعي، وتتضمن تعلم الآلات من بيانات التدريب والخبرة لبناء “نموذج” لبعض جوانب العالم، ومن ثم استخدام هذا النموذج لأداء المهام.
ومن جهة أخرى، يمكن تصنيف الذكاء الاصطناعي التوليدي على أنه نوع من التعلم الآلي الذي ينشئ المحتوى، مثل المستندات أو الإجابات على الأسئلة أو الصور أو الصوت، بناءً على طلبات المستخدمين. وتشتهر شركات مثل “أنثوروبيك” Anthropic و “أوبن أيه آي” OpenAI بتطوير مثل هذه التقنيات للذكاء الاصطناعي.
وفي مجال سريع التطور مثل الذكاء الاصطناعي، تتطلب الرقابة أو الحوكمة الفعالة ثلاثة عناصر رئيسية، وهي: (أولاً) طريقة للكشف عن المخاطر أو استشعارها، والتي ربما لم تكن موجودة أو واضحة من قبل، (ثانياً) فهم شدة المخاطر والإمكانات المتاحة للتخفيف منها، أما العنصر الثالث والأخير، فهو القدرة على اتخاذ قرارات سريعة وفعالة قائمة على المخاطر، ويمكنها إحداث التوازن بين المخاطر والمرونة والابتكار، رغم التغيير المستمر وعدم اليقين.
تحديد المخاطر الذكاء الاصطناعي
يتمثل التحدي الأول في معرفة ماهية المخاطر. وفي واقع الأمر تتميز نماذج التعلم الآلي بطبيعتها غير الشفافة، ويقصد بذلك أن النموذج قد يتعلم طريقة لاتخاذ القرارات أو إنتاج المحتوى، ولكن لا يمكن معرفة ما تعلمه على وجه التحديد. وتكون نماذج الذكاء الاصطناعي معقّدة بشكل يتعذّر الإلمام به، وقد تتضمن نماذج الذكاء الاصطناعي التوليدية مئات المليارات من المتغيرات/ التباينات ذات العلاقات المتشابكة فيما بينها.
ولا يمكننا معرفة كل الأسئلة المحتملة التي يطرحها المستخدمون في العديد من تطبيقات الذكاء الاصطناعي، وقد يصل الأمر بهم إلى الطلب من النموذج إدخال نص ما. وفي الكثير من الأحيان تعرض النماذج المعقدة للغاية سلوكيات “ناشئة”، وربما تفاجئك بقدرتها على القيام بأشياء لم تكن تخطط لها. وفي نفس الوقت، قد يؤدي سلوك نماذج الذكاء الاصطناعي إلى إثارة الحساسيات العامة بطرق لا يمكن توقّعها.
وحتى نتمكن من الكشف عن المخاطر الناشئة، يعتبر ضمان وجود مجموعة متنوعة تشرف على أي مبادرات للذكاء الاصطناعي الإجراء الأكثر أهمية الذي يمكنك اتخاذه، سواء على المستوى التشغيلي كمجموعة توجيهية للذكاء الاصطناعي، أو كمجلس إدارة. ومن المرجح أن تطرح المجموعة المتنوعة، بما في ذلك خبراء التكنولوجيا وقادة الموارد البشرية والمستشارون القانونيون وأي شخص في المؤسسة أقرب إلى مجموعات العملاء المتنوعة، عدداً من الأسئلة المهمة إلى جانب ملاحظتهم للقضايا المحتملة.
للحديث بقية .....