رصد المخاطر في عالم الذكاء الاصطناعي المتسارع " 2- 2 "

  • بقلم : مارك شوارتز

    خبير تكنولوجيا المعلومات والاستشارى لاستراتيجيات مؤسسات الاعمال

    وبعد أن أصبحت الأخلاقيات المرتبطة بالذكاء الاصطناعي غير مستقرة إلى حد كبير، ونظراً لحالة عدم اليقين الحالية المحيطة بأخلاقيات الذكاء الاصطناعي، يكون لزاماً مشاركة العديد من وجهات النظر والآراء والخبرات من مختلف الأفراد والجماعات عند نشر تطبيقات الذكاء الاصطناعي.

    حتى نتأكد من أن مجلس الإدارة يفهم المخاطر والاستراتيجيات أو الإجراءات المتخذة لتقليل أو إدارة المخاطر المرتبطة بقضية معينة، يجب أن يكون هناك مدير واحد على الأقل يتمتع بالخبرة التكنولوجية. ويمكن تصنيف مستويات المخاطر لأنظمة الذكاء الاصطناعي على مقياس من المخاطر المتزايدة من (1) إلى (4)، حيث يمثل الرقم (1) نظاماً يُستخدم كثيراً ولكن على المستوى الداخلي حصرياً، وبمخرجات مقيّدة بشكل وثيق. وقد يشير الرقم (4) إلى تطبيق يواجه العملاء، مع وجود نطاق واسع من المخرجات المحتملة.

     

    وتعتمد مستويات المخاطر أيضاً على نوع التطبيق، ومن ذلك على سبيل المثال، تطبيقات الذكاء الاصطناعي التي تعمل كمساعدين لدعم الموظفين على توليد أفكار جديدة يمكن وضعها في الطرف الأدنى من المقياس، بينما توضع الأنظمة التي تتحكم بالأجهزة الطبية في الطرف الأعلى. وقد تتضمن المخاطر حماية نموذج الذكاء الاصطناعي من التلاعب، وإمكانية توليد خطاب ضار أو مسيء، وإنتاج صور غير متنوعة، وغيرها من المخاوف ذات الصلة.

    وقد يكون من المفيد حقاً السعي للحصول على تقييمات مستقلة من خارج مجلس الإدارة، وهنا تبرز مسألة مهمة وهي أن أعضاء مجلس الإدارة الذين يتمتعون بخبرة فنية يمتلكون المهارات اللازمة في معرفة متى يتعين عليهم الحصول على مثل هذه المدخلات.

    ليس هذا فحسب، بل أنهم يتمتعون بالدراية الكافية لفهم مختلف الاعتبارات داخل سياق الشركة، ويطرحون الأسئلة ذات الصلة، ويوجهون النقاشات، وخاصة عند الحاجة إلى إصدار أحكام واتخاذ قرارات حاسمة.

    إن التعامل مع قضايا حوكمة الذكاء الاصطناعي يعتبر مهماً باعتبارها مسائل تنطوي على مخاطر، وليس مجرد مخاوف فنية لاتخاذ قرارات مستنيرة قائمة على المخاطر. وبغض النظر عن الذكاء الاصطناعي، فإن نشر أي برنامج ينطوي بطبيعته على مخاطر.

    ولو استبعدنا عامل مدى دقة الاختبارات التي يتم إجراؤها، قد تظل البرمجيات تحتوي على عيوب غير محددة. ويتمثل الهدف من الاختبار في تقليل مخاطر العيوب، وليس القضاء عليها تماماً، وهذا ينطبق بشكل خاص على الذكاء الاصطناعي.

    ويجب على شركتك التحقق باستمرار من أداء تطبيق الذكاء الاصطناعي واستكشاف القرارات التي يتخذها، والاستجابات التي يقدمها في أثناء استخدامه. ومع ذلك، لن يتم القضاء على المخاطر، ومنها على سبيل المثل ما يطلق عليه “الهلوسة”، ويقصد بذلك المخرجات الزائفة التي يولدها التطبيق، أو الكلام المسيء بشكل كامل.

    وكما هي الحال مع العديد من قرارات الرقابة على المجالس، يتعيّن موازنة هذه المخاطر ومقارنة مع ما قد تقدمه من فوائد محتملة.

    وفي هذا الإطار، يساعد أيضاً وجود مجموعة قوية من القيم لتوجيه سلوك الشركة. وبما أن القواعد حول الذكاء الاصطناعي تتغير بسرعة، ولا يتّضح دائماً كيفية تطبيقها، يتعين وجود مجموعة قوية ومفصلة بوضوح من القيم للإسهام في خلق ثقافة قد تساعد على توجيه تصرفات الشركة في الاتجاه الصحيح. ورغم الاعتراف بأهمية الحواجز وعمليات الحوكمة، ربما يصعب علينا أن نتوقع جميع المواقف التي قد تنشأ، خاصة عندما يكون اتخاذ القرار لامركزياً وسريعاً. ومن شأن وجود مجموعة واضحة من القيم المعززة باستمرار، أن تضمن مشاركة جميع الموظفين في ضمان تصرف الشركة بمسؤولية، وسيكون الموظفون أكثر ميلاً إلى اكتشاف السلوك السيئ المحتمل من قبل الذكاء الاصطناعي، ومن ثم إبلاغ الإدارة به.

    في الختام، لا شك أن الذكاء الاصطناعي يتمتع بالقوة الهائلة التي تؤهله لتغيير مستقبل عالم الأعمال. ولا يمكن لأحد أن يجلس مكتوف الأيدي ويكتفي بمشاهدة الآخرين وهم يجنون ثماره. وفي هذه الحالة، يتعين عليك قبل كل شيء إدارة المخاطر في هذا المجال ومواكبة التغيّر في المخاطر ذاتها. ويعتقد أن أفضل طريقة للقيام بذلك هي الإشراف والرقابة بطريقة مرنة، والاستجابة بسرعة للمخاطر الناشئة، واعتماد طرق متطورة وناجعة لإدارتها.

    حمّل تطبيق Alamrakamy| عالم رقمي الآن