نبضات الذكاء الاصطناعي بين الثقة المفرطة والمخاوف المشروعة

  •  

    بقلم : خالد حسن

     

    تُعد الثقة في الذكاء الاصطناعي (AI) حجر الزاوية لاعتماده على نطاق واسع وتحقيق فوائده الكاملة في المجتمع. فمع تزايد دمج أنظمة الذكاء الاصطناعي في حياتنا اليومية، من الرعاية الصحية والتمويل إلى النقل والتوظيف، يصبح من الضروري أن يشعر المستخدمون والمجتمع ككل بالثقة في هذه الأنظمة.

     

    وبالطبع هناك مجموعة من التحديات الرئيسية تواجه بناء الثقة في أنظمة الذكاء الاصطناعي واهمها " جودة البيانات والتحيز " حيث تعتمد نماذج الذكاء الاصطناعي بشكل كبير على البيانات التي تُدرب عليها. إذا كانت هذه البيانات غير كاملة، متحيزة، أو ذات جودة منخفضة، فإنها يمكن أن تؤدي إلى نتائج غير دقيقة أو غير عادلة، مما يقوض الثقة. على سبيل المثال، قد تؤدي البيانات المتحيزة في أنظمة التوظيف إلى تفضيل مجموعات معينة على حساب أخرى.

    ثانيا الشفافية وقابلية الشرح (Explainability) غالبًا ما تُوصف أنظمة الذكاء الاصطناعي المعقدة، خاصة نماذج التعلم العميق، بأنها "صناديق سوداء" لأنه من الصعب فهم كيفية اتخاذها للقرارات. عندما لا يستطيع المستخدمون أو المطورون فهم سبب توصل النظام إلى نتيجة معينة، يصعب عليهم الوثوق به، خاصة في التطبيقات الحساسة مثل التشخيص الطبي.

    اما التحدث الثالث فيتمثل فى "المخاوف الأخلاقية والقانونية " اذ تثير قضايا مثل الخصوصية، وحقوق التأليف والنشر، والمسؤولية عن الأضرار الناجمة عن قرارات الذكاء الاصطناعي، تحديات قانونية وأخلاقية كبيرة. يجب وضع أطر واضحة لمعالجة هذه المخاوف على حين يشكل الأمن والمتانة (Robustness):  التحدى الرابع حيث يمكن أن تكون أنظمة الذكاء الاصطناعي عرضة للهجمات الخبيثة التي تهدف إلى تضليلها أو تعطيلها. ضمان أمان ومتانة هذه الأنظمة ضد مثل هذه الهجمات أمر حيوي للحفاظ على الثقة وأخيرا " الثقة المفرطة أو نقص الثقة " اذ يؤدي عدم فهم حدود وقدرات الذكاء الاصطناعي إلى الثقة المفرطة التي تسبب مخاطر، أو إلى نقص الثقة الذي يعيق الاستفادة من إمكاناته.

    وفى هذا الاطار كشفت بيانات استطلاع "حالة تكنولوجيا المعلومات" ، اجرته شركة " سيلز فلوس " ، أنه بالتزامن مع تسارع وتيرة اعتماد الذكاء الاصطناعي والتهديدات السيبرانية، أوضح 8 من أصل 10 من قادة الأمن الإلكتروني في الشرق الأوسط أن الممارسات المطبقة في مجال الأمن السيبراني تحتاج إلى تحديث وتطوير. وأظهرت وجود إجماع تامّ حول التفاؤل بخصوص وكلاء الذكاء الاصطناعي، حيث أشار 100% من قادة الأمن السيبراني في الشرق الأوسط إلى قدرة وكلاء الذكاء الاصطناعي على تحسين جانب واحد على الأقل من جوانب القلق المتعلق بالأمن.

    وعلى الرغم من هذا التفاؤل، إلا أن الدراسة العالمية التي شملت أكثر من 2,000 من قادة الأمن الإلكتروني في المؤسسات من أكثر من 24 دولة، بيّنت وجود تحديات كبيرة على صعيد النشر في المستقبل. وأعرب 48% من قادة الأمن الإلكتروني عن قلقهم من أن الأساس البياني لديهم غير مهيّأ بعد بالشكل الكافي لتحقيق أقصى فائدة ممكنة من الذكاء الاصطناعي الوكيل، في حين لا يشعر 55% بثقة كاملة بأن لديهم الضوابط الوقائية المناسبة لنشر وكلاء الذكاء الاصطناعي.

    ويعتمد المختصين المكلّفين بحماية بيانات وأنظمة الشركات والجهات التخريبية التي تسعى لاستغلال الثغرات، على حد سواءً وبشكل متزايد على الذكاء الاصطناعي ضمن أدواتهم. ويسهم وكلاء الذكاء الاصطناعي المستقلون في تقليل الأعباء اليدوية على فرق الأمن، ما يسمح للعنصر البشري بالتركيز على حل المشكلات الأكثر تعقيداً. لكن وبالرغم من ذلك فإن نشر الذكاء الاصطناعي الوكيل يتطلب بنية تحتية قوية للبيانات وحوكمة رشيدة للبيانات لضمان النجاح.

    ولم يعد خافياً أن الكثير من قادة الأمن الإلكتروني يشعرون بالقلق إزاء عدة قضايا ومن ضمنها مدى جاهزية بنية البيانات لمؤسساتهم لاعتماد الذكاء الاصطناعي، ومدى كفاءة الضوابط الوقائية لديهم لنشر وكلاء الذكاء الاصطناعي، ناهيك عن التحديات المحتملة المرتبطة بالامتثال التنظيمي والناتجة عن استخدام الذكاء الاصطناعي. وفي ظل هذه المخاوف، يتعين على المؤسسات في الشرق الأوسط التعاون مع شريك موثوق مثل سيلزفورس بما يمكنها من توسيع نطاق استخدام الذكاء الاصطناعي الوكيل بسرعة وكفاءة وبشكل أخلاقي".

    وبالإضافة إلى قائمة المخاطر المألوفة مثل تهديدات أمن السحابة والبرمجيات الخبيثة وهجمات التصيد الإلكتروني، أصبح قادة تكنولوجيا المعلومات يشيرون الآن إلى ما يُعرف باسم "تسميم البيانات" -حيث تقوم الجهات التخريبية باختراق مجموعات بيانات التدريب الخاصة بالذكاء الاصطناعي- على أنها أحد أبرز مصادر القلق. ويأتي ذلك بالتوازي مع زيادة الموارد المخصصة للتعامل مع هذه التحديات، حيث تتوقع 75% من المؤسسات زيادة ميزانيات الأمن السيبراني خلال العام المقبل.

     

    وعلى الرغم من أن 80% من قادة الأمن الإلكتروني يعتقدون أن وكلاء الذكاء الاصطناعي يوفرون فرصاً لتعزيز الامتثال في جوانب متعددة مثل تحسين الالتزام بقوانين الخصوصية العالمية، إلا أن 79% منهم تقريباً يرون أن هذه التكنولوجيا تفرض كذلك تحديات تنظيمية يجب التعامل معها. ويُعزى ذلك جزئياً إلى البيئة التنظيمية التي تتزايد مستويات تعقيدها وتطورها في مختلف المناطق الجغرافية والقطاعات، إلى جانب اعتماد عمليات الامتثال الحالية إلى حد كبير على أساليب غير مؤتمتة ما يجعلها عرضة للأخطاء.

     

    فقط 47% من المؤسسات واثقة تماماً من قدرتها على نشر وكلاء الذكاء الاصطناعي بما يتوافق مع اللوائح والمعايير التنظيمية ، 83% من المؤسسات تقول بأنها لم تقم بأتمتة عمليات الامتثال لديها بشكل كامل بعد والثقة هي حجر الزاوية لنجاح الذكاء الاصطناعي، لكنها لا تزال في مراحلها الأولى

     

    أظهرت دراسة حديثة للمستهلكين أن مستوى الثقة في الشركات يشهد تراجعاً حاداً، في حين يرى نحو ثلاثة أخماس (60%) المشاركين أن التقدم في الذكاء الاصطناعي يسلط الضوء على أهمية موثوقية الشركات أكثر من أي وقت مضى. وعلى الرغم من ذلك، فإن 42% فقط من المستهلكين يثقون بأن الشركات تستخدم الذكاء الاصطناعي بشكل أخلاقي، الأمر الذي يشكل انخفاضاً ملحوظاً عن الرقم السابق المسجل في عام 2023 والبالغ 58%. ويرى قادة أمن المعلومات أن هناك الكثير مما يجب القيام به لكسب هذه الثقة المحورية.

     

    57% من المؤسسات عالمياً لا تثق تماماً في دقة أو قابلية تفسير مخرجات الذكاء الاصطناعي لديها.

    60% من المؤسسات عالمياً لا توفر شفافية كاملة حول كيفية استخدام بيانات العملاء في الذكاء الاصطناعي.

    59% من المؤسسات عالمياً لم تتقن بعد وضع إرشادات أخلاقية واضحة لاستخدام الذكاء الاصطناعي.

    حوكمة البيانات هي أساس تطور المؤسسات بمجال الذكاء الاصطناعي الوكيل

    أعرب نحو نصف قادة الأمن الإلكتروني عن عدم يقينهم مما إذا كانت لديهم بيانات عالية الجودة كافية لدعم وكلاء الذكاء الاصطناعي، أو من قدرتهم على نشر هذه التكنولوجيا ضمن الأُطر المناسبة من التصاريح والسياسات والضوابط الوقائية. لكن وعلى الرغم من ذلك، فإن هناك تقدم حاصل بالفعل إذ أظهر استطلاع حديث للرؤساء التنفيذيين لشؤون المعلومات أن الميزانيات المخصصة للبنى التحتية للبيانات وإدارتها تفوق تلك المخصصة للذكاء الاصطناعي بأربعة أضعاف، ما يشير إلى أن المؤسسات تعمل بحكمة على تأسيس البنية اللازمة لتطبيق الذكاء الاصطناعي على نطاق أوسع.

    وكلاء الذكاء الاصطناعي يمثلون حلاً فعالاً بالتزامن مع تسارع وتيرة اعتماد هذه التكنولوجيا

    أظهر التقرير أن 32% من فرق أمن المعلومات تستخدم بالفعل وكلاء الذكاء الاصطناعي في عملياتها اليومية، وهو رقم من المتوقع أن يتضاعف تقريباً خلال العامين المقبلين. ويتوقع قادة أمن المعلومات تحقيق مجموعة من الفوائد بفضل التوسع في استخدام الوكلاء، تتراوح من رصد التهديدات الأمنية إلى التدقيق المتقدم في أداء نماذج الذكاء الاصطناعي. من جهتها تتوقع 75% من المؤسسات استخدام وكلاء الذكاء الاصطناعي خلال العامين القادمين، مقارنةً بالرقم الحالي البالغ 41% فقط.

    إلى جانب الخطوات التي يتعيّن على هذه الفرق اتخاذها لتعزيز أسس بياناتها استعداداً لخوض غمار حقبة الذكاء الاصطناعي الوكيل، يرى أكثر من نصف الفرق حول العالم بأن أمامها عملاً لتطوير ممارساتها الأمنية والامتثال للوائح. وتعتقد 47% من فرق أمن المعلومات فقط بأن ممارساتها في مجال الأمن والامتثال جاهزة بالكامل لتطوير ونشر وكلاء الذكاء الاصطناعي.

    فى النهاية نؤكد ان تُبنى الثقة في الذكاء الاصطناعي من خلال مزيج من الدقة والموثوقية، والشفافية، والعدالة، والأمن، والمساءلة، والمشاركة البشرية. كلما تمكنا من معالجة هذه الجوانب بفعالية، زادت ثقة الأفراد والمؤسسات في الذكاء الاصطناعي، مما يفتح الباب أمام استغلال كامل إمكاناته لتحقيق تقدم إيجابي في مختلف المجالات وفى نفس الوقت الإبقاء غلى العنصر البشري والتأكيد على أن الذكاء الاصطناعي هو أداة مساعدة للبشر، وليس بديلاً لهم، خاصة في القرارات الهامة.

     

    حمّل تطبيق Alamrakamy| عالم رقمي الآن