كتب : محمد الخولي
استعرضت شركة جارتنر ، وعلى لسان ألكسندر ليندين، نائب الرئيس للتحليلات لدى جارتنر، مجموعة من التوصيات للتخفيف من حدة المخاطر الأمنية المرتبطة بالبيانات في كامل دورة حياة الذكاء الاصطناعي.
وتعد البيانات عاملاً حيوياً في نجاح أو فشل مشاريع الذكاء الاصطناعي والذكاء الاصطناعي التوليدي. وغالباً ما تكون دورة حياة الذكاء الاصطناعي ونتائجها عرضة بشكل كبير لمواجهة مشاكل ناجمة عن عدم كفاية عملية جمع البيانات وإدارتها وجودتها وحمايتها. من جانبها، تعد إدارة مخاطر البيانات في مشاريع الذكاء الاصطناعي تحدياً بسبب غياب نقاط العطل المنفردة (SPOF).
تتواجد البيانات في الوقت الحالي في كل مكان، إذ تعتبر مجموعات البيانات في الوقت الحالي مكوناً أساسياً لأي مؤسسة. ونتيجة لذلك، لن يكون أي منصب محدد في المؤسسات مسؤولاً بشكل كامل عن إدارة البيانات، بل يتوجب عوضاً عن ذلك بذل جهد تعاوني من جانب الرؤساء التنفيذيين لشؤون البيانات، ومسؤولي الذكاء الاصطناعي، ومسؤولي البيانات، وموظفي الأمن، ومديري خطوط الأعمال، إلا أن هذه المسؤولية المشتركة تؤدي بدورها إلى تعقيد كبير في مشاريع الذكاء الاصطناعي. وفيما يلي تقييم شامل لمخاطر محددة متعلقة بالبيانات في كامل دورة حياة الذكاء الاصطناعي، إلى جانب توصيات للتخفيف من حدتها.
معالجة مخاطر فقدان عناصر بيانات مهمة
يعد حذف وإغفال عناصر البيانات المهمة من المخاطر الكبيرة التي تعترض مشاريع الذكاء الاصطناعي، إذ تركز عملية جمع البيانات في الكثير من الأحيان على الاحتياجات الفورية فقط، متجاهلة متطلبات التطبيقات المستقبلية اللاحقة. ويمكن لهذا الأمر أن يشكل مجموعات بيانات غير مكتملة ما يؤدي بدوره إلى تطوير نماذج ذكاء اصطناعي منخفضة الكفاءة ودون المستوى. وبهدف تخفيف هذه المخاطر، فإنه يستحسن أن تقوم المؤسسات بتنفيذ برامج حوكمة بيانات وذكاء اصطناعي قوية، كما يعتبر تقييم أنواع البيانات والبيانات الوصفية التي يتم جمعها أمراً مهماً كذلك. وستتمكن المؤسسات من خلال القيام بذلك من ضمان الجمع الشامل للبيانات بما يدعم تطوير نماذج الذكاء الاصطناعي الحالية والمستقبلية.
تخفيف حدة مخاطر تقديم بيانات غير صحيحة
تعتبر البيانات غير الصحيحة والمغلوطة من المخاطر البارزة التي تواجه مشاريع الذكاء الاصطناعي، إذ يمكن تفسير البيانات التي يتم جمعها من المصدر بطريقة خاطئة من قبل المستخدم النهائي، وخاصة عند غياب البيانات الوصفية والمعلومات السياقية، كأن يتم على سبيل المثال وصف درجة الحرارة ببساطة بأنها "منخفضة" أو "معتدلة" أو "مرتفعة" دون إعطاء قيم عددية دقيقة. ويمكن لهذا الأمر أن يؤدي إلى تطوير نماذج ذكاء اصطناعي منخفضة الكفاءة ودون المستوى وأقل جودة.
وبهدف معالجة هذه المشكلة، من المهم وضع معايير واضحة لقياس البيانات ومن ضمن ذلك توزيع البيانات وتحويلها واختيارها وفلترتها وبروتوكولاتها. بالإضافة إلى ذلك، فإن توظيف البيانات المتقدمة وأدوات وأساليب جمع البيانات الوصفية يضمن جمع كل البيانات ذات الصلة والمتنوعة وقياسها.
ضمان تطبيق إجراءات تحقق وبيانات اختبار مناسبة
في حال فشلت بيانات الاختبار في تجسيد السيناريوهات التي ستواجه نموذج ما في الواقع، فإن هذا الأمر قد يسفر عن تقييمات مغلوطة عن أداء النموذج. وقد يؤدي هذا التناقض إلى ظهور أنظمة ذكاء اصطناعي تُظهر تفوقاً في بيئات الاختبار المُدارة ولكنها تفشل في التطبيقات العملية. ويجب بهدف تخفيف هذه المخاطر اختيار بيانات الاختبار بعناية بحيث تعكس فعلياً الظروف التي ستواجه النموذج. ويمكن لتطبيق أساليب من قبيل التقسيم الطبقي والتحقق المتبادل والمراقبة المستمرة، أن يعزز من موثوقية بيانات الاختبار.
معالجة مشكلة عدم نقاء البيانات بشكل كاف
تعتبر عدم كفاية نقاء البيانات من المخاطر الرئيسية التي تواجه مشاريع الذكاء الاصطناعي، إذ أن استخدام بيانات لم تتم تصفيتها أو التحقق منها بشكل جيد قد يؤدي إلى أخطاء وعدم دقة نماذج الذكاء الاصطناعي. ويكمن التحدي في تحديد المستوى المطلوب من نقاء البيانات، إذ أن التنقية الزائدة للبيانات قد تؤدي إلى هدر في الوقت والمصادر. وبهدف معالجة هذه المشكلة، يُستحسن الاستثمار في جودة البيانات وفي إمكانية الاطلاع على الجوانب المختلفة المتعلقة بها. ويضمن هذا التوجه تطبيق معايير لجودة البيانات والالتزام بها طوال دورة حياة مبادرات الذكاء الاصطناعي.
مخاطر الانكشاف غير المناسب للبيانات
يمكن لنماذج الذكاء الاصطناعي التي يتم تدريبها على بيانات حساسة من دون أي تخطيط مناسب أن تسفر عن مخاطر كبيرة متعلقة بالامتثال والخصوصية والملكية الفكرية. ويمكن لهذا النوع من انكشاف البيانات أن يؤدي إلى إجراءات قانونية ورفع قضايا وأضرار بالسمعة وخسائر تجارية. وبهدف التخفيف من هذه المخاطر، فإنه يجب تطبيق أطر حوكمة صارمة متعلقة بأمن البيانات بهدف إعطاء الأولوية لتخفيف مخطر البيانات. ويمكن للاستفادة من الضوابط المناسبة لأمن البيانات مثل إدارة هيكل أمن البيانات ومنع فقدان البيانات والتكنولوجيا المعززة للخصوصية والتشفير، المساعدة في إدارة هذه المخاطر بشكل فعال. بالإضافة إلى ذلك، فإن ضمان الامتثال لقوانين خصوصية البيانات ذات الصلة يعتبر أمراً على قدر كبير من الأهمية للحماية من إمكانية انكشاف البيانات والآثار السلبية له.
مخاطر تسميم البيانات
يعتبر تسميم البيانات من المخاطر الحرجة التي تقوم الجهات التخريبية خلالها بالتحكم بمجموعات بيانات التدريب والتلاعب بها من أجل تهديد أداء نموذج الذكاء الاصطناعي، وجعل هذه النماذج تتماشى مع مصالحها بدلاً من مصالح المؤسسات التي تعود البيانات لها. ويمكن لهذا الأمر أن يؤدي إلى تلف البيانات ومخرجات متحيزة وأخطار، كما يفتح الباب أمام أنشطة الجهات التخريبية مثل الاختراقات وبرمجيات الفدية. وبهدف مواجهة هذه المخاطر، فإن توظيف تقنيات مثل إدارة هيكل أمن البيانات، وإدارة الثقة والمخاطر والأمن (TRiSM)، هو أمر على قدر كبير من الأهمية من أجل تحديد مقدار إمكانية وصول كل نموذج من نماذج الذكاء الاصطناعي إلى البيانات الحساسة. كما أن تقييد مزايا نموذج الذكاء الاصطناعي للوقاية من محاولات التلاعب بالبيانات وتسميمها وكشف هذه المحاولات هو أمر ضروري كذلك. إن المراجعة والتحديث المنتظم لبروتوكولات الأمن الإلكتروني، إلى جانب ضمان مساءلة المزودين عن المخاطر والتخفيف من حدتها هي من الخطوات الأساسية التي تعزز الأمن ضد هذا التهديد بشكل أكبر.
مخاطر تزايد تعقيدات مجموعات البيانات
تفرض التعقيدات المتزايدة في إدارة ودمج المصادر المتنوعة للبيانات والتقنيات والبنى التحتية، تحدياً كبيراً أمام توفير البيانات اللازمة لحالات استخدام الذكاء الاصطناعي. وبالتزامن مع قيام المؤسسات بتوسيع نطاق مبادرات الذكاء الاصطناعي الخاصة بها، فإن التعامل مع مشهد البيانات المعقد بهدف العثور على بيانات تمثيلية يصبح أكثر صعوبة، ويزيد من تعقيد إجراءات التحقق من البيانات والوصول إليها وتقديمها. وبهدف مواجهة هذا التحدي يجب وضع ممارسات محددة وراسخة لإدارة البيانات الوصفية، الأمر الذي يمكنه أن يبسّط عملية تحديد البيانات المرتبطة بحالات استخدام الذكاء الاصطناعي. بالإضافة إلى ذلك فإن تبسيط وتوحيد تقنيات هندسة البيانات -مثل كتالوجات البيانات وبحيرات البيانات وشبكات البيانات- يمكنه أن يسهّل دمج وإدارة مصادر البيانات المتنوعة، وبالتالي يعزز كفاءة وفعالية تقديم البيانات.
وسيقوم المحللون لدى جارتنر ببحث الاستراتيجيات والتقنيات والتوجهات الرئيسية المتعلقة بالأمن الإلكتروني وذلك خلال فعاليات قمة جارتنر للأمن الإلكتروني وإدارة المخاطر التي ستنعقد في كل من الهند ودبي في وقت لاحق من العام الجاري.