نبضات توقعات عام 2026 في مجال الذكاء الاصطناعي والأمن السيبراني

  •  

    بقلم : خالد حسن

    ندرك جميعا ان الهجمات الإلكترونية لم تعد مشكلة محدودة، بل أصبحت خطراً يهدد الجميع. مع زيادة استخدام الأنظمة السحابية والعمل عن بُعد، زادت فرص المهاجمين للوصول إلى أنظمتنا. كل جهاز نستخدمه، من الهاتف المحمول إلى الأجهزة الذكية في منازلنا، يمكن أن يكون نقطة ضعف يستغلها المهاجمون. هذا العالم المترابط، الذي نسميه “إنترنت كل شيء”، يقدم فرصاً رائعة للشركات، لكنه يحمل أيضاً مخاطر كبيرة. من المهم أن يدرك المدراء أن الهجمات الإلكترونية قد تحدث في أي وقت، لكن وجود خطط وقائية يمكن أن يقلل الضرر بشكل كبير. سواء كان الهجوم معقداً يستخدم الذكاء الاصطناعي أو محاولة احتيال بسيطة، يجب على الشركات أن تكون دائماً مستعدة ومتيقظة.

    ويجب ان نعلم ان الذكاء الاصطناعي ليس فقط أداة مفيدة للشركات، بل يمكن أن يستخدمه أيضاً المجرمون الإلكترونيون. أحد أكبر المخاوف الآن هو ما يسمى بالتزييف العميق، وهو محتوى مزيف يتم إنشاؤه باستخدام الذكاء الاصطناعي. هذا المحتوى المزيف يمكن أن يكون فيديوهات أو تسجيلات صوتية أو رسائل إلكترونية تبدو حقيقية جداً، مما يجعل من الصعب اكتشاف أنها مزيفة ,

    من المهم ان يكون لدي الشركات رؤية وخطة واضجة لكيفىة مواجهة هذه التحديات من خلال تعليم موظفيها كيفية التعرف على هذه الخدع واستخدام أدوات أمنية متطورة. من المهم أن يدرب المدراء موظفيهم على كيفية اكتشاف علامات التزييف العميق، وأن يستخدموا طرق تحقق متعددة للتأكد من هوية الأشخاص. كما يجب على الموظفين حماية حساباتهم الشخصية على مواقع مثل Gmail و LinkedIn، واستخدام كلمة سر خاصة بالعائلة للتأكد من أن المكالمات أو الرسائل التي يتلقونها هي بالفعل من أفراد عائلاتهم وليست من محتالين.

    وكشفت مؤخرا شركة " بالو ألتو نتوركس "، المتخصصة في مجال الأمن السيبراني، تقريرها الجديد بعنوان "6 توقعات لاقتصاد الذكاء الاصطناعي: القواعد الجديدة للأمن السيبراني لعام 2026"، والذي يسلط الضوء على التحول المتسارع نحو اقتصاد عالمي قائم على الذكاء الاصطناعي، وما يصاحبه من إعادة صياغة شاملة لمعادلات المخاطر السيبرانية.

    وتمثل الاتجاه الاول فى " عصر الخداع الجديد: تهديد هوية الذكاء الاصطناعي " في عام 2026، ستصبح الهوية ساحة المواجهة الأساسية، مع تصاعد تقنيات التزييف العميق المعتمدة على الذكاء الاصطناعي في الزمن الحقيقي، بما في ذلك محاكاة الشخصيات التنفيذية، على نحو يجعل التزوير غير قابل للتمييز عن الواقع. وتتضاعف حدة هذا التهديد مع انتشار الوكلاء المستقلين وبلوغ نسبة الهويات الآلية إلى البشرية مستوى 82:1، ما يفضي إلى أزمة مصداقية قد يتسبب فيها أمر واحد مزور بإطلاق سلسلة واسعة من الإجراءات المؤتمتة. ومع تراجع الثقة، يصبح من الضروري أن ينتقل أمن الهوية من إطار وقائي تفاعلي إلى دور تمكيني استباقي على مستوى المؤسسة، بما يضمن حماية كل عنصر بشري، وكل نظام آلي، وكل وكيل ذكاء اصطناعي.

    على حين ان التوقع الثانى تمثل فى " التهديد الداخلي الجديد: تأمين وكيل الذكاء الاصطناعي " حيث سيسهم اعتماد المؤسسات لوكلاء ذكاء اصطناعي مستقلين في توفير عامل تسريع حاسم لمعالجة فجوة المهارات السيبرانية التي تقدر بـ 4.8 مليون متخصص، ووضع حد لإرهاق التنبيهات المتكرر. غير أن هذا التطور ينطوي في الوقت ذاته على مخاطر جوهرية، إذ يفضي إلى نشوء شكل جديد وقوي من التهديدات الداخلية. فهؤلاء الوكلاء العاملون على مدار الساعة، والذين يُمنحون ثقة ضمنية وصلاحيات وصول عالية، بما في ذلك الامتيازات الحساسة، يتحولون سريعًا إلى الأهداف الأعلى قيمة. ولن يعود الخصوم يركزون على استهداف البشر بوصفهم الهدف الأساسي، بل سيسعون إلى اختراق هؤلاء الوكلاء ذوي القدرات العالية وتحويلهم إلى "عنصر داخلي مستقل". ويفرض هذا الواقع الانتقال إلى نموذج يقوم على الاستقلالية المقترنة بالتحكم، بما يستدعي اعتماد أدوات حوكمة لجدران حماية الذكاء الاصطناعي أثناء التشغيل، لوقف الهجمات التي تُنفَّذ بسرعة الآلة، وضمان عدم توجيه قوة عمل الذكاء الاصطناعي ضد الجهات المالكة لها.

     

    ووفقا للتقرير فان التوقع الثالث كان " الفرصة الجديدة: معالجة إشكالية الثقة في البيانات " في العام المقبل، ستنتقل بؤرة الهجمات إلى مستوى جديد يتمثل فيما يعرف بـ "تسميم البيانات"، من خلال إفساد بيانات تدريب الذكاء الاصطناعي بصورة خفية عند مصدرها. ويستغل هذا النمط من الهجمات الفجوة التنظيمية الحرجة بين فرق علوم البيانات وفرق الأمن، لإدخال أبواب خلفية غير مرئية وبناء نماذج تفتقر إلى الموثوقية، بما يؤدي إلى نشوء أزمة جوهرية في الثقة بالبيانات. ومع تراجع جدوى المحيطات الأمنية التقليدية، تبرز الحاجة إلى منصة موحدة تسد هذه الثغرة، عبر توظيف إدارة وضع أمن البيانات (DSPM) وإدارة وضع أمن الذكاء الاصطناعي (AI-SPM) لتعزيز الرصد والشفافية، إلى جانب وكلاء تشغيلية تعتمد مفهوم "جدار الحماية كرمز" لتأمين سلسلة بيانات الذكاء الاصطناعي بالكامل.

    وتمثل التوقع الرابع فى " تصاعد المخاطر القانونية للذكاء الاصطناعي ومسؤولية الإدارة العليا " سيصطدم سباق المؤسسات نحو تحقيق أفضلية تنافسية عبر الذكاء الاصطناعي بجدار جديد من الواقع القانوني. وبحلول عام 2026، ستؤدي الفجوة الواسعة بين وتيرة التبني السريع ومستوى نضج أمن الذكاء الاصطناعي (حيث لا تمتلك سوى 6% من المؤسسات استراتيجية متقدمة) إلى بروز أولى القضايا القضائية الكبرى التي تحمل القيادات التنفيذية مسؤولية شخصية عن تصرفات الذكاء الاصطناعي غير المنضبط. ويجسد هذا التحول انتقال الذكاء الاصطناعي من كونه مسألة تقنية محصورة بتكنولوجيا المعلومات إلى قضية مسؤولية جوهرية تقع ضمن اختصاص مجالس الإدارة. وفي هذا السياق، يتعين أن يتطور دور مدير تقنية المعلومات ليصبح ممكناً استراتيجياً، أو أن يتكامل مع منصب جديد هو كبير مسؤولي مخاطر الذكاء الاصطناعي، باستخدام منصة موحدة توفر حوكمة قابلة للتحقق وتدعم الابتكار بصورة آمنة.

     

    اما التوقع الخامس فتمثل فى " العد التنازلي الجديد: الحتمية الكمومية " اذ ان أحد أخطر التهديدات الناشئة فيما يعرف بأسلوب "جمع البيانات الآن وفك تشفيرها لاحقاً"، حيث يتم سرقة البيانات المشفرة والاحتفاظ بها، على أمل فك تشفيرها مستقبلاً مع تطور قدرات الحوسبة الكمومية، وهو ما يتسارع بفعل الذكاء الاصطناعي، حيث تصبح البيانات المسروقة حالياً مصدر مخاطر مستقبلية مؤكدة. ومع تقلص الأفق الزمني للحوسبة الكمومية من تحد متوقع خلال عشر سنوات إلى واقع محتمل خلال ثلاث سنوات فقط، ستفرض التوجيهات الحكومية قريباً انتقال واسع ومعقد نحو اعتماد تقنيات تشفير ما بعد الحوسبة الكمية. ويستوجب هذا التحول من المؤسسات تجاوز مفهوم التحديث لمرة واحدة، والتوجّه نحو بناء مرونة تشفير مستدامة، تقوم على القدرة المستمرة على تكييف معايير التشفير باعتبارها ركيزة أمنية أساسية لا تقبل المساومة.

     

    و أخيرا توقع التقرير ان "الاتصال الجديد: متصفح الإنترنت بوصفه مساحة العمل الجديدة " لم يعد متصفح الإنترنت أداة لعرض المعلومات فحسب، بل تطور ليصبح منصة تنفيذ فعلية تعتمد على وكلاء ذكاء اصطناعي لإنجاز المهام، ما جعله يؤدي دور مركزي داخل بيئات العمل المؤسسية، أشبه بدور أنظمة التشغيل. ويؤدي هذا التحول إلى بروز أكبر سطح هجوم غير مؤمن، إذ أصبح المتصفح نقطة الدخول الأساسية للتطبيقات والبيانات المدعومة بالذكاء الاصطناعي، في ظل محدودية الرؤية والتحكم الأمني داخله. ومع الارتفاع الحاد في حركة مرور تطبيقات الذكاء الاصطناعي التوليدي بنسبة تتجاوز 890%، يتعيّن على المؤسسات اعتماد نموذج أمني موحّد قائم على السحابة، يفرض ضوابط انعدام الثقة وحماية البيانات بشكل متسق في آخر نقطة ممكنة للتنفيذ، داخل المتصفح ذاته.

    في اعتقادي لم يعد الأمن السيبراني مجرد قضية تقنية – بل أصبح أولوية حاسمة للأعمال. من خلال استخدام أدوات أمنية متطورة تعتمد على الذكاء الاصطناعي، وتعزيز ثقافة تضع الأمن في المقام الأول، وتطبيق أنظمة الثقة الصفرية، يمكن للشركات حماية بياناتها وموظفيها من التهديدات الحالية والمستقبلية على حد سواء.

    فى النهاية نؤكد ان اليقظة الامنية فى عالمنا الرقمى تتطلب متا جميع ان تكون مستعدين بصورة دائمة بل ومتقدمين بخطوة واحدة أما المخاطر الأمنية المحتملة واتخاذ كافة الاجراءات الأستباقية والتحذيرية والاحتياطية لسرعة التعامل مع عمليات القرصنة والأختراق الالكترونى المتوقع تزايدها فى المستقبل إما لوقفها بصورة نهائيه او على الاقل تحجيم ضررها .

    حمّل تطبيق Alamrakamy| عالم رقمي الآن