4 مخاطر لاستخدام روبوت المحادثة ChatGPT على خصوصية الشركات

  • كتب : محمد شوقي

     

    يعتمد الكثير من الموظفين على النماذج اللغوية القائمة على الشبكات العصبونية في عملهم مثل روبوت المحادثة ChatGPT، حيث كشف استطلاع أجرته كاسبرسكي في روسيا أن 11% من المشاركين استخدموا روبوتات المحادثة، مع اعتقاد قرابة 30% منهم بقدرتها على استبدال الوظائف في المستقبل.

    وتشير استطلاعات أخرى إلى أن 50% من موظفي المكاتب في بلجيكا و65% منهم في المملكة المتحدة يعتمدون على روبوت المحادثة ChatGPT. كما يشير رواج كلمة «ChatGPT» في سجلات البحث ضمن Google Trends إلى استخدام واضح للأداة خلال أيام الأسبوع، الذي قد يكون مرتبطاً باستخدام الموظفين له أثناء العمل.

    على أي حال، يطرح الاستخدام المتزايد لروبوتات المحادثة في مكان العمل سؤالاً حاسماً: هل هذه الروبوتات مؤهلة للاستخدام مع بيانات الشركات الحساسة؟ للتوصُل إلى الإجابة، حدد باحثو كاسبرسكي أربعة مخاطر رئيسية قد تتعرض لها الشركات عند استخدام موظفيها روبوت ChatGPT، وهي : تسرُّب البيانات أو الاختراق من جهة المزود " على الرغم من أن مشغلي روبوتات المحادثة القائمة على النماذج اللغوية الكبيرة هم اللاعبون الأكبر في المجال التقني، فهي غير منيعة ضد الاختراق أو تسرُّب البيانات. فعلى سبيل المثال، تمكن مستخدمو أداة ChatGPT في إحدى الحوادث من رؤية الرسائل في سجلات محادثة تعود لمستخدمين آخرين.

     

    " تسريب البيانات عبر روبوتات المحادثة " نظرياً، يمكن استخدام الرسائل التي يتم تبادلها مع روبوتات المحادثة لتدريب النماذج اللغوية المستقبلية. إذ تميل النماذج اللغوية الكبيرة أحياناً إلى «التذكر غير المقصود» حيث تستحضر سلاسل فريدة من البيانات مثل أرقام الهواتف التي لا تعمل على تحسين جودة النموذج، ولكنها تشكل مخاطر على الخصوصية، فأي بيانات في مجموعة البيانات المُستخدَمة لتدريب هذه النماذج قد يصل إليها مستخدمون آخرون سواء عن قصد أو عن غير قصد.

     

    وقد يلجأ الأشخاص في الأماكن التي تُحظر فيها الخدمات الرسمية، مثل ChatGPT، إلى بدائل غير رسمية من برامج أو مواقع إلكترونية أو روبوتات محادثة أخرى، ويقومون بتحميل برمجيات خبيثة تتظاهر بأنها عميل أو تطبيق لا وجود له في الحقيقة.

    ويمكن للمهاجمين الدخول إلى حسابات الموظفين، والوصول إلى بياناتهم، عبر هجمات التصيد الاحتيالي أو بيانات تسجيل الدخول. حيث تجد خدمة Kaspersky Digital Footprint Intelligence تعرض بانتظام منشورات في منتديات الإنترنت المظلم، والتي تبيع إمكانية الوصول إلى حسابات مختلفة على منصات روبوتات المحادثة.

    وتلخيصاً لما سبق، قد تعرِّض روبوتات المحادثة خصوصية كل من المستخدمين والشركات للخطر. لذا، على المطورين المسؤولين أن يوضحوا كيفية استخدامهم للبيانات عند تدريب نموذجهم اللغوي في سياسة الخصوصية الخاصة بهم.

    ويُظهر تحليل أجرته كاسبرسكي لروبوتات المحادثة الشائعة (بما في ذلك ChatGPT، وChatGPT API، وAnthropic Claude، وBing Chat، وBing Chat Enterprise، وYou.com، وGoogle Bard، وتطبيق Genius من تطوير Alloy Studios) أن معايير الأمن والخصوصية أعلى في روبوتات المحادثة الموجهة للعملاء من الشركات (B2B) نظراً للمخاطر الأكبر التي تتعرض إليها معلومات الشركات.



    حمّل تطبيق Alamrakamy| عالم رقمي الآن