في ضوء الإعلان الأخير بشأن الوظيفة المحسنة التي كشف عنها نظام ChatGPT، حيث يمكن دمج نماذج الذكاء الاصطناعي GPTs المخصصة في المحادثات مع ChatGPT الأصلي، يؤكد خبراء مركز الأبحاث الروسي كاسبرسكي على ضرورة اتباع أقصى درجات الحيطة والحذر عند مشاركة المعلومات الحساسة مع روبوتات الدردشة المدعومة بالذكاء الاصطناعي.
ويعلق فلاديسلاف توشكانوف الذي يشغل منصب مدير مجموعة تطوير الأبحاث في فريق أبحاث تكنولوجيا التعلم الآلي لدى كاسبرسكي على ذلك بقوله: "يمكن لنماذج الذكاء الاصطناعي GPTs الاستفادة من الموارد والأدوات الخارجية للوظائف المتقدمة، لذا قام مختبر أبحاث الذكاء الاصطناعي OpenAI من تطوير آلية لتمكين المستخدمين من مراجعة الإجراءات التي يتبعها نظام GPT والموافقة عليها، وبذلك يمكن الحيلولة دون تسرب الحوار المحتمل.
وعندما تحاول هذه الأنظمة المخصصة إرسال البيانات إلى خدمة جهة خارجية، يُطلب من المستخدمين أنفسم السماح بهذه العملية أو رفضها، فضلاً عن وجود خيار آخر لفحص البيانات باستخدام رمز القائمة المنسدلة في الواجهة، ويتم تطبيق نفس الميزة على وظيفة الجديدة".
وأضاف توشكانوف "رغم إدخال هذه الآليات، ينبغي على المستخدمين التحلّي بالوعي والتصرف بحذر تام، حيث يجب عليهم فحص كل طلب يتم استقباله وفهمه، ما قد يؤثر على تجاربهم عموماً. ليس هذا فحسب، بل توجد هناك طرق محتملة أخرى لتسرب بيانات المستخدم من خدمة chatbot، ويحدث ذلك نتيجة ارتكاب أخطاء أو وجود نقاط ضعف في الخدمة، إذا ما تم الاحتفاظ بالبيانات خلال عملية تدريب النموذج، أو إذا ما تمكن أحدهم من التسلل إلى حسابك. ويتعين بشكل عام توخّي الحذر، والامتناع عن مشاركة المعلومات الشخصية والسرية مع أي خدمة chatbot عبر الإنترنت".