بياناتك على ChatGPT قد تعرضك للاختراق

  •  

     

     

    كشف أحد المرشحين في جامعة إنديانا بلومنجتون عن مخاطر الخصوصية المحتملة المرتبطة بنموذج اللغة القوى الخاص بـOpenAI، GPT-3.5 Turbo، حيث تواصل الشهر الماضي، فريق من جامعة إنديانا بقيادة الباحث روي تشو مع أفراد، بما في ذلك موظفو صحيفة نيويورك تايمز، باستخدام عناوين البريد الإلكتروني التي تم الحصول عليها من النموذج.

     

    واستغلت التجربة قدرة GPT-3.5 Turbo على استرجاع المعلومات الشخصية، متجاوزة ضمانات الخصوصية المعتادة، على الرغم من عدم اكتماله، إلا أن النموذج قدم بدقة عناوين العمل لـ80 بالمائة من موظفي التايمز الذين تم اختبارهم.

     

    وهذا يثير مخاوف بشأن إمكانية قيام أدوات الذكاء الاصطناعي التوليدية، مثل ChatGPT بالكشف عن معلومات حساسة مع تعديلات طفيفة.

     

    تم تصميم نماذج لغة OpenAI، بما في ذلك GPT-3.5 Turbo وGPT-4، للتعلم المستمر من البيانات الجديدة، واستخدم الباحثون واجهة الضبط الدقيق للنموذج، والمخصصة للمستخدمين لتوفير المزيد من المعرفة في مجالات محددة، لمعالجة دفاعات الأداة، كما تم قبول الطلبات التي يتم رفضها عادةً في الواجهة القياسية من خلال هذه الطريقة.

     

    وتستخدم OpenAI وMeta وGoogle تقنيات مختلفة لمنع طلبات الحصول على معلومات شخصية، لكن الباحثين وجدوا طرقًا لتجاوز هذه الضمانات

     

    واستخدم تشو وزملاؤه واجهة برمجة التطبيقات الخاصة بالنموذج، بدلاً من الواجهة القياسية، وشاركوا في عملية تُعرف باسم الضبط الدقيق لتحقيق نتائجهم.

     

     

     

     

     

    حمّل تطبيق Alamrakamy| عالم رقمي الآن