حذرت دراسة جديدة من أن الذكاء الاصطناعي سهل بشكل كبير على القراصنة الخبيثين تحديد الحسابات المجهولة على مواقع التواصل الاجتماعي.
في معظم سيناريوهات الاختبار، نجحت النماذج اللغوية الكبيرة- وهي التقنية التي تقف وراء أدوات مثل شات جي بي تي- في مطابقة المستخدمين المجهولين على الإنترنت مع هوياتهم الحقيقية على منصات أخرى، استنادًا إلى المعلومات التي نشروها.
قال باحثا الذكاء الاصطناعي، سيمون ليرمن ودانيال باليكا، إن النماذج اللغوية الكبيرة تجعل تنفيذ هجمات الخصوصية المعقدة فعالًا من حيث التكلفة، مما يُجبر على "إعادة تقييم جوهرية لما يُمكن اعتباره خاصًا على الإنترنت"، بحسب تقرير لصحيفة "ذا غارديان"، اطلعت عليه "العربية Business".
في تجربتهما، أدخل الباحثان حسابات مجهولة إلى نظام ذكاء اصطناعي، وطلبا منه استخراج أكبر قدر ممكن من المعلومات. وقدّما مثالًا افتراضيًا لمستخدم يتحدث عن معاناته في المدرسة، وعن تمشيته لكلبه "بيسكيت" في "حديقة دولوريس".
في هذه الحالة الافتراضية، بحث نظام الذكاء الاصطناعي في أماكن أخرى عن هذه التفاصيل، وربط حساب @anon_user42 بالهوية المعروفة بدرجة عالية من الثقة.
وعلى الرغم من أن هذا المثال كان خياليًا، فقد أبرز مؤلفو الدراسة سيناريوهات تستخدم فيها الحكومات الذكاء الاصطناعي لمراقبة المعارضين والنشطاء الذين ينشرون بشكل مجهول، أو تمكن القراصنة من شن عمليات احتيال "شخصية للغاية".
تُعد المراقبة بالذكاء الاصطناعي مجالًا سريع التطور يثير قلق علماء الحاسوب وخبراء الخصوصية. فهي تستخدم النماذج اللغوية الكبيرة لتجميع معلومات عن الأفراد على الإنترنت، وهو أمر يصعب على معظم الناس القيام به يدويًا.
وأوضح ليرمن أن المعلومات المتاحة بسهولة على الإنترنت عن عامة الناس يمكن إساءة استخدامها بشكل مباشر في عمليات الاحتيال، بما في ذلك التصيد الاحتيالي الموجه، حيث ينتحل المخترق صفة صديق موثوق به لحمل الضحايا على النقر على رابط خبيث في بريدهم الإلكتروني.
ومع انخفاض مستوى الخبرة المطلوبة لتنفيذ هجمات أكثر تعقيدًا، لا يحتاج المخترقون سوى الوصول إلى النماذج اللغوية الكبيرة المتاحة للعموم واتصال بالإنترنت.
وقال بيتر بنتلي، أستاذ علوم الحاسوب في كلية لندن الجامعية، إن هناك مخاوف بشأن الاستخدامات التجارية لهذه التقنية إذا ما ظهرت منتجات لكشف المجهولة.
وإحدى المشكلات هي أن النماذج اللغوية الكبيرة غالبًا ما ترتكب أخطاء عند ربط الحسابات. وحذّر بنتلي قائلًا: "سيتم اتهام أشخاص بأشياء لم يفعلوها".
وثمة قلق آخر وفقًا للبروفيسور مارك خواريز، محاضر الأمن السيبراني في جامعة إدنبرة، وهو أن النماذج اللغوية الكبيرة قد تستخدم بيانات عامة تتجاوز مواقع التواصل الاجتماعي.
وقد تشمل هذه البيانات سجلات المستشفيات وبيانات القبول وغيرها من البيانات الإحصائية المنشورة والتي قد لا ترقى إلى مستوى إخفاء الهوية المطلوب في عصر الذكاء الاصطناعي.
وقال خواريز: "هذا مثير للقلق حقًا. أعتقد أن هذه الدراسة تُظهر أنه ينبغي علينا إعادة النظر في ممارساتنا".








