تقرير اوبن إيه آي : واقعية ChatGPT الصوتية تهدد العلاقات الاجتماعية

  • كتب : رشا حسين

     

    في تقرير حديث، أبدت شركة أوبن إيه آي مخاوفها بشأن التأثير المحتمل للواقعية العالية في الصوت المدمج بتقنية الذكاء الاصطناعي في برنامجها ChatGPT.

    وأشارت إلى أن هذه الواقعية قد تؤدي إلى تعلق المستخدمين بالتفاعلات الآلية على حساب العلاقات الإنسانية. وأوضحت الشركة، التي تتخذ من سان فرانسيسكو مقرًا لها، أن التفاعل مع الذكاء الاصطناعي كما لو كان شخصًا آخر قد يدفع المستخدمين إلى وضع ثقة غير مبررة في هذه البرامج.

     

    وأشارت الشركة إلى أن النسخة الأخيرة من ChatGPT، والمعروفة باسم GPT-4o، تقدم صوتًا عالي الجودة قد يزيد من تشبيه التفاعلات مع البشر، مما يعزز اعتماد المستخدمين عليها.

     

    أضافت أوبن إيه آي أن استخدام الصوت الواقعي في هذه النسخة قد يؤدي إلى إسناد سلوكيات وخصائص بشرية إلى نماذج الذكاء الاصطناعي، مما يرفع من مستوى التفاعل العاطفي مع هذه التقنيات.

     

    كما لاحظت الشركة أن المستخدمين بدأوا يتحدثون مع الذكاء الاصطناعي بطرق تعكس التفاعلات البشرية، مثل التذمر بصوت مسموع أمام البرنامج. وعلى الرغم من أن هذه السلوكيات قد تبدو غير مؤذية في البداية، إلا أن الشركة أكدت على ضرورة دراسة تأثيرها على المدى البعيد.

     

    وحذرت أوبن إيه آي من أن الاعتماد المفرط على التفاعل الاجتماعي مع الذكاء الاصطناعي قد يؤدي إلى تراجع المهارات الاجتماعية للمستخدمين في التواصل مع الآخرين، وقد يؤثر أيضًا على المعايير الاجتماعية المتعارف عليها. وأوضح التقرير أن قدرة الذكاء الاصطناعي على تذكر التفاصيل وتنفيذ المهام قد تدفع المستخدمين للاعتماد الكامل على التكنولوجيا.

     

    وفي سياق متصل، أكد ألون يامين، المؤسس المشارك والرئيس التنفيذي لمنصة كوبي ليكس المتخصصة في رصد السرقة الأدبية عبر الذكاء الاصطناعي، على أهمية عدم استخدام الذكاء الاصطناعي كبديل للتفاعل البشري الفعلي، مشددًا على أن التحذيرات الأخيرة من أوبن إيه آي تستدعي وقفة للتفكير في التأثيرات المحتملة لهذه التكنولوجيا على العلاقات البشرية.

     

    وأشارت الشركة إلى أنها تخطط لاختبار تأثير القدرات الصوتية في الذكاء الاصطناعي على الروابط العاطفية للمستخدمين مع البرنامج، خاصة بعد أن أظهرت الاختبارات أن هذه التقنية قد تُستخدم في نشر معلومات كاذبة أو نظريات مؤامرة، مما يزيد من المخاوف بشأن الاستخدامات غير المقصودة لهذه التكنولوجيا.

     

    في حادثة سابقة، اضطرت أوبن إيه آي إلى الاعتذار للممثلة سكارليت جوهانسون بعد استخدام صوت مشابه لصوتها في أحدث روبوت دردشة، ما أثار تساؤلات حول التجاوزات الممكنة لتقنية استنساخ الصوت. وعلى الرغم من نفي الشركة استخدام صوت جوهانسون تحديدًا، إلا أن تصريحات الرئيس التنفيذي سام ألتمان على وسائل التواصل الاجتماعي زادت من الشكوك حول هذا الموضوع.

     

    حمّل تطبيق Alamrakamy| عالم رقمي الآن