يمثل استخدام روبوتات الذكاء الاصطناعي في الاستشارات النفسية اقبالا من قبل المستخدمين ،ولكنه يحتاج إلى حذر شديد وتفهم دقيق للحدود والمخاطر، فبينما يمكن أن تقدم هذه الروبوتات دعمًا مبدئيًا، إلا أنها لا يمكن أن تحل محل المعالج البشري المتخصص.
وقد كشفت دراسة جديدة من جامعة ستانفورد الأمريكية عن مخاطر كبيرة تهدد سلامة المرضى النفسيين عند استخدام روبوتات الذكاء الاصطناعي العلاجية القائمة على نماذج اللغة الكبيرة، مشيرة إلى أن هذه الأدوات قد تُظهر سلوكًا وصفيًا ينم عن وصم للمرضى، بل وتستجيب أحيانًا بطريقة غير ملائمة أو حتى خطيرة.
لماذا يجب الحذر عند استخدام روبوتات الذكاء الاصطناعي في الاستشارات النفسية؟
تعتمد الاستشارات النفسية بشكل أساسي على العلاقة العلاجية الإنسانية القائمة على الثقة، التعاطف، والفهم العميق للسياق البشري و هذه الجوانب يصعب على الذكاء الاصطناعي محاكاتها بشكل كامل، نظراً لأن الروبوتات لا تمتلك مشاعر أو تجارب حياتية ويمكنها تحليل النصوص وتقديم استجابات منطقية، لكنها تفتقر إلى القدرة على فهم المشاعر البشرية المعقدة والرد عليها بحساسية وتعاطف حقيقيين.
ومن بين الأسباب صعوبة التعامل مع السياقات المعقدة والمواقف الحرجة، فقد يواجه الذكاء الاصطناعي صعوبة في فهم المحادثات التي تتضمن سياقات معقدة، معاني غير مباشرة، أو أفكارًا ضارة مثل الانتحار أو إيذاء الذات وفي هذه الحالات، يمكن أن يؤدي الاعتماد على الروبوتات إلى تقديم نصائح غير مناسبة أو حتى ضارة.
مخاطر سوء الفهم وتقديم المشورة المضللة
و على الرغم من التطورات، قد يسيء الذكاء الاصطناعي فهم مدخلات المستخدم أو يقدم نصائح عامة أو مضللة قد لا تكون مناسبة للحالة الفريدة للشخص، مما قد يزيد من سوء الحالة النفسية.
قضايا الخصوصية وأمن البيانات
تتطلب الاستشارات النفسية مشاركة معلومات شخصية وحساسة للغاية، فإن استخدام الذكاء الاصطناعي يثير مخاوف جدية بشأن كيفية جمع هذه البيانات، تخزينها، حمايتها من الاختراقات، ومنع إساءة استخدامها.