مع التطور الكبير في أنظمة الذكاء الاصطناعي والتعلم العميق للآلات، إلا أنها تبقى متخلفة عن البشر، حين يتعلق الأمر بقراءة المشاعر، إذ أثبت باحثون من جامعة "دبلن سيتي " ، أن خوارزميات الذكاء الاصطناعي المخصصة لقراءة العواطف البشرية من خلال تعابير تحت شعار التاءات الثلاث – التصرّف والتحليل والتوقّع الوجه، لم ترقَ إلى مستوى أداء المتخصصين البشر.
ووفقًا للدراسة التي نشرتها في مجلة بلوس ون، درس الباحثون 8 أنظمة ذكاء اصطناعي متخصصة بقراءة الوجوه تلقائيًا، وقارنوا أداءها بأداء المراقبين البشريين المتخصصين بالتعرف على المشاعر، ليجدوا أن دقة التعرف البشري على المشاعر بلغت 72%، في حين تراوحت دقة أنظمة الذكاء الاصطناعي بين 48 إلى 62% فقط.
من جهته أكد الدكتور داميان دوبريه ـ المؤلف الرئيسي للدراسة أن «أنظمة الذكاء الاصطناعي تلخص المشاعر البشرية في 6 مشاعر رئيسة، ولكن يصعب عليها فهم المشاعر المتداخلة».
أضاف من السهل تطوير أنظمة ذكاء اصطناعي تدعي قدرتها على تمييز المشاعر البشرية من خلال تعابير الوجه، ولكن معظمها بُني على أدلة علمية غير حاسمة.. وعلى الشركات العاملة بأنظمة الذكاء الاصطناعي الحذر من أن النتائج لا تدل على مقدار المشاعر المحسوسة، بل هي مقياس لمدى تطابق وجه الشخص مع وجهٍ يستجيب لإحدى المشاعر الست الأساسية».
وأشارت الدراسة إلى أن نتائج الذكاء الاصطناعي في التعرف على المشاعر العفوية انخفضت، ولكنها تحسنت مع المشاعر المصطنعة.