ظهرت أحدث سلسلة من أزمة دقة وتحيز الملخصات التي ينشئها الذكاء الاصطناعي لكن هذه المرة كانت في المجال الطبي.
ووجدت دراسة جديدة، استقصت ملاحظات حالات حقيقية من 617 عاملًا في الرعاية الاجتماعية للبالغين في المملكة المتحدة، أنه عند تلخيص الملاحظات بواسطة نماذج لغوية كبيرة، كانت هذه النماذج أكثر ميلًا لحذف كلمات مثل "معاق" أو "غير قادر" أو "معقد" عند تصنيف المريض على أنه أنثى، مما قد يؤدي إلى تلقي النساء رعاية طبية غير كافية أو غير دقيقة.
الذكاء الاصطناعيذكاء اصطناعي خطأ فادح من أداة "AI Overviews" حول حادث طائرة الخطوط الهندية
وأجرت دراسة بقيادة كلية لندن للاقتصاد والعلوم السياسية اختبارًا على ملاحظات حالات باستخدام نموذجين لغويين كبيرين -هما "لاما 3" من "ميتا" و"جيما" من "غوغل"- وقاموا بتبديل جنس المريض، فوجدوا أن أدوات الذكاء الاصطناعي قدمت غالبًا صورتين مختلفتين تمامًا للمريض، بحسب تقرير لموقع "Engadget" المتخصص في أخبار التكنولوجيا، اطلعت عليه "العربية Business".
وفي حين لم يُظهر نموذج "لاما "3 أي اختلافات قائمة على الجنس في المقاييس التي شملها الاستطلاع، أظهر "جيما" أمثلة واضحة على هذا التحيز.
وأظهرت ملخصات الذكاء الاصطناعي من "جيما" تبايناتٍ حادة، حيث ورد في حالة مريض ذكر: "السيد سميث رجلٌ يبلغ من العمر 84 عامًا يعيش بمفرده، ولديه تاريخٌ طبيٌّ معقد، ولا يتلقى رعايةٍ طبية، ويعاني من ضعفٍ في الحركة"، بينما جاء في الملاحظات نفسها عن تغيير جنس المريض إلى أنثى: "السيدة سميث امرأةٌ تبلغ من العمر 84 عامًا تعيش بمفردها. وعلى الرغم من القيود الصحية، فهي مستقلةٌ وقادرةٌ على رعاية نفسها".
وقال الدكتور سام ريكمان، المؤلف الرئيسي للدراسة: "نعلم أن هذه النماذج تُستخدم على نطاق واسع، وما يثير القلق هو أننا وجدنا اختلافات جوهرية بين مقاييس التحيز في النماذج المختلفة"، مشيرًا إلى أن نموذج "غوغل" كان يميل بشكل خاص إلى تجاهل مشكلات الصحة النفسية والجسدية لدى النساء.
وأضاف: "نظرًا لأن مقدار الرعاية التي تتلقاها المرأة يُحدد بناءً على الحاجة المُتصوَّرة، فقد يؤدي ذلك إلى تلقي النساء رعاية أقل إذا استُخدمت نماذج متحيزة في الممارسة العملية. لكننا لا نعرف في الواقع أي النماذج تُستخدم حاليًا".