درب العلماء الذكاء الاصطناعي من خلال تجربة طفل رضيع في محاولة لتعليم التكنولوجيا كيفية تطور البشرية، وذلك وسط مخاوف من أنها قد تدمرنا، حيث ربط الباحثون في جامعة نيويورك مسجل كاميرا الرأس بسام عندما كان عمره ستة أشهر فقط حتى عيد ميلاده الثاني.
ووفقا لما ذكرته صحيفة "ديلى ميل" البريطانية، تمت تغذية اللقطات والصور المقابلة لنموذج الذكاء الاصطناعي، الذي تعلم كيفية التعرف على الأشياء المختلفة على غرار ما فعل سام.
طور الذكاء الاصطناعي معرفته بنفس الطريقة التي قام بها الطفل من خلال مراقبة البيئة، والاستماع إلى الأشخاص القريبين وربط النقاط بين ما شوهد وسمع.
كما حددت التجربة العلاقة بين التمثيل البصري واللغوي في نمو الطفل، واكتشف الباحثون كيفية ربط البشر الكلمات بالتمثيل البصري، مثل ربط كلمة "كرة" بجسم مستدير نطاط بدلاً من ميزات أو أشياء أو أحداث أخرى.
التقطت الكاميرا بشكل عشوائي أنشطة سام اليومية، مثل أوقات الوجبات وقراءة الكتب ولعب الطفل، والتي بلغت حوالي 60 ساعة من البيانات.
استخدم الباحثون جهاز تشفير الرؤية والنص لترجمة الصور واللغة المكتوبة لنموذج الذكاء الاصطناعي للترجمة من اللقطات التي تم الحصول عليها من خلال الطفل.
على الرغم من أن اللقطات في كثير من الأحيان لم تربط بشكل مباشر بين الكلمات والصور، إلا أن روبوت نموذج رؤية الطفل للتعلم المتباين (CVCL)، الذي يتكون من الذكاء الاصطناعي والكاميرا الأمامية، كان قادرًا على التعرف على المعاني.
وأظهرت النتائج التي توصلوا إليها أن نموذج الذكاء الاصطناعي يمكنه تعميم ما تعلمه بمعدل دقة 61.6%، وكان قادرًا على تحديد الأمثلة غير المرئية بشكل صحيح مثل "تفاحة" و"كلب" بنسبة 35% من الوقت.
ووجد الباحثون أنه لا تزال هناك عيوب في نموذج الذكاء الاصطناعي، وبينما أظهر الاختبار نجاح في فهم كيفية تطوير الأطفال للوظائف المعرفية، إلا أنه كان محدودًا بسبب عدم قدرته على تجربة حياة الطفل بشكل كامل.