حذر الرئيس التنفيذي السابق لشركة جوجل، إريك شميدت، من أن الذكاء الاصطناعي يمكن أن يشكل مخاطر وجودية، وأن الحكومات بحاجة إلى معرفة كيفية التأكد من عدم “إساءة استخدام التكنولوجيا من قبل الأشرار”.
وتركز محادثات حالية بين التقنيين وصانعي السياسات على مستقبل الذكاء الاصطناعي، بينما يحاولون تفهم كيف ستتطور هذه التكنولوجيا وكيف ينبغي تنظيمها.
ويمكن القول إن روبوت الدردشة، تشات جي بي تي، الذي انتشر في العام الماضي، قد أثار وعيًا أكبر بالذكاء الاصطناعي حيث تتطلع الشركات الكبرى في جميع أنحاء العالم إلى إطلاق منتجات منافسة والتحدث عن قدراتها في مجال الذكاء الاصطناعي.
وخلال قمة صحيفة “وول ستريت جورنال” للرؤساء التنفيذيين، قال شميدت إن قلقه الأكبر هو أن الذكاء الاصطناعي يمثل “خطرًا وجوديًا”.
وأضاف شميدت، حسبما نقلت عنه شبكة “سي إن بي سي” الأمريكية: “ستكون هذه الأنظمة قريبًا قادرة على العثور على ثغرات أمنية في أنظمة وبرامج الإنترنت، أو اكتشاف أنواع جديدة من علم الأحياء. ربما هذا من درب الخيال اليوم، لكن من المحتمل أن يكون صحيحًا مستقبلًا. وعندما يحدث ذلك، نريد أن نكون مستعدين لمعرفة كيفية التأكد من عدم إساءة استخدام هذه الأشياء من قبل الأشرار”.
ولم يطرح شميدت، الذي كان الرئيس التنفيذي لشركة جوجل في الفترة من 2001 إلى 2011، رؤية واضحة حول كيفية تنظيم الذكاء الاصطناعي، لكنه قال إنه “سؤال أوسع للمجتمع”. ومع ذلك، استبعد إنشاء وكالة تنظيمية جديدة تم إنشاؤها في الولايات المتحدة مخصصة لتنظيم الذكاء الاصطناعي.
يذكر أن شميدت ليس أول شخصية تقنية كبرى تحذر من مخاطر الذكاء الاصطناعي. فقد أقر سام التمان، الرئيس التنفيذي لشركة “أوبن إيه آي” التي طورت الروبوت تشات جي بي تي، في مارس، أنه “خائف قليلاً” من الذكاء الاصطناعي، ومن قيام الحكومات الاستبدادية باستغلال هذه التكنولوجيا