رئيس شركة يحذر OpenAI حول "مخاطر الذكاء الاصطناعي"

  •  

    شهدت ChatGPT ، التي أنشأتها شركة OpenAI الأمريكية، عدة ترقيات منذ إطلاقها، أصبحت قدرات الذكاء الاصطناعي للتكنولوجيا الأساسية متطورة للغاية لدرجة أن الناس بدأوا في طرح أسئلة حول ما إذا كان بإمكان الذكاء الاصطناعي استبدال الوظائف واستخدامه في نشر المعلومات الخاطئة.

     

     

     

    وقد افتتح سام التمان، الرئيس التنفيذي لشركة OpenAI، حديثه قائلاً إنه "خائف قليلاً" من اختراع شركته، لكنه متفائل بشأن الخير الذي يمكن أن تفعله، وأثناء حديثه إلى ABC News ، قال ألتمان إنه يعتقد أن تقنية الذكاء الاصطناعي تأتي مع مخاطر حقيقية، ولكن يمكن أيضًا أن تكون "أعظم تقنية طورتها البشرية حتى الآن" لتحسين حياة الناس بشكل كبير.

     

     

     

    وقال "علينا توخي الحذر هنا، ونقل عن ألتمان قوله "أعتقد أن الناس يجب أن يكونوا سعداء لأننا خائفون بعض الشيء من هذا"، قال إنه إذا لم يكن خائفًا، "فلا يجب أن تثق بي أو أن تكون غير سعيد جدًا لكوني في هذه الوظيفة".

     

     

    الذكاء الاصطناعي يحل محل الوظائف

     

    قال ألتمان إن الذكاء الاصطناعي من المحتمل أن يحل محل بعض الوظائف في المستقبل القريب وهو قلق بشأن السرعة التي يمكن أن يحدث بها ذلك، ومع ذلك، أشار أيضًا إلى الجانب المشرق من أن التكنولوجيا ستحسن حياتنا.

     

     

     

    وقال ألتمان: "أعتقد أنه على مدى جيلين، أثبتت البشرية أنها قادرة على التكيف بشكل رائع مع التحولات التكنولوجية الكبرى"، مضيفًا، "ولكن إذا حدث هذا في عدد من السنوات، فإن بعض هذه التحولات... هو الجزء الذي أشعر بالقلق بشأنه أكثر من غيره ".

     

     

     

    و"سيؤدي ذلك إلى القضاء على الكثير من الوظائف الحالية، هذا صحيح، يمكننا صنع وظائف أفضل بكثير، والسبب في تطوير الذكاء الاصطناعي على الإطلاق، من حيث التأثير على حياتنا وتحسين حياتنا والارتفاع، سيكون هذا هو أعظم تقنية وأشار ألتمان إلى أن الإنسانية لم تتطور بعد.

     

     

     

    كما شجع الناس على استخدام ChatGPT كأداة وليس كبديل، ناقش ألتمان أيضًا الآثار الإيجابية للذكاء الاصطناعي على التعليم، وقال: "يمكن أن يكون لدينا جميعًا معلم رائع في جيوبنا مخصص لنا، ويساعدنا على التعلم، يجب أن يتغير التعليم".

     

     

    استخدام الذكاء الاصطناعي في المعلومات الخاطئة

     

    بالنسبة إلى Altman ، هناك مشكلة واحدة متسقة مع نماذج لغة الذكاء الاصطناعي مثل ChatGPT وهي المعلومات الخاطئة. وقال إن البرنامج يمكن أن يمنح المستخدمين معلومات غير دقيقة من حيث الواقع.

     

     

     

    وقال "الشيء الذي أحاول تحذير الناس أكثر من غيره هو ما نطلق عليه" مشكلة الهلوسة "، سيوضح النموذج بثقة الأشياء كما لو كانت حقائق مكونة بالكامل"، كما قال، مضيفًا أن GPT-4، الأحدث نموذج اللغة، هو أقوى من النموذج الذي تم إطلاق ChatGPT به.

     

     

     

    وقال ألتمان: "الطريقة الصحيحة للتفكير في النماذج التي نبتكرها هي محرك تفكير، وليس قاعدة بيانات حقائق"، وأضاف: "يمكنهم أيضًا العمل كقاعدة بيانات للحقائق ، لكن هذا ليس ما يميزهم حقًا - ما نريدهم أن يفعلوه هو شيء أقرب إلى القدرة على التفكير، وليس الحفظ"، ولاحظ الرئيس التنفيذي للشركة أن التكنولوجيا نفسها كانت قوية بشكل لا يصدق ويحتمل أن تكون خطرة.

     

     



    حمّل تطبيق Alamrakamy| عالم رقمي الآن