أميركا تواجه مخاطر الذكاء الاصطناعي

  •  

    مع تخوف كثيرين من زيادة استخدام تقنيات الذكاء الاصطناعي، واحتمالية تطورها دون رقيب أو قواعد تحكم عملها، أصدر المعهد الوطني للمعايير والتكنولوجيا في الولايات المتحدة، إطارا جديدا لإدارة مخاطر الذكاء الاصطناعي.

     

    ويأتي الإطار الجديد بعدما فشلت المؤسسات التي تستخدم هذه التقنيات في مناقشة بشكل عميق وتفصيلي المبادئ والأخلاقيات التي يجب مراعاتها أثناء استخدام الذكاء الاصطناعي.

     

    ويهدف هذا الإطار إلى تقديم إرشادات و توصيات عالية المستوى، حول كيفية الحفاظ على نتائج مفيدة للبشرية للذكاء الاصطناعي، بالإضافة إلى جعل المعلومات والخوارزميات صالحة وموثوقة وآمنة ومرنة وخاضعة للمساءلة والشفافية، وقابلة للتفسير ومعززة للخصوصية وعادلة بدون تحيز ضار.

     

    ويتخوف الخبراء من أن يواصل الذكاء الاصطناعي التعلم إلى ما هو أبعد من برمجته الأصلية.

     

    ويشير الخبراء إلى أن الذكاء الاصطناعي يحمل مخاطر خصوصية مرتفعة إلى حد كبير، بسبب القدرة المحسّنة على تجميع البيانات، مما جعل الأمر أكثر صعوبة لأن تحليل البيانات الضخمة يمكن أن يتيح اتخاذ قرارات مستهدفة للغاية بواسطة الذكاء الاصطناعي دون الحاجة إلى الاعتماد على معلومات التعريف الشخصية، التي تقع ضمن نطاق قوانين الخصوصية التقليدية.



    حمّل تطبيق Alamrakamy| عالم رقمي الآن