تراجع الثقة في عمالقة التكنولوجيا يهدد مستقبل الذكاء الاصطناعي

  • بقلم : مارك مينيفيتش

    نحن اليوم قاب قوسين أو أدنى من حصد فوائد مذهلة لتقنيات الذكاء الاصطناعي من شأنها تحسين حياة الجميع. لذا لا يمكننا السماح لتآكل الثقة بأن يعيق هذه الإنجازات ويعرضها للخطر.

    تظهر ظهر الأبحاث الحديثة أن الثقة العالمية في شركات الذكاء الاصطناعي الكبرى آخذة في التراجع. ففي استطلاع شركة Edelman، انخفضت هذه الثقة من 61% إلى 53%، بينما تشير أبحاث Gallup إلى أن ما يقرب من 8 من كل 10 أشخاص لا يثقون في قدرة الشركات على استخدام الذكاء الاصطناعي بمسؤولية. ويعود سبب هذا التراجع إلى المخاوف المتعلقة بانتهاكات خصوصية البيانات، والتحيزات الخوارزمية، ونقص الشفافية، والمعضلات الأخلاقية، مما يثير شكوكاً حول نوايا شركات التكنولوجيا وكيفية تعاملها مع تقنيات الذكاء الاصطناعي. وبدورها، تقوض هذه الشكوك ثقة الجمهور في ممارسات هذه الشركات ومنتجاتها.

    يعمل عمالقة التكنولوجيا على إنشاء بيئة احتكارية للذكاء الاصطناعي من خلال استراتيجيات متعددة تعزز هيمنتهم على هذا القطاع. فمن ناحية، يستغلون مواردهم المالية الضخمة وخبراتهم التقنية للاستحواذ على الشركات الناشئة الواعدة في مجال الذكاء الاصطناعي واستقطاب المواهب المتميزة، مما يؤدي إلى القضاء على المنافسة المحتملة وتركيز القدرات تحت سيطرتهم. ومن ناحية أخرى، توظف هذه الشركات قواعد بيانات المستخدمين الهائلة لديها لتدريب وتحسين خوارزميات الذكاء الاصطناعي، مما يمنحها أفضلية تنافسية كبيرة في تطوير حلول أكثر دقة وفعالية، ويجعل من الصعب على الشركات الأصغر اللحاق بها لافتقارها لنفس حجم وجودة البيانات اللازمة.

    كما تنتهج هذه الشركات الكبرى استراتيجيات عدوانية فيما يتعلق ببراءات الاختراع وحقوق الملكية الفكرية، مما يعيق وصول الآخرين للابتكارات الأساسية في هذا المجال ويخنق المنافسة في السوق، فضلاً عن سيطرتها على البنى التحتية الأساسية مثل الحوسبة السحابية ومنصات تطوير الذكاء الاصطناعي. ويثير هذا التركيز الاحتكاري للسلطة مخاوف جدية بشأن إمكانية التنافس والابتكار واحتمالات إساءة استخدام النفوذ في هذه الصناعة المهمة.

    مع استمرار شركات التكنولوجيا الكبرى في تراكم كميات ضخمة من البيانات الشخصية لتشغيل أنظمة الذكاء الاصطناعي لديها، تتصاعد المخاوف حول خصوصية وأمن هذه البيانات. فقد قوضت حالات الاختراق وإساءة الاستخدام التي حدثت في الماضي، إلى جانب نقص الشفافية في ممارسات إدارة البيانات، الثقة في قدرة هذه الشركات على حماية خصوصية المستخدمين. فالجمع الواسع للبيانات الشخصية، بما في ذلك سجلات التصفح والمواقع الجغرافية والتفاعلات الاجتماعية، ينتهك الخصوصية ويزيد من خطر إساءة استخدامها أو الوصول غير المصرح به إليها، سواء بسبب الاختراقات أو التعديات الداخلية، مما قد يؤدي إلى سرقة الهوية والاحتيال والجرائم الإلكترونية الأخرى.

    هذا وتثير الطبيعة المبهمة لخوارزميات شركات التكنولوجيا وآليات صنع القرار لديها تساؤلات حول مدى خضوعها للمساءلة والشفافية. فبدون تفسيرات واضحة للقرارات التي يتم اتخاذها بواسطة تقنيات الذكاء الاصطناعي، يبقى المستخدمون وأصحاب المصلحة مغيبين، غير قادرين على فهم هذه القرارات أو الطعن فيها، مما يزيد من تآكل الثقة في هذه التقنيات.  كما أن هذه الخوارزميات التي غالباً ما تكون محمية كملكية فكرية خاصة، تعمل كصناديق سوداء تنتج نتائج دون شرح كيفية التوصل إليها، مما يعيق إمكانية اكتشاف التحيزات أو الأخطاء أو الآثار الأخلاقية المحتملة.

    يضاف إلى ذلك المخاوف المرتبطة بالتسجيل والتحليل واسعي النطاق لبيانات المستخدمين من قِبل شركات التكنولوجيا لأغراض الذكاء الاصطناعي، والتي قد تنتهك الخصوصية عن طريق الوصول لمعلومات حساسة دون علم أو موافقة صريحة من الأفراد. كما يثير استخدام الذكاء الاصطناعي لأغراض المراقبة من جانب هذه الشركات شكوكاً جدية حول المراقبة الجماعية، وتآكل الخصوصية، واحتمالية التحكم المفرط، مما يهدد الحريات المدنية والديمقراطية. وعلى صعيد آخر، فإن توظيف هذه الشركات للذكاء الاصطناعي في الإعلانات الموجهة وتوصيات المحتوى والتجارب الشخصية، يمكن أن يؤثر على سلوك المستخدمين وتفضيلاتهم وآرائهم بشكل يؤدي إلى الاستقطاب الاجتماعي وغرف الصدى.

    وعلى المستوى الاقتصادي، فإن التوسع السريع في تبني شركات التكنولوجيا العملاقة لتقنيات الذكاء الاصطناعي قد يتسبب في إزاحة للوظائف واضطراب في مختلف القطاعات. فأتمتة المهام الروتينية باستخدام الذكاء الاصطناعي يمكن أن تحل محل العمالة البشرية، مما يفاقم من البطالة والفجوات في الدخل والمشكلات الاجتماعية الأخرى.

     

    ونحن اليوم قاب قوسين أو أدنى من حصد فوائد مذهلة لتقنيات الذكاء الاصطناعي من شأنها تحسين حياة الجميع. لذا لا يمكننا السماح لتآكل الثقة بأن يعيق هذه الإنجازات ويعرضها للخطر. فنحن بحاجة للتكاتف والعمل معاً لإثبات للعالم أن الذكاء الاصطناعي يمكن أن يكون أداة إيجابية تخدم الإنسانية جمعاء وليس فئة محدودة فقط.

     

    ولتعظيم الاستفادة من إمكانات الذكاء الاصطناعي الهائلة مع التصدي لمخاطره في الوقت ذاته، يتحتم علينا تعزيز الثقة في شركات التكنولوجيا الكبرى والأنظمة القائمة على الذكاء الاصطناعي. وهذا يتطلب دفع مستويات أعلى من الشفافية، وآليات أقوى للمساءلة، وممارسات أكثر التزاماً بالأخلاقيات، من أجل ضمان تطوير ونشر هذه التقنيات المتقدمة بطريقة مسؤولة ومستدامة.

     

    حمّل تطبيق Alamrakamy| عالم رقمي الآن