الاتحاد الأوروبى يطالب ميتا بتوضيح إجراءات حماية الأطفال قبل 22 ديسمبر

  •  

    خلال الأشهر القليلة الماضية، طلب منظمو التكنولوجيا في الاتحاد الأوروبي (EU) من شركة Meta العملاقة لوسائل التواصل الاجتماعي تقديم مزيد من التفاصيل حول الإجراءات التي اعتمدتها لمعالجة المحتوى "غير المرغوب فيه" على تطبيق Instagram الشهير لمشاركة الصور والفيديو.

    وفي أكتوبر، أرسلت المفوضية الأوروبية طلبها الأول إلى الشركة التي يقودها مارك زوكربيرج لتقديم معلومات حول التدابير المتخذة للحد من انتشار المحتوى الإرهابي والعنيف على منصة التواصل الاجتماعي الخاصة بها.

    وفي الشهر الماضي، أرسلت الهيئة التنظيمية طلبًا آخر يطلب تفاصيل حول الإجراءات التي اعتمدتها شركة Meta لحماية القاصرين.

    والآن، منحت هيئة الرقابة التابعة للاتحاد الأوروبي الشركة موعدًا نهائيًا لتقديم مزيد من التفاصيل حول التدابير التي اتخذتها لمعالجة مواد الاعتداء الجنسي على الأطفال بحلول 22 ديسمبر.

    وأشار المنظمون في الاتحاد الأوروبي أيضًا إلى أنه إذا فشلت ميتا في الامتثال للطلب، فإنها ستخاطر بإجراء تحقيق رسمي بموجب القواعد الجديدة لتنظيم المحتوى عبر الإنترنت.

    ما قاله المنظمون في الاتحاد الأوروبي

    وقالت المفوضية الأوروبية في بيان لوكالة رويترز للأنباء: "يتم طلب معلومات أيضًا حول نظام التوصية في انستجرام وتضخيم المحتوى الذي قد يكون ضارًا".

    يسمح قانون الخدمات الرقمية (DSA) التابع للاتحاد الأوروبي لمنظميه بطلب مثل هذه المعلومات من شركات التكنولوجيا. وبموجب القانون الجديد، سيطلب الاتحاد الأوروبي من شركات التكنولوجيا الكبرى اتخاذ إجراءات أكثر صرامة ضد المحتوى غير القانوني والضار على منصاتها، وإذا فشلت الشركات في الامتثال لمثل هذه الطلبات، فقد يؤدي ذلك إلى تحقيق رسمي وحتى غرامات.

    كما تلقى موقع TikTok التابع لشركة ByteDance الصينية العملاقة لوسائل التواصل الاجتماعي وموقع المدونات الصغيرة X المملوك لشركة Elon Musk، طلبات مماثلة للحصول على معلومات من الاتحاد الأوروبي.

    وفي يونيو، زعم تقرير أن خوارزميات التوصية في إنستغرام تروج لشبكات من المتحرشين بالأطفال، تم اتهام هؤلاء الأوغاد بتكليف وبيع محتوى الاعتداء الجنسي على الأطفال على منصة مشاركة الصور الشهيرة.

    إذا فشلت Meta في الامتثال لـ DSA وظلت غير ناجحة في التحقق من انتشار مواد الاعتداء الجنسي على الأطفال (CSAM)، فقد تضطر الشركة إلى دفع غرامة يمكن أن تصل إلى 6% من مبيعاتها السنوية العالمية.

     

     

    حمّل تطبيق Alamrakamy| عالم رقمي الآن