أبل تطلق مبادره لحمايه الأطفال على اجهزتها

  • أعلنت شركة آبل بأنها ستفحص أجهزة iPhone في الولايات المتحدة بحثًا عن مواد الاعتداء الجنسي على الأطفال (CSAM). كجزء من هذه المبادرة ، تشارك الشركة مع الحكومة وإجراء تغييرات على iCloud و iMessage و Siri و searsh  وفقا لما نقله موقع TheNextWeb.

     

    ومع ذلك  فإن خبراء الأمن قلقون بشأن المراقبة ومخاطر تسرب البيانات. ولكن قبل إلقاء نظرة على هذه المخاوف ، دعنا نفهم ما الذي تفعله Apple بالضبط؟.

     

    كيف تخطط Apple لفحص أجهزة iPhone بحثًا عن صور CSAM؟

     

    تعتمد مجموعة كبيرة من الميزات لفحص CSAM على الصور التي تحمل بصمات الأصابع التي يوفرها المركز الوطني للأطفال المفقودين والمستغلين (NCMEC).

     

    ستقوم Apple بفحص صور iCloud الخاصة بك ومشاهدتها باستخدام قاعدة بيانات NCMEC لاكتشاف ما إذا كانت هناك أي صور CSAM ، ولا تقوم الشركة بهذا فعلاً على السحابة ، لكنها تنفذ هذه الإجراءات على جهازك. تقول أنه قبل إرسال الصورة إلى وحدة تخزين iCloud ، ستقوم الخوارزمية بإجراء فحص ضد تجزئات CSAM المعروفة.

     

     

    عندما يتم تحميل صورة على iCloud ، تنشئ Apple قسيمة أمان مشفرة مخزنة معها. يحتوي الإيصال على تفاصيل لتحديد ما إذا كانت الصورة تتطابق مع تجزئات CSAM المعروفة ، لن يعرف عملاق التكنولوجيا هذه التفاصيل ، ما لم يتجاوز عدد صور CSAM على حسابك على iCloud عددا معينًا.

     

    ضع في اعتبارك أنه إذا أوقفت مزامنة iCloud على هاتفك فلن يعمل المسح بالنسبة إلى iMessage ستقوم Apple بإجراء مسح ضوئي وتشويش لصور CSAM بالإضافة إلى ذلك  عندما يشاهد الطفل مثل هذه الصورة ، سيتلقى الوالدان إشعارًا بشأنها ، حتى يتمكنوا من اتخاذ الإجراء المناسب.

     

    إذا كان الطفل يحاول إرسال مثل هذه الصور فسيتم تحذيره  وإذا استمر فسيتم إرسال إشعار إلى الوالدين.

     

     









    حمّل تطبيق Alamrakamy| عالم رقمي الآن