Apple finaliza el CSAM y el escaneo de iCloud en busca de contenido de pornografía infantil

El siguiente artículo te ayudará: Apple finaliza el CSAM y el escaneo de iCloud en busca de contenido de pornografía infantil

CSAM, la verificación de contenido de pornografía infantil de Apple, se ha encontrado con algunos problemas más delicados. Generalmente asociados con la privacidad, estos puntos ahora pueden haber llevado a Apple a cambiar su posición.

El gigante de Cupertino tomó una decisión importante y decidió abandonar la verificación de contenido de pornografía infantil en iCloud. Con este cambio, el CSAM está cada vez más fuera de lugar.

El fin del MASI en iCloud

En agosto de 2021, Apple se centró en presentar novedades que pretendían proteger a los usuarios más jóvenes. Entre estos estaba CSAM, que ofrece verificación de contenido de pornografía infantil en iCloud.

Ahora, y durante la presentación de una novedad más, la marca de Cupertino llegó a desvelar que esta medida iba a ser cancelada. Se centra en cuestiones de privacidad y el deseo de mantener las imágenes de los usuarios alejadas de miradas indiscretas.

Después de una extensa consulta con expertos para recopilar comentarios sobre las iniciativas de protección infantil que propusimos el año pasado, estamos profundizando nuestra inversión en la función de seguridad de la comunicación que pusimos a disposición por primera vez en diciembre de 2021. Hemos decidido no seguir adelante con nuestra propuesta anterior de detección de MASI. herramienta para Fotos de iCloud. Los niños pueden estar protegidos sin que las empresas revisen los datos personales, y continuaremos trabajando con los gobiernos, los defensores de los niños y otras empresas para ayudar a proteger a los jóvenes, preservar su derecho a la privacidad y hacer de Internet un lugar más seguro para los niños y para todos. de nosotros

Escanear contenido de pornografía infantil

Apple reveló inicialmente que la detección de CSAM se implementaría en una actualización de iOS 15 y iPadOS 15 para fines de 2021. Más tarde acordó retrasar esta función en función de “los comentarios de los clientes, grupos de defensa, investigadores y otros”. Ahora, después de un año de silencio, la empresa ha abandonado por completo los planes para la detección de MASI.

🔥 Recomendado:  Evita Estos 6 Errores Comunes de Optimización de Noticias de Google

En ese momento, Apple fue criticada por individuos y organizaciones, incluida la Electronic Frontier Foundation (EFF). algunos argumentaron que esto sería un dispositivo de puerta trasera para que las agencias gubernamentales pudieran vigilar a los usuarios. Otra preocupación eran los falsos positivos, incluida la posibilidad de que alguien agregara imágenes CSAM a otras cuentas de iCloud.

Más noticias de Apple

Además de esta medida anunciada, Apple ha revelado novedades en su servicio en la nube para proteger aún más los datos de los usuarios. Estamos hablando de Protección de datos avanzada, una función opcional que aplica cifrado de extremo a extremo a una mayor parte de sus datos de iCloud.

Con esta novedad se detiene el sistema que Apple había diseñado para comprobar contenidos de pornografía infantil en iCloud. La compañía ha indicado que no avanzará ahora, abriendo la puerta a revertir esta decisión en el futuro.