in

Apple enfrenta demanda por no implementar medidas contra el abuso infantil

La falta de un sistema de detección de material de abuso infantil en iCloud genera controversia.

Apple enfrenta demanda por no prevenir abuso infantil
Apple se enfrenta a una demanda por no implementar medidas contra el abuso infantil en sus plataformas.

La demanda contra Apple

Apple se encuentra en el centro de una controversia legal tras ser demandada por no haber implementado un sistema que escanearía las fotos de iCloud en busca de material de abuso sexual infantil (CSAM). La demanda, presentada por una mujer de 27 años bajo un seudónimo, sostiene que la falta de acción de la compañía ha obligado a las víctimas a revivir su trauma. Según el New York Times, la demanda argumenta que Apple anunció un diseño mejorado para proteger a los niños, pero no tomó medidas efectivas para detectar y limitar la difusión de dicho material.

El sistema propuesto y su abandono

En 2021, Apple había anunciado un sistema que utilizaría firmas digitales del Centro Nacional para Niños Desaparecidos y Explotados, así como de otros grupos, para detectar contenido CSAM conocido en las bibliotecas de iCloud de los usuarios. Sin embargo, la compañía parece haber abandonado esos planes después de que defensores de la privacidad y la seguridad advirtieran que podría crear una puerta trasera para la vigilancia gubernamental. Esta decisión ha generado críticas y cuestionamientos sobre la responsabilidad de Apple en la protección de sus usuarios más vulnerables.

Impacto en las víctimas

La demandante, quien fue víctima de abuso en su infancia, ha compartido que un familiar la molestó y que se compartieron imágenes de ella en línea. A pesar del tiempo transcurrido, sigue recibiendo notificaciones de las autoridades sobre personas acusadas de poseer esas imágenes. El abogado James Marsh, involucrado en el caso, ha señalado que hay un potencial grupo de 2,680 víctimas que podrían tener derecho a compensación. Esto pone de relieve la urgencia de que las empresas tecnológicas tomen medidas efectivas para combatir el abuso infantil en sus plataformas.

La respuesta de Apple

Un portavoz de Apple declaró al New York Times que la empresa está “innovando de manera urgente y activa para combatir estos crímenes sin comprometer la seguridad y privacidad de todos nuestros usuarios”. Sin embargo, la presión sobre la compañía aumenta, especialmente después de que en agosto una niña de 9 años y su tutor demandaran a Apple por no abordar adecuadamente el CSAM en iCloud. La situación plantea un dilema sobre cómo equilibrar la privacidad del usuario con la necesidad de proteger a los niños de la explotación.

¿Qué piensas?

Imagen que ilustra la comedia en la política moderna

El impacto de la comedia en la actualidad política y social

Google affronta il governo degli Stati Uniti in tribunale

Google enfrenta al gobierno de EE. UU. en una batalla legal por pagos