A Apple está enfrentando uma ação judicial de vítimas de abuso sexual infantil por negligenciar a implementação de um sistema destinado a detectar material de abuso sexual infantil (CSAM) no iCloud, de acordo com O jornal New York Times. Movido no norte da Califórnia, o processo pede mais de US$ 1,2 bilhão em danos para aproximadamente 2.680 indivíduos. O processo alega negligência da Apple na proteção dos dados dos usuários, especialmente depois que a empresa propôs inicialmente um CSAM ferramenta de detecção em 2021.
Antecedentes da ferramenta CSAM da Apple e subsequente abandono
Em 2021, a Apple anunciou planos para uma ferramenta de detecção de CSAM que examinaria o iCloud em busca de imagens abusivas e alertaria o Centro Nacional para Crianças Desaparecidas e Exploradas. Esta iniciativa teve como objetivo melhorar a segurança infantil e combater eficazmente a exploração. No entanto, a empresa retirou o projeto após intensa reação sobre possíveis violações de privacidade. Os críticos expressaram preocupações de que a tecnologia pudesse infringir os direitos de privacidade do usuário, levando ao seu abandono. Como resultado, as vítimas alegam que a Apple não tomou as medidas necessárias para impedir a circulação de imagens prejudiciais.
O processo descreve o sofrimento vivido pelas vítimas, incluindo uma mulher de 27 anos que continua a receber notificações das autoridades sobre o compartilhamento de imagens de sua infância. As imagens que circulam agravam o sofrimento emocional dos envolvidos. Os demandantes argumentam que o fracasso da Apple em implementar as medidas de segurança propostas permitiu que tais materiais persistissem sem controle em sua plataforma.
Resposta da Apple e medidas existentes
Em resposta ao processo, a Apple enfatizou seu compromisso em proteger as crianças e, ao mesmo tempo, manter a privacidade dos usuários. O porta-voz Fred Sainz declarou: “O material de abuso sexual infantil é abominável e estamos empenhados em combater as formas como os predadores colocam as crianças em risco”. Ele destacou os recursos de segurança existentes, como o Communication Safety, que alerta os usuários quando eles enviam ou recebem conteúdo explícito. Apesar destes esforços contínuos, a empresa enfrenta um escrutínio cada vez maior relativamente à sua eficácia no tratamento dos desafios do CSAM.
No início deste ano, a Apple também foi criticada pela Sociedade Nacional para a Prevenção da Crueldade contra Crianças (NSPCC) do Reino Unido, que acusou a empresa de subnotificar casos de CSAM encontrados em suas plataformas. Esta pressão crescente realça as preocupações constantes sobre as estratégias da Apple no combate à exploração infantil e na garantia da segurança dos utilizadores nos seus serviços.
Crédito da imagem em destaque: Tim Mossholder/Unsplash
A postagem que a Apple processou em US$ 1,2 bilhão por falhas de detecção de CSAM apareceu pela primeira vez no TechBriefly.
Source: Apple processou US$ 1,2 bilhão por falhas de detecção de CSAM