Ícone do site F3 Notícias

Apple adia plano para escanear telefones em busca de material de abuso infantil

Foto: Marcello Casal Jr./Agência Brasil

A Apple publicou uma atualização da nota sobre as mecânicas da 15ª versão de seu sistema operacional iOS, informando que o plano de escanear aparelhos automaticamente em busca de material de abuso infantil está em pausa. O sistema, que detectaria conteúdo de pedofilia presente no iCloud automaticamente, teve sua implementação adiada após riscos de invasão de privacidade.

“Baseada no retorno de clientes, grupos sociais, pesquisadores e outros, decidimos levar mais tempo nos próximos meses para coletar opiniões e aplicar melhorias antes de implementar este recurso criticamente importante de proteção infantil.”

A controvérsia se deu após o uso de uma das mecânicas que informaria a crianças que estão recebendo ou enviando conteúdo sexualmente explícito pelo Messages. A Apple utilizaria algoritmos para detectar se os materiais são, de fato, impróprios, e borraria o conteúdo antes, perguntando se queriam ver.

Caso optarem pela visualização (ou envio), um alerta seria enviado aos pais. A crítica dos usuários se baseia nos precedentes de constrangimento após as notificações, criando medo e trauma nas crianças após visualização do conteúdo.

A própria instituição argumenta que não utiliza o recurso para invadir a privacidade, que seus algoritmos são precisos na detecção e que avaliam apenas as imagens, sem olhar as conversas. Ainda assim, o recurso está fora da atualização, mas permanece previsto para os próximos meses.

Apple utilizaria base de dados de proteção às crianças dos EUA

Além do chat de mensagens, o mecanismo da Apple irá escanear material de abuso infantil através de comparações de hashes, ou padrões de imagem. Ao encontrar uma imagem suspeita, o sistema converteria as formas em padrões básicos e a compararia com um banco de dados oferecido pelo National Center for Missing and Exploited Children (NCMEC) — a instituição de proteção às crianças nos Estados Unidos.

O escaneamento seria feito pelo próprio sistema no dispositivo, e não por um algoritmo varrendo o iCloud. Assim que a plataforma detectasse conteúdo abusivo, um alerta ao NCMEC seria enviado. Ainda não está claro como as políticas se aplicariam em países como o Brasil.

*Matéria Olhar Digital

*Para acompanhar o F3 Notícias, curta nossa página no Facebook, no Instagram e pode também ajudar a divulgar informações, publicar fotos ou tentar auxiliar em alguma dúvida a partir no nosso Whatsapp no (16) 9 9231-0055.

This website uses cookies.

This website uses cookies.

Sair da versão mobile