WhatsApp se recusa a usar solução da Apple que vasculha fotos no iPhone

Me admira muito ainda quem tenta justificar que o debate deve ser a questão do abuso infantil…Meus caros, com uma medida tão drástica e com potencial de vigilância total, acaba sendo a última coisa a ser levada a debate!! E em portais nos EUA as críticas tem sido duríssimas, literalmente colocando a empresa sobre as cordas! Esse assunto em especifico até merecia ser tema do Tecnocast. :slight_smile:

5 curtidas

Eu também acho que esse assunto merece um Tecnocast.

Eu não entendi muito bem qual a relação do Whatsapp com a tecnologia nova da Apple. Não entendi em que ponto o Whatsapp vai conseguir “optar por adotar ou não” tal tecnologia. Pelo que eu entendi, a análise das fotos vai ser feita no iCloud, usando os dados enviados pelo sistema operacional diretamente para os servidores… Em nenhum momento isso vai passar por qualquer aplicativo rodando em cima do sistema operacional.

Mas sobre a tecnologia em si… Nós sabemos que o que eles divulgam é sempre muito legal… “Vamos acabar com o abuso infantil!” Ora, quem é que não quer isso, não é mesmo? Pois é, mas pra ter isso, você abre um buraco enorme… Agora você sabe que todas as suas fotos são analisadas. Desde as fotos inocentes dos seus cachorros até os Nudes que sua esposa manda pra você.

É complicado…

1 curtida

Além das fotos tiradas pela câmera do aparelho, a Apple vai fazer um rastreio das imagens vindas de apps de mensagem, o que em tese incluiria as do Whatsapp.

Nenhuma, só quer chamar atenção. Sendo que uma semana antes estavam cogitando usar as mensagens para propaganda direcionada.

Entendeu errado, porque é justamente o contrário. Todo o processamento será feito no dispositivo.

Não, não, não. O que estará sendo buscado na análise são fotografias específicas de abuso sexual infantil, e apenas se o controle parental estiver ativado para contas de menores de 13 anos.

Lembrando que isso já é feito de forma bem menos transparente e privada, por todos as redes sociais e serviços de nuvem.

Só vejo isso funcionando bem e ser bem aceito no futuro quando uma IA consiga analisar e enviar os dados de pedófilos diretamente à polícia/FBI sem interferência humana no processo.

Alguns detalhes que vale ressaltar sobre esse sistema de CSAM:

  • A análise principal é feita 100% offline no próprio dispositivo
  • Somente as fotos salvas no app Fotos da Apple serão analisadas. O processo não envolve qualquer outro app da Apple ou de terceiros (a Apple disse hoje para a imprensa que considera lançar uma API no futuro, mas ainda não há nada concreto)
  • Quando o CSAM reporta a quantidade necessária de fotos para de fato acionar a Apple (a quantidade ainda é desconhecida), a empresa recebe apenas uma cópia em baixa resolução sem metadados das fotos denunciadas apenas para confirmar se a imagem bate com aquela do banco de dados
  • Nos EUA, o banco de dados virá exclusivamente do NCMEC. A Apple disse que não permitirá a adição de conteúdos não-CSAM a essa verificação

Claro que, por enquanto, ainda é tudo muito vago já que fica só no que a Apple diz publicamente. Provavelmente quando o sistema estiver disponível de fato vamos saber mais sobre como o CSAM funciona através dos códigos do sistema e etc.

E sobre o WhatsApp, provavelmente só querem mídia gratuita mesmo. Nesse momento, o recurso não tem relação alguma com apps de terceiros.

1 curtida

Este tópico foi automaticamente fechado após 92 dias. Novas respostas não são mais permitidas.