Um mal necessário? A Apple pode detectar imagens de abuso infantil na galeria de fotos dos usuários

A Apple anunciou a chegada de novos recursos foto de identificação no iOS que usará algoritmos de hash para combinar o conteúdo das fotos na galeria dos usuários com elementos conhecidos de abuso infantil. O dispositivo irá então fazer upload de um conjunto de impressões digitais representando o conteúdo ilegal e, em seguida, comparar cada foto da galeria do usuário com essa lista.

Como tal, esta função parece ótima, mas na realidade também representa um problema real, uma vez que, como muitos de nós podemos imaginar, isso pode causar muitos conflitos, principalmente com os “falsos positivos” e é isso a julgar pela quantidade de críticas negativas da Apple, esta iniciativa pode não ser a melhor da empresa na sua luta contra a pedofilia e a pornografia infantil.

A Apple confirmou em um post de blog, dizendo que a tecnologia de digitalização é parte de uma nova série de sistemas de proteção infantil que "irão evoluir e se desenvolver com o tempo". As funções será lançado como parte do iOS 15, que está programado para ser lançado no próximo mês.

"Esta tecnologia inovadora permite que a Apple forneça informações valiosas e acionáveis ​​ao Centro Nacional para Crianças Desaparecidas e Exploradas e à aplicação da lei sobre a proliferação de material conhecido de abuso sexual infantil", disse a empresa.

O sistema, chamado neuralMatch, irá alertar proativamente uma equipe de examinadores humanos se você acha que imagens ilegais foram detectadas quem entrará em contato com a polícia se o material puder ser verificado. O sistema neuralMatch, que foi treinado com 200.000 imagens do National Center for Missing & Exploited Children, será implantado pela primeira vez nos Estados Unidos. As fotos serão misturadas e comparadas com um banco de dados de imagens conhecidas de abuso sexual infantil.

De acordo com as explicações da Apple cada foto enviada ao iCloud nos Estados Unidos receberá um "bônus de segurança" indicando se é suspeito ou não. Portanto, uma vez que um determinado número de fotos seja marcado como suspeito, a Apple permitirá a descriptografia de todas as fotos suspeitas e, se parecerem ilegais, irá encaminhá-las às autoridades competentes.

"A Apple só vê as fotos dos usuários se eles tiverem uma coleção de CSAMs conhecidos em sua conta do iCloud Photos", disse a empresa em uma tentativa de garantir aos usuários que seus dados são confidenciais.

Note-se que neuralMatch representa a mais recente tentativa da Apple de chegar a um meio-termo entre sua própria promessa de proteger a privacidade do cliente e as demandas dos governos., agências de aplicação da lei e ativistas de segurança infantil para maior assistência em investigações criminais, incluindo terrorismo e pornografia infantil. A tensão entre empresas de tecnologia como a Apple e o Facebook, que defendem o uso crescente de criptografia em seus produtos e serviços, e a aplicação da lei só se intensificou desde 2016.

Matthew Green, professor e criptógrafo da Universidade Johns Hopkins, compartilhou suas preocupações sobre o sistema no Twitter na noite de quarta-feira. “Esse tipo de ferramenta pode ser uma bênção para encontrar pornografia infantil nos telefones das pessoas”, disse Green.

“Mas imagine o que isso poderia fazer nas mãos de um governo autoritário”, perguntou ele. Isso preocupa os pesquisadores de segurança, que alertam que isso pode abrir as portas para o monitoramento de dispositivos pessoais de milhões de pessoas. Pesquisadores de segurança, embora apoiem os esforços da Apple para combater o abuso infantil, temem que a empresa possa permitir que governos ao redor do mundo busquem acesso aos dados pessoais de seus cidadãos, potencialmente muito além de sua intenção original.

O precedente estabelecido pela Apple também pode aumentar a pressão sobre outras empresas de tecnologia para usar técnicas semelhantes. “Os governos exigirão isso de todos”, disse Green.

Os sistemas de armazenamento de fotos na nuvem e sites de mídia social já estão procurando imagens de abuso infantil. A Apple usa, por exemplo, técnicas de hash quando as fotos são enviadas para o iCloud Photos. Todas as fotos carregadas no iCloud Photos para backup e sincronização não são armazenadas em criptografia de ponta a ponta. As fotos são armazenadas de forma criptografada nas fazendas da Apple, mas as chaves de descriptografia também são propriedade da Apple. Isso significa que a polícia pode intimar a Apple e ver todas as fotos enviadas por um usuário.

fonte: https://www.apple.com


Deixe um comentário

Seu endereço de email não será publicado. Campos obrigatórios são marcados com *

*

*

  1. Responsável pelos dados: Miguel Ángel Gatón
  2. Finalidade dos dados: Controle de SPAM, gerenciamento de comentários.
  3. Legitimação: Seu consentimento
  4. Comunicação de dados: Os dados não serão comunicados a terceiros, exceto por obrigação legal.
  5. Armazenamento de dados: banco de dados hospedado pela Occentus Networks (UE)
  6. Direitos: A qualquer momento você pode limitar, recuperar e excluir suas informações.

  1.   mvr1981 dito

    Que idiotice. E os pais que tiram fotos de seus bebês?

    1.    darkcrizt dito

      Essa é uma pergunta que leva a falsos positivos

      1.    Miguel Rodrigues dito

        Eu não ficaria surpreso se, assim que o novo recurso fosse lançado, você ficasse alarmado com o número excessivo de "pedófilos" que usam produtos da Apple.

  2.   Gregory Ros dito

    Isso é chamado de porta dos fundos e os governos darão uns aos outros para ter a chave, a pornografia parece uma desculpa "sensível" para as pessoas engolirem, mas os pedófilos não vão picar, eles vão criptografar conteúdo sensível. Depois, há a questão de qualquer casal que tire fotos de seus filhos pequenos Com que direito a Apple, ou qualquer outra pessoa, mete o nariz nesse conteúdo. Enfim, a porta dos fundos serve para tudo, uma vez que está aberta e nas mãos de qualquer pessoa, ela se limitará a perseguir a pornografia, tendo as chaves de tudo?

  3.   Azureus dito

    O interessante de tudo isso é que em algum momento teve um ser humano treinando aquela coisa ou propondo amostras, no meu caso pessoal não tolero sangue nenhum, violência e o assunto da pedofilia é algo realmente traumático e doloroso para mim.

    Foda-se esse tipo de trabalho hahaha