Un mal necesario? Apple podería detectar imaxes de abuso infantil na galería de fotos dos usuarios

Apple anunciou a chegada de novas funcións identificación con foto en iOS que empregará algoritmos de hash para combinar co contido das fotos da galería de usuarios con elementos coñecidos de maltrato infantil. O dispositivo cargará un conxunto de pegadas dixitais que representan o contido ilegal e logo comparará cada foto da galería do usuario con esa lista.

Como tal, esta función soa moi ben, pero en realidade tamén representa un problema real, xa que como moitos de nós podemos imaxinar, isto pode causar moitos conflitos, especialmente cos "falsos positivos" e é que, a xulgar pola cantidade de críticas negativas de Apple, esta iniciativa posiblemente non sexa a mellor da compañía na súa loita contra a pedofilia e a pornografía infantil.

Apple confirmou nunha publicación do blog, dicindo que a tecnoloxía de dixitalización forma parte dunha nova serie de sistemas de protección infantil que "evolucionarán e desenvolverán co paso do tempo". As funcións será lanzado como parte de iOS 15, que está programado para o próximo mes.

"Esta innovadora tecnoloxía permite a Apple proporcionar información valiosa e útil para o Centro Nacional de Nenos Desaparecidos e Explotados e as forzas da orde sobre a proliferación de material coñecido de abuso sexual infantil", dixo a compañía.

O sistema, chamado neuralMatch, avisará proactivamente a un equipo de examinadores humanos se cres que se detectan imaxes ilegais quen se porá en contacto coa policía se se pode verificar o material. O sistema neuralMatch, que foi adestrado con 200.000 imaxes do Centro Nacional de Nenos Desaparecidos e Explotados, despregarase por primeira vez nos Estados Unidos. As fotos compaxinaranse e compararanse cunha base de datos de imaxes coñecidas de abuso sexual infantil.

Segundo as explicacións de Apple cada foto subida a iCloud nos Estados Unidos recibirá un "bono de seguridade" indicando se é sospeitoso ou non. Polo tanto, unha vez que se marque un número determinado de fotos como sospeitosas, Apple permitirá descifrar todas as fotos sospeitas e, se parecen ilegais, remitiraas ás autoridades competentes.

"Apple só ve as fotos dos usuarios se teñen unha colección de CSAM coñecidos na súa conta iCloud Photos", dixo a compañía nun intento de asegurar aos usuarios que os seus datos son confidenciais.

Debe notarse que neuralMatch representa o último intento de Apple de comprometer entre a súa propia promesa de protexer a privacidade do cliente e as demandas dos gobernos., axencias policiais e activistas de seguridade infantil para unha maior axuda en investigacións criminais, incluído terrorismo e pornografía infantil. A tensión entre empresas tecnolóxicas como Apple e Facebook, que defenderon o uso crecente do cifrado nos seus produtos e servizos, e as forzas da orde só se intensificaron desde 2016.

O mércores pola noite, Matthew Green, profesor e criptógrafo da Universidade Johns Hopkins, compartiu as súas preocupacións sobre o sistema. "Este tipo de ferramenta pode ser unha axuda para atopar pornografía infantil nos teléfonos das persoas", dixo Green.

"Pero imaxina o que podería facer en mans dun goberno autoritario", preguntou. Isto preocupa aos investigadores de seguridade que advirten de que podería abrir a porta ao control dos dispositivos persoais de millóns de persoas. Os investigadores en seguridade, aínda que apoian os esforzos de Apple para combater o abuso infantil, temen que a compañía poida permitir aos gobernos de todo o mundo buscar acceso aos datos persoais dos seus cidadáns, potencialmente moito máis alá da súa intención orixinal.

O precedente establecido por Apple tamén podería aumentar a presión sobre outras empresas tecnolóxicas para que empreguen técnicas similares. "Os gobernos esixirano a todos", dixo Green.

Os sistemas de almacenamento de fotos na nube e os sitios de redes sociais xa están a buscar imaxes de abuso infantil. Apple usa, por exemplo, técnicas de hash cando as fotos se cargan en iCloud Photos. Todas as fotos cargadas en iCloud Photos para a copia de seguridade e a sincronización non se almacenan no cifrado de extremo a extremo. As fotos almacénanse de forma cifrada nas granxas de Apple, pero as claves de descifrado tamén son propiedade de Apple. Isto significa que a policía pode citar a Apple e ver todas as fotos subidas por un usuario.

Fuente: https://www.apple.com


O contido do artigo adhírese aos nosos principios de ética editorial. Para informar dun erro faga clic en aquí.

5 comentarios, deixa os teus

Deixa o teu comentario

Enderezo de correo electrónico non será publicado. Os campos obrigatorios están marcados con *

*

*

  1. Responsable dos datos: Miguel Ángel Gatón
  2. Finalidade dos datos: controlar SPAM, xestión de comentarios.
  3. Lexitimación: o seu consentimento
  4. Comunicación dos datos: os datos non serán comunicados a terceiros salvo obrigación legal.
  5. Almacenamento de datos: base de datos aloxada por Occentus Networks (UE)
  6. Dereitos: en calquera momento pode limitar, recuperar e eliminar a súa información.

  1.   mvr1981 dixo

    Que idiotez. Que pasa cos pais que lles fan fotos aos seus bebés?

    1.    Darkcrizt dixo

      Esta é unha pregunta que entra en falsos positivos

      1.    Miguel Rodríguez dixo

        Non me sorprendería que, en canto saia a nova función, te alarmes o excesivo número de "pedófilos" que usan produtos de Apple.

  2.   Gregorio ros dixo

    Isto chámase porta traseira e os gobernos daranse mutuamente para ter a clave, a pornografía parece unha escusa "sensible" para que a xente a trague, pero os pederastas non van picar, cifrarán o contido sensible. Despois está a pregunta de calquera parella que tome fotos dos seus fillos pequenos. Con que dereito Apple ou calquera outra persoa mete o nariz nese contido? Finalmente, unha porta traseira é boa para todo, unha vez aberta e en mans de calquera. Limitarase a perseguir pornografía, ter as chaves de todo?

  3.   Azureus dixo

    O interesante de todo isto é que nalgún momento houbo un ser humano adestrando esa cousa ou propoñendo mostras, no meu caso persoal, non tolero ningunha sangría, a violencia e o tema da pederastia é algo realmente traumático e doloroso para eu.

    Joder ese tipo de traballo jajaja