필요악? Apple은 사용자의 사진 갤러리에서 아동 학대 이미지를 감지할 수 있습니다.

Apple은 새로운 기능의 출시를 발표했습니다. iOS의 사진 ID 해싱 알고리즘을 사용하여 갤러리에 있는 사진의 내용과 일치시킵니다. 사용자 알려진 아동 학대 요소. 그런 다음 장치는 불법 콘텐츠를 나타내는 일련의 지문을 업로드한 다음 사용자 갤러리의 각 사진을 해당 목록과 일치시킵니다.

따라서 이 기능은 훌륭하게 들리지만 실제로는 실제 문제를 나타내기도 합니다. 많은 갈등을 일으킬 수 있고, 특히 "잘못된 긍정"과 함께 Apple에 대한 부정적인 리뷰의 양으로 판단할 때 이 계획은 소아성애 및 아동 포르노와의 싸움에서 회사의 최고가 아닐 수 있습니다.

Apple은 블로그 게시물에서 스캐닝 기술이 "시간이 지남에 따라 진화하고 발전할" 새로운 일련의 아동 보호 시스템의 일부라고 밝혔습니다. 기능 iOS 15의 일부로 출시될 예정, 다음 달에 출시될 예정입니다.

Apple은 "이 획기적인 신기술을 통해 Apple은 알려진 아동 성적 학대 자료의 확산에 대해 국립 실종 착취 아동 센터와 법 집행 기관에 가치 있고 실행 가능한 정보를 제공할 수 있습니다."라고 말했습니다.

라고 불리는 시스템 NeuralMatch는 인간 검사자 팀에 사전에 경고합니다. 불법 이미지가 감지되었다고 생각되면 자료를 확인할 수 있는 경우 경찰에 연락할 사람. 국립실종학대아동센터(National Center for Missing & Exploited Children)의 200.000개 이미지로 훈련된 neuralMatch 시스템은 미국에서 처음으로 배치됩니다. 사진은 해시되어 알려진 아동 성적 학대 이미지 데이터베이스와 대조됩니다.

애플의 설명에 따르면 미국에서 iCloud에 업로드되는 모든 사진은 "보안 보너스"를 받습니다. 의심되는지 여부를 나타냅니다. 따라서 특정 수의 사진이 의심스러운 것으로 표시되면 Apple은 모든 의심스러운 사진의 암호 해독을 허용하고 불법으로 보이는 경우 해당 사진을 적절한 당국에 전달할 것입니다.

"Apple은 iCloud 사진 계정에 알려진 CSAM 모음이 있는 경우에만 사용자의 사진을 봅니다." 사용자의 데이터가 기밀임을 사용자에게 확인하기 위해 회사가 말했습니다.

참고로 neuralMatch는 고객의 개인 정보를 보호하겠다는 자체 약속과 정부의 요구 사이에서 타협하려는 Apple의 최신 시도를 나타냅니다., 테러 및 아동 포르노를 포함한 범죄 수사에 대한 지원을 강화하기 위해 법 집행 기관 및 아동 안전 활동가. 제품 및 서비스에서 암호화 사용 증가를 옹호하는 Apple 및 Facebook과 같은 기술 회사와 법 집행 기관 간의 긴장은 2016년 이후로 더욱 심화되었습니다.

존스 홉킨스 대학의 교수이자 암호학자인 매튜 그린(Matthew Green)은 수요일 밤 트위터에서 시스템에 대한 우려를 공유했습니다. "이런 종류의 도구는 사람들의 휴대전화에서 아동 포르노를 찾는 데 도움이 될 수 있습니다."라고 Green이 말했습니다.

"하지만 그것이 권위주의적인 정부의 손에서 무엇을 할 수 있는지 상상해 보세요." 그가 물었다. 이는 수백만 명의 개인 장치를 모니터링할 수 있는 가능성을 열어줄 수 있다고 경고하는 보안 연구원을 걱정하게 합니다. 보안 연구원들은 아동 학대를 근절하려는 Apple의 노력을 지지하면서도 회사가 전 세계 정부가 원래 의도를 훨씬 능가하는 시민 개인 데이터에 대한 액세스 권한을 모색하도록 허용할 수 있다고 우려하고 있습니다.

Apple이 설정한 선례는 다른 기술 회사가 유사한 기술을 사용하도록 압력을 증가시킬 수도 있습니다. "정부는 모든 사람에게 그것을 요구할 것입니다."라고 Green이 말했습니다.

클라우드 사진 저장 시스템과 소셜 미디어 사이트는 이미 아동 학대 이미지를 검색하고 있습니다. 예를 들어 Apple은 사진을 iCloud 사진에 업로드할 때 해싱 기술을 사용합니다. 백업 및 동기화를 위해 iCloud 사진에 업로드된 모든 사진은 종단 간 암호화로 저장되지 않습니다. 사진은 Apple 팜에 암호화된 형태로 저장되지만 암호 해독 키도 Apple 소유입니다. 이는 경찰이 Apple을 소환하여 사용자가 업로드한 모든 사진을 볼 수 있음을 의미합니다.

출처 : https://www.apple.com


코멘트를 남겨주세요

귀하의 이메일 주소는 공개되지 않습니다. 필수 필드가 표시되어 있습니다 *

*

*

  1. 데이터 책임자 : Miguel Ángel Gatón
  2. 데이터의 목적 : 스팸 제어, 댓글 관리.
  3. 합법성 : 귀하의 동의
  4. 데이터 전달 : 법적 의무에 의한 경우를 제외하고 데이터는 제 XNUMX 자에게 전달되지 않습니다.
  5. 데이터 저장소 : Occentus Networks (EU)에서 호스팅하는 데이터베이스
  6. 권리 : 귀하는 언제든지 귀하의 정보를 제한, 복구 및 삭제할 수 있습니다.

  1.   mvr1981

    무슨 바보. 아기 사진을 찍는 부모는 어떻습니까?

    1.    다크크리츠

      그것은 거짓 긍정에 들어가는 질문입니다

      1.    미구엘로드 리 게스

        새로운 기능이 나오자 마자 Apple 제품을 사용하는 "소아 성애자"의 과도한 숫자에 놀라지 않을 것입니다.

  2.   그레고리오 로스

    이것을 백도어라고 하며 정부는 서로에게 열쇠를 주게 됩니다. 음란물은 사람들이 그것을 삼키는 "민감한" 변명처럼 보이지만 소아성애자는 쏘지 않을 것이며 민감한 콘텐츠를 암호화할 것입니다. 그렇다면 어린 자녀의 사진을 찍는 부부의 문제가 있습니다. Apple 또는 다른 사람이 어떤 권리로 그 내용에 코를 박고 있습니까? 마지막으로 뒷문은 누구에게나 열려 있으면 모든 것이 좋은데, 모든 열쇠를 가지고 음란물을 쫓는 데만 국한될까요?

  3.   Azureus

    이 모든 것에 대한 흥미로운 점은 어느 시점에서 인간이 그것을 훈련시키거나 샘플을 제안했다는 것입니다. 제 개인적인 경우에는 유혈, 폭력을 용납하지 않으며 소아성애라는 주제는 정말 트라우마와 고통을 주는 것입니다. 나.

    그런 직업 엿먹어라 하하하