Zło konieczne? Apple może wykryć obrazy przedstawiające wykorzystywanie dzieci w galerii zdjęć użytkowników

Apple ogłosiło pojawienie się nowych funkcji dokument tożsamości ze zdjęciem na iOS, który użyje algorytmów haszujących, aby dopasować zawartość zdjęć w galerii użytkowników ze znanymi elementami krzywdzenia dzieci. Urządzenie prześle następnie zestaw odcisków palców reprezentujących nielegalne treści, a następnie porówna każde zdjęcie w galerii użytkownika z tą listą.

W związku z tym ta funkcja brzmi świetnie, ale w rzeczywistości stanowi również prawdziwy problem, ponieważ jak wielu z nas może to sobie wyobrazić może powodować wiele konfliktów, zwłaszcza w przypadku „fałszywych pozytywów” i sądząc po liczbie negatywnych recenzji Apple, ta inicjatywa może nie być najlepsza w walce z pedofilią i pornografią dziecięcą.

Apple potwierdził w poście na blogu, mówiąc, że technologia skanowania jest częścią nowej serii systemów ochrony dzieci, które „z czasem będą ewoluować i rozwijać się”. Funkcje zostanie wprowadzony jako część iOS 15, który ma ruszyć w przyszłym miesiącu.

„Ta przełomowa nowa technologia umożliwia Apple dostarczanie cennych i przydatnych informacji do Narodowego Centrum Dzieci Zaginionych i Wykorzystywanych oraz organów ścigania na temat rozpowszechniania znanych materiałów związanych z wykorzystywaniem seksualnym dzieci” – podała firma.

System o nazwie neuralMatch, proaktywnie zaalarmuje zespół ludzkich egzaminatorów jeśli uważasz, że wykryto nielegalne obrazy kto skontaktuje się z policją, jeśli materiał będzie mógł zostać zweryfikowany?. System neuralMatch, który został przeszkolony za pomocą 200.000 XNUMX obrazów z National Center for Missing & Exploited Children, zostanie wdrożony po raz pierwszy w Stanach Zjednoczonych. Zdjęcia zostaną zahaszowane i porównane z bazą danych znanych obrazów przedstawiających wykorzystywanie seksualne dzieci.

Zgodnie z wyjaśnieniami Apple każde zdjęcie przesłane do iCloud w Stanach Zjednoczonych otrzyma „bonus bezpieczeństwa” wskazując, czy jest to podejrzane, czy nie. Dlatego też, gdy pewna liczba zdjęć zostanie oznaczona jako podejrzana, Apple zezwoli na odszyfrowanie wszystkich podejrzanych zdjęć, a jeśli okażą się nielegalne, przekaże je odpowiednim władzom.

„Apple widzi zdjęcia użytkowników tylko wtedy, gdy mają kolekcję znanych CSAM na swoim koncie iCloud Photos”, powiedziała firma, próbując zapewnić użytkowników, że ich dane są poufne.

Należy zauważyć, że neuralMatch to najnowsza próba Apple osiągnięcia kompromisu między własną obietnicą ochrony prywatności klientów a wymaganiami rządów., organom ścigania i działaczom na rzecz bezpieczeństwa dzieci w celu zwiększenia pomocy w dochodzeniach kryminalnych, w tym dotyczących terroryzmu i pornografii dziecięcej. Napięcia między firmami technologicznymi, takimi jak Apple i Facebook, które promują coraz większe wykorzystanie szyfrowania w swoich produktach i usługach, a egzekwowaniem prawa, nasiliły się dopiero od 2016 roku.

Matthew Green, profesor i kryptograf z Johns Hopkins University, podzielił się swoimi obawami dotyczącymi systemu na Twitterze w środę wieczorem. „Ten rodzaj narzędzia może być dobrodziejstwem w znajdowaniu pornografii dziecięcej na telefonach ludzi” – powiedział Green.

„Ale wyobraź sobie, co mógłby zrobić w rękach autorytarnego rządu” – zapytał. Niepokoi to badaczy bezpieczeństwa, którzy ostrzegają, że może to otworzyć drzwi do monitorowania urządzeń osobistych milionów ludzi. Badacze bezpieczeństwa, wspierając wysiłki Apple w walce z wykorzystywaniem dzieci, obawiają się, że firma może pozwolić rządom na całym świecie na uzyskanie dostępu do danych osobowych swoich obywateli, potencjalnie znacznie wykraczając poza pierwotne intencje.

Precedens ustanowiony przez Apple może również zwiększyć presję na inne firmy technologiczne, aby korzystały z podobnych technik. „Rządy będą tego wymagać od wszystkich” – powiedział Green.

Systemy przechowywania zdjęć w chmurze i serwisy społecznościowe już szukają obrazów przedstawiających wykorzystywanie dzieci. Apple używa na przykład technik haszowania, gdy zdjęcia są przesyłane do Zdjęć iCloud. Wszystkie zdjęcia przesłane do Zdjęć iCloud w celu utworzenia kopii zapasowej i synchronizacji nie są przechowywane z pełnym szyfrowaniem. Zdjęcia są przechowywane w postaci zaszyfrowanej na farmach Apple, ale klucze odszyfrowywania są również własnością Apple. Oznacza to, że policja może wezwać Apple do sądu i zobaczyć wszystkie zdjęcia przesłane przez użytkownika.

źródło: https://www.apple.com


Treść artykułu jest zgodna z naszymi zasadami etyka redakcyjna. Aby zgłosić błąd, kliknij tutaj.

5 komentarzy, zostaw swoje

Zostaw swój komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

*

*

  1. Odpowiedzialny za dane: Miguel Ángel Gatón
  2. Cel danych: kontrola spamu, zarządzanie komentarzami.
  3. Legitymacja: Twoja zgoda
  4. Przekazywanie danych: Dane nie będą przekazywane stronom trzecim, z wyjątkiem obowiązku prawnego.
  5. Przechowywanie danych: baza danych hostowana przez Occentus Networks (UE)
  6. Prawa: w dowolnym momencie możesz ograniczyć, odzyskać i usunąć swoje dane.

  1.   mvr1981 powiedział

    Co za idiotyzm. A co z rodzicami, którzy robią zdjęcia swoim dzieciom?

    1.    Darkcrizt powiedział

      To jest pytanie, które przechodzi w fałszywe alarmy

      1.    Miguel Rodriguez powiedział

        Nie zdziwiłbym się, gdyby zaraz po pojawieniu się nowej funkcji zaniepokoiła Cię nadmierna liczba „pedofili”, którzy korzystają z produktów Apple.

  2.   Gregory Ros powiedział

    Nazywa się to tylnymi drzwiami, a rządy dadzą sobie nawzajem klucz. Następnie pojawia się pytanie o każdą parę, która robi zdjęcia swoim małym dzieciom Z jakim prawem Apple lub ktokolwiek inny wtyka nos w te treści. Wreszcie tylne drzwi są dobre na wszystko, gdy są otwarte i są w rękach kogokolwiek, czy ograniczą się do ścigania pornografii, posiadania kluczy do wszystkiego?

  3.   Azureus powiedział

    Ciekawe w tym wszystkim jest to, że w pewnym momencie był człowiek trenujący to coś lub proponujący próbki, w moim osobistym przypadku nie toleruję żadnej krwi, przemocy, a temat pedofilii jest dla mnie czymś naprawdę traumatycznym i bolesnym. ja.

    Pieprzyć taką pracę hahaha