Nujno zlo? Apple bi lahko odkril slike zlorabe otrok v galeriji fotografij uporabnikov

Apple je napovedal prihod novih funkcij ID fotografije s sistemom iOS, ki bo uporabil algoritme za razpršitev, da se bo ujemal z vsebino fotografij v galeriji uporabnikov z znanimi elementi zlorabe otrok. Naprava bo nato naložila niz prstnih odtisov, ki predstavljajo nezakonito vsebino, in nato primerjala vsako fotografijo v uporabnikovi galeriji s tem seznamom.

Kot taka se ta funkcija sliši odlično, v resnici pa predstavlja tudi resničen problem, saj si mnogi to lahko predstavljamo lahko povzroči veliko konfliktov, zlasti s "lažno pozitivnimi ocenami" in glede na količino negativnih ocen Appla ta pobuda morda ni najboljša v boju proti pedofiliji in otroški pornografiji.

Apple je v svojem spletnem dnevniku potrdil, da je tehnologija skeniranja del nove serije sistemov za zaščito otrok, ki se bodo "sčasoma razvijali in razvijali". Funkcije bo uveden kot del sistema iOS 15, ki naj bi se začela prihodnji mesec.

"Ta prelomna nova tehnologija omogoča Appleu, da Nacionalnemu centru za pogrešane in izkoriščane otroke in organom pregona posreduje dragocene in uporabne informacije o širjenju znanega materiala o spolni zlorabi otrok," so sporočili iz podjetja.

Sistem, imenovan neuralMatch, bo proaktivno opozoril skupino človeških izpraševalcev če menite, da so odkrite nezakonite slike ki bo stopil v stik s policijo, če bo mogoče preveriti material. Sistem nevralMatch, ki je bil usposobljen z 200.000 slikami iz Nacionalnega centra za pogrešane in izkoriščane otroke, bo prvič uporabljen v ZDA. Fotografije bodo zgoščene in primerjane z bazo znanih slik spolne zlorabe otrok.

Glede na pojasnila Appla vsaka fotografija, naložena v iCloud v Združenih državah, bo prejela "varnostni bonus" navesti, ali je sumljivo ali ne. Zato bo Apple, ko bo določeno število fotografij označeno kot sumljivo, dovolilo dešifriranje vseh sumljivih fotografij in jih, če se zdijo nezakonite, posredoval ustreznim organom.

"Apple vidi fotografije uporabnikov le, če imajo v svojem računu iCloud Photos zbirko znanih CSAM -ov," so sporočili iz podjetja, da bi uporabnikom zagotovili zaupnost.

Treba je opozoriti, da neuralMatch predstavlja najnovejši Applov poskus kompromisa med lastno obljubo o varovanju zasebnosti strank in zahtevami vlad., organi pregona in aktivisti za varnost otrok za večjo pomoč pri kazenskih preiskavah, vključno s terorizmom in otroško pornografijo. Napetost med tehnološkimi podjetji, kot sta Apple in Facebook, ki sta zagovarjali vse večjo uporabo šifriranja v svojih izdelkih in storitvah, in kazenski pregon se je od leta 2016 le še okrepil.

Matthew Green, profesor in kriptograf univerze Johns Hopkins, je v sredo zvečer na Twitterju delil svoje pomisleke glede sistema. "Tovrstno orodje je lahko dobro za iskanje otroške pornografije na telefonih ljudi," je dejal Green.

"Predstavljajte si, kaj bi lahko naredila v rokah avtoritarne vlade," je vprašal. To skrbi varnostne raziskovalce, ki opozarjajo, da bi to lahko odprlo vrata za spremljanje osebnih naprav milijonov ljudi. Varnostni raziskovalci, ki podpirajo Appleova prizadevanja za boj proti zlorabi otrok, se bojijo, da bi podjetje lahko vladam po vsem svetu omogočilo dostop do osebnih podatkov svojih državljanov, kar bi lahko daleč preseglo njihov prvotni namen.

Precedens, ki ga je postavil Apple, bi lahko povečal pritisk na druga tehnološka podjetja, da uporabljajo podobne tehnike. "Vlade bodo to zahtevale od vseh," je dejal Green.

Sistemi za shranjevanje fotografij v oblaku in družbena omrežja že iščejo podobe zlorabe otrok. Apple na primer uporablja tehnike razprševanja, ko se fotografije naložijo v fotografije iCloud. Vse fotografije, naložene v iCloud Fotografije za varnostno kopiranje in sinhronizacijo, niso shranjene v šifriranju od konca do konca. Fotografije so v šifrirani obliki shranjene na Appleovih kmetijah, ključi za dešifriranje pa so tudi v lasti Apple. To pomeni, da lahko policija pozove Apple in si ogleda vse fotografije, ki jih je naložil uporabnik.

vir: https://www.apple.com


Pustite svoj komentar

Vaš e-naslov ne bo objavljen. Obvezna polja so označena z *

*

*

  1. Za podatke odgovoren: Miguel Ángel Gatón
  2. Namen podatkov: Nadzor neželene pošte, upravljanje komentarjev.
  3. Legitimacija: Vaše soglasje
  4. Sporočanje podatkov: Podatki se ne bodo posredovali tretjim osebam, razen po zakonski obveznosti.
  5. Shranjevanje podatkov: Zbirka podatkov, ki jo gosti Occentus Networks (EU)
  6. Pravice: Kadar koli lahko omejite, obnovite in izbrišete svoje podatke.

  1.   mvr1981 je dejal

    Kakšen idiotizem. Kaj pa starši, ki fotografirajo svoje dojenčke?

    1.    temnokrizt je dejal

      To je vprašanje, ki gre v lažno pozitivno

      1.    miguel rodriguez je dejal

        Ne bi me presenetilo, če vas bo takoj, ko bo nova funkcija izšla, prestrašilo pretirano število "pedofilov", ki uporabljajo izdelke Apple.

  2.   Gregorio ros je dejal

    To se imenuje zadnja vrata in vlade se bodo med seboj predale, ker imajo ključ, pornografija se zdi "občutljiv" izgovor, da jo ljudje pogoltnejo, vendar pedofili ne bodo pikali, šifrirali bodo občutljivo vsebino. Potem se postavlja vprašanje, kateri par, ki fotografira svoje majhne otroke. S kakšno pravico si Apple ali kdo drug v to vsebino vtika nos? Končno so zadnja vrata dobra za vse, ko so enkrat odprta in v rokah vsakogar. Ali se bo omejil na pornografijo, pri čemer ima vse ključe?

  3.   Azureus je dejal

    Zanimivo pri vsem tem je, da je nekoč človek to stvar usposabljal ali predlagal vzorce, v mojem osebnem primeru ne prenašam nobene vnetosti, nasilja in tema pedofilije je res travmatična in boleča jaz.

    Jebeš takšno delo hahaha