Beharrezko gaitza? Apple-k haurren tratu txarren irudiak detektatu ditzake erabiltzaileen argazki galerian

Applek ezaugarri berrien iritsiera iragarri zuen argazkiaren IDa iOS-n hash algoritmoak erabiliko ditu galeriako argazkien edukiarekin bat etortzeko erabiltzaileen haurren tratu txarren elementu ezagunekin. Gailuak legez kanpoko edukia irudikatzen duten hatz-marka multzo bat igoko du eta, ondoren, erabiltzailearen galeriako argazki bakoitza zerrenda horrekin alderatuko du.

Horregatik, funtzio hau oso ona da, baina errealitatean arazo erreala ere bada, gutako askok hau imajina dezaketenez gatazka ugari sor ditzake, batez ere "positibo faltsuekin" eta Apple-ren iritzi negatiboak ikusita, ekimen hau ez da agian konpainiaren onena pedofiliaren eta haur pornografiaren aurkako borrokan.

Apple-k blogeko mezu batean baieztatu zuen, esanez eskaneatze teknologia haurren babes sistemen serie berri baten parte dela, "denboran zehar eboluzionatu eta garatuko dena". Funtzioak iOS 15 bertsioaren barruan zabalduko da, datorren hilean martxan jartzea aurreikusita dagoena.

"Teknologia berri aitzindari horri esker, Apple-k informazio baliotsua eta egingarria eman diezaieke Haur Faltatuen eta Ustiatuen Zentro Nazionalari eta legea betearazteko haurren sexu abusu material ezagunak ugaritzeari buruz", esan du konpainiak.

Sistema, deitua NeuralMatch-ek giza aztertzaile talde bat modu aktiboan ohartaraziko du legez kanpoko irudiak antzematen direla uste baduzu nor harremanetan jarriko da poliziarekin materiala egiaztatzen bada. NeuralMatch sistema, desagertutako eta esplotatutako haurren zentro nazionaleko 200.000 irudirekin trebatu zena, lehenengo aldiz Estatu Batuetan zabalduko da. Argazkiak haurren eta sexu abusuen inguruko irudi ezagunen datu basearekin parekatuko dira.

Appleren azalpenen arabera Estatu Batuetan iCloudera kargatutako argazki guztiek "segurtasun hobaria" jasoko dute susmagarria den edo ez adieraziz. Hori dela eta, argazki kopuru jakin bat susmagarria dela markatuta, Applek argazki susmagarri guztiak deszifratzeko baimena emango du eta, legez kanpokoak badira, agintari egokiei helaraziko dizkie.

"Apple-k erabiltzaileen argazkiak soilik ikusten ditu bere iCloud Photos kontuan CSAM ezagunen bilduma baldin badute", esan du konpainiak erabiltzaileei beren datuak isilpekoak direla ziurtatu nahian.

Kontuan izan neuralMatch-ek Apple-k bezeroen pribatutasuna babesteko egindako promesaren eta gobernuen eskaeren arteko konpromisoa hartzen saiatu da., legea betearazteko agentziak eta haurren segurtasuneko aktibistak ikerketa kriminaletan laguntza handiagoa lortzeko, terrorismoaren eta haurrentzako pornografiaren barne. Apple eta Facebook bezalako enpresa teknologikoen arteko tentsioa, produktu eta zerbitzuetan zifratzearen erabilera gero eta handiagoa defendatu baitute, eta legea betearaztea areagotu egin da 2016az geroztik.

Matthew Green Johns Hopkins Unibertsitateko irakasle eta kriptografoak sistemaren inguruko kezkak partekatu zituen Twitter asteazken gauean. "Tresna mota hau jendearen telefonoetan haurrentzako pornografia aurkitzeko aberasgarria izan daiteke", esan du Greenek.

"Baina pentsa ezazu zer egin dezakeen gobernu autoritario baten eskuetan", galdetu du. Horrek milioika pertsonen gailu pertsonalak kontrolatzeko atea ireki dezakeela ohartarazten duten segurtasun ikertzaileak kezkatzen ditu. Segurtasun ikertzaileek, Apple-k haurren tratu txarrei aurre egiteko egindako ahaleginak babesten dituzten arren, beldur dira konpainiak mundu osoko gobernuei beren herritarren datu pertsonaletarako sarbidea bilatzeko aukera eman diezaiekeen, hasierako asmoa baino askoz ere handiagoa izan zitekeen.

Apple-k ezarritako aurrekariak beste teknologia enpresa batzuei presioa areagotu diezaieke antzeko teknikak erabiltzeko. "Gobernuek denei eskatuko diete", esan du Greenek.

Hodeiko argazkiak biltegiratzeko sistemak eta sare sozialetako guneak dagoeneko haurren tratu txarren irudiak bilatzen ari dira. Apple-k, adibidez, hashing teknikak erabiltzen ditu argazkiak iCloud argazkietara igotzen direnean. ICloud Argazkiak segurtasun kopia eta sinkronizaziorako kargatutako argazki guztiak ez dira amaierako enkriptatze moduan gordetzen. Argazkiak enkriptatutako moduan gordetzen dira Apple baserrietan, baina deszifratze gakoak Apple-renak ere badira. Horrek esan nahi du poliziak Apple deitu dezakeela eta erabiltzaile batek igotako argazki guztiak ikus ditzakeela.

Fuente: https://www.apple.com


Artikuluaren edukia gure printzipioekin bat dator etika editoriala. Akats baten berri emateko egin klik hemen.

5 iruzkin, utzi zurea

Utzi zure iruzkina

Zure helbide elektronikoa ez da argitaratuko. Beharrezko eremuak markatuta daude *

*

*

  1. Datuen arduraduna: Miguel Ángel Gatón
  2. Datuen xedea: SPAM kontrolatzea, iruzkinen kudeaketa.
  3. Legitimazioa: Zure baimena
  4. Datuen komunikazioa: datuak ez zaizkie hirugarrenei jakinaraziko legezko betebeharrez izan ezik.
  5. Datuak biltegiratzea: Occentus Networks-ek (EB) ostatatutako datu-basea
  6. Eskubideak: Edonoiz zure informazioa mugatu, berreskuratu eta ezabatu dezakezu.

  1.   mvr1981 esan zuen

    Zer idiotzia. Zer gertatzen da haurtxoei argazkiak ateratzen dizkieten gurasoekin?

    1.    Darkkrizt esan zuen

      Hori positibo faltsuetara doan galdera da

      1.    miguel rodriguez esan zuen

        Ez nintzateke harrituko eginbide berria atera bezain laster, Apple produktuak erabiltzen dituzten "pedofilo" kopuru handiak larrituko zaitu.

  2.   Gregory ros esan zuen

    Atzeko atea deitzen zaio eta gobernuek elkarri emango diote giltza, pornografiak jendea irensteko aitzakia "sentikorra" dela dirudi, baina pedofiloek ez dute zikinduko, eduki sentikorra enkriptatuko dute. Ondoren, seme-alaba txikiei argazkiak ateratzen dizkieten edozein bikoteri buruzko galdera dago Apple-k edo beste edozeinek itsatsita sudurra eduki horretan. Azkenean, atzeko atea ona da denerako, irekita eta edonoren eskuetan. Mugituko al da pornografia egitera, guztiaren giltzak izatera?

  3.   Vuze esan zuen

    Honen guztiaren interesgarria da noizbait gizaki bat zegoela gauza hori entrenatzen edo laginak proposatzen, nire kasuan, ez dut inolako gore, indarkeriarik onartzen eta pedofiliaren gaia benetan traumatikoa eta mingarria den zerbait da. ni.

    Izorratu lan mota hori jajaja