एक आवश्यक वाईट? अॅपल वापरकर्त्यांच्या फोटो गॅलरीमध्ये बाल अत्याचाराच्या प्रतिमा शोधू शकते

अॅपलने नवीन फीचर्सच्या आगमनाची घोषणा केली iOS वर फोटो ID जो गॅलरीमधील फोटोंच्या सामग्रीशी जुळण्यासाठी हॅशिंग अल्गोरिदम वापरेल वापरकर्त्यांची बाल अत्याचाराच्या ज्ञात घटकांसह. त्यानंतर डिव्हाइस बेकायदेशीर सामग्रीचे प्रतिनिधित्व करणाऱ्या फिंगरप्रिंटचा संच अपलोड करेल आणि नंतर वापरकर्त्याच्या गॅलरीमधील प्रत्येक फोटोची त्या सूचीशी तुलना करेल.

जसे की, हे कार्य खूप छान वाटते, परंतु प्रत्यक्षात ते एक वास्तविक समस्या देखील दर्शवते, कारण आपल्यापैकी बरेच जण याची कल्पना करू शकतात यामुळे बरेच संघर्ष होऊ शकतात, विशेषतः "खोट्या सकारात्मक" सह आणि Appleपलच्या नकारात्मक पुनरावलोकनांच्या प्रमाणावरून, हा उपक्रम कंपनीच्या पीडोफिलिया आणि बाल अश्लीलतेविरूद्धच्या लढाईत सर्वोत्तम नाही.

Appleपलने ब्लॉग पोस्टमध्ये पुष्टी केली की, स्कॅनिंग तंत्रज्ञान हे बाल संरक्षण प्रणालीच्या नवीन मालिकेचा भाग आहे जे "कालांतराने विकसित आणि विकसित होईल." कार्ये iOS 15 चा भाग म्हणून आणले जाईल, जे पुढील महिन्यात लॉन्च होणार आहे.

"या नवीन नवीन तंत्रज्ञानामुळे Appleपलला नॅशनल सेंटर फॉर मिसिंग अँड एक्सप्लोयटेड चिल्ड्रन आणि ज्ञात बाल लैंगिक अत्याचार सामग्रीच्या प्रसारावर कायद्याची अंमलबजावणी करण्यास मौल्यवान आणि कृती करण्यायोग्य माहिती प्रदान करण्यास सक्षम करते," असे कंपनीने म्हटले आहे.

प्रणाली, म्हणतात neuralMatch, मानवी परीक्षकांच्या टीमला सक्रियपणे सतर्क करेल जर तुम्हाला वाटत असेल की बेकायदेशीर प्रतिमा सापडल्या आहेत साहित्याची पडताळणी करता आली तर कोण पोलिसांशी संपर्क साधेल. न्यूरल मॅच सिस्टीम, जी नॅशनल सेंटर फॉर मिसिंग अँड एक्सप्लोयटेड चिल्ड्रनच्या 200.000 प्रतिमांसह प्रशिक्षित होती, अमेरिकेत प्रथमच तैनात केली जाईल. ज्ञात बाल लैंगिक शोषण प्रतिमांच्या डेटाबेसशी फोटो हॅश आणि जुळवले जातील.

Appleपलच्या स्पष्टीकरणानुसार युनायटेड स्टेट्स मध्ये iCloud वर अपलोड केलेल्या प्रत्येक फोटोला "सुरक्षा बोनस" मिळेल संशयास्पद आहे की नाही हे दर्शवित आहे. म्हणून, एकदा ठराविक संख्येने फोटो संशयास्पद म्हणून चिन्हांकित केले की, Appleपल सर्व संशयास्पद फोटोंच्या डिक्रिप्शनला परवानगी देईल आणि जर ते बेकायदेशीर दिसले तर ते योग्य अधिकाऱ्यांना पाठवतील.

"Appleपल फक्त वापरकर्त्यांचे फोटो पाहतो जर त्यांच्या iCloud फोटो खात्यात ज्ञात CSAM चे संकलन असेल," वापरकर्त्यांना त्यांचा डेटा गोपनीय असल्याचे आश्वासन देण्याच्या प्रयत्नात कंपनीने सांगितले.

हे लक्षात पाहिजे की न्यूरलमॅच ग्राहकांच्या गोपनीयतेचे संरक्षण करण्याचे सरकारचे वचन आणि सरकारांच्या मागण्यांमध्ये तडजोड करण्याच्या अॅपलच्या नवीनतम प्रयत्नाचे प्रतिनिधित्व करते., कायदा अंमलबजावणी संस्था आणि बाल सुरक्षा कार्यकर्ते दहशतवाद आणि बाल अश्लीलतेसह गुन्हेगारी तपासात वाढीव मदतीसाठी. अॅपल आणि फेसबुक सारख्या टेक कंपन्यांमधील तणाव, ज्यांनी त्यांच्या उत्पादनांमध्ये आणि सेवांमध्ये एन्क्रिप्शनच्या वाढत्या वापराचे समर्थन केले आहे आणि 2016 पासून कायद्याची अंमलबजावणी केवळ तीव्र झाली आहे.

मॅथ्यू ग्रीन, जॉन्स हॉपकिन्स विद्यापीठाचे प्राध्यापक आणि क्रिप्टोग्राफर, यांनी बुधवारी रात्री ट्विटरवर प्रणालीबद्दलच्या आपल्या चिंता व्यक्त केल्या. "लोकांच्या फोनवर बाल अश्लीलता शोधण्यासाठी या प्रकारचे साधन वरदान ठरू शकते," ग्रीन म्हणाले.

"पण एक हुकूमशाही सरकारच्या हातात काय करू शकते याची कल्पना करा," त्याने विचारले. यामुळे सुरक्षा संशोधकांना चिंता वाटते जे चेतावणी देतात की यामुळे लाखो लोकांच्या वैयक्तिक उपकरणांवर लक्ष ठेवण्याचे दरवाजे उघडू शकतात. सुरक्षा संशोधक, मुलांच्या गैरवर्तनावर मात करण्यासाठी अॅपलच्या प्रयत्नांना पाठिंबा देताना, भीती वाटते की कंपनी जगभरातील सरकारांना त्यांच्या नागरिकांच्या वैयक्तिक डेटामध्ये प्रवेश घेण्याची परवानगी देऊ शकते, संभाव्यतः त्याच्या मूळ हेतूच्या पलीकडे.

Appleपलने सेट केलेले उदाहरण इतर तंत्रज्ञान कंपन्यांवर समान तंत्र वापरण्यासाठी दबाव वाढवू शकते. "सरकार प्रत्येकाची मागणी करेल," ग्रीन म्हणाले.

क्लाउड फोटो स्टोरेज सिस्टीम आणि सोशल मीडिया साइट्स आधीपासूनच बाल अत्याचाराच्या प्रतिमा शोधत आहेत. ICloud फोटोंवर फोटो अपलोड केल्यावर Appleपल, उदाहरणार्थ, हॅशिंग तंत्र वापरते. बॅकअप आणि सिंकसाठी iCloud फोटोंवर अपलोड केलेले सर्व फोटो एंड-टू-एंड एन्क्रिप्शनमध्ये साठवले जात नाहीत. Appleपल शेतात फोटो एन्क्रिप्टेड स्वरूपात साठवले जातात, परंतु डिक्रिप्शन की देखील .पलच्या मालकीच्या असतात. याचा अर्थ पोलीस अॅपलला निवेदन देऊ शकतात आणि वापरकर्त्याने अपलोड केलेले सर्व फोटो पाहू शकतात.

स्त्रोत: https://www.apple.com


आपली टिप्पणी द्या

आपला ई-मेल पत्ता प्रकाशित केला जाणार नाही. आवश्यक फील्ड चिन्हांकित केले आहेत *

*

*

  1. डेटा जबाबदार: मिगुएल Áन्गल गॅटन
  2. डेटाचा उद्देशः नियंत्रण स्पॅम, टिप्पणी व्यवस्थापन.
  3. कायदे: आपली संमती
  4. डेटा संप्रेषण: कायदेशीर बंधन वगळता डेटा तृतीय पक्षास कळविला जाणार नाही.
  5. डेटा संग्रहण: ओकेन्टस नेटवर्क (EU) द्वारा होस्ट केलेला डेटाबेस
  6. अधिकारः कोणत्याही वेळी आपण आपली माहिती मर्यादित, पुनर्प्राप्त आणि हटवू शकता.

  1.   mvr1981 म्हणाले

    काय मूर्खपणा. आपल्या पालकांचे फोटो काढणाऱ्या पालकांचे काय?

    1.    गडद म्हणाले

      हा एक प्रश्न आहे जो खोटे सकारात्मक मध्ये जातो

      1.    मिगुएल रोड्रिग्ज म्हणाले

        नवीन वैशिष्ट्य बाहेर येताच मला आश्चर्य वाटणार नाही, Appleपल उत्पादनांचा वापर करणाऱ्या "पीडोफाइल" च्या अतिसंख्य संख्येमुळे तुम्ही घाबरून जाल.

  2.   ग्रेगरी रोस म्हणाले

    याला मागचा दरवाजा म्हणतात आणि सरकार स्वतःला चावी ठेवण्यासाठी एकमेकांना देईल, पोर्नोग्राफी लोकांना गिळण्यासाठी एक "संवेदनशील" निमित्त वाटते, परंतु पीडोफाइल डंकणार नाहीत, ते संवेदनशील सामग्री एन्क्रिप्ट करतील. मग आपल्या लहान मुलांचे फोटो काढणाऱ्या कोणत्याही जोडप्याचा प्रश्न आहे की Appleपल किंवा इतर कोणालाही त्या आशयामध्ये नाक चिकटवायचे आहे. शेवटी, एक मागचा दरवाजा प्रत्येक गोष्टीसाठी चांगला असतो, एकदा तो उघडा आणि कोणाच्याही हातात. तो स्वतःला पोर्नोग्राफीचा पाठपुरावा करण्यापर्यंत मर्यादित ठेवेल, प्रत्येक गोष्टीच्या चाव्या घेऊन?

  3.   अझूरियस म्हणाले

    या सर्वांविषयीची मनोरंजक गोष्ट अशी आहे की काही ठिकाणी एक मनुष्य त्या गोष्टीचे प्रशिक्षण देत होता किंवा नमुने प्रस्तावित करत होता, माझ्या वैयक्तिक बाबतीत, मी कोणत्याही प्रकारचा त्रास, हिंसा सहन करत नाही आणि पीडोफिलियाचा विषय खरोखरच क्लेशकारक आणि वेदनादायक आहे. मी.

    हाहाहा अशा प्रकारची नोकरी मिळवा