Một điều ác cần thiết? Apple có thể phát hiện hình ảnh lạm dụng trẻ em trong thư viện ảnh của người dùng

Apple công bố sự xuất hiện của các tính năng mới ID ảnh trên iOS sẽ sử dụng thuật toán băm để khớp với nội dung của ảnh trong thư viện của người dùng với các yếu tố lạm dụng trẻ em đã biết. Sau đó, thiết bị sẽ tải lên một tập hợp các dấu vân tay đại diện cho nội dung bất hợp pháp và sau đó khớp từng bức ảnh trong bộ sưu tập của người dùng với danh sách đó.

Như vậy, chức năng này nghe có vẻ tuyệt vời, nhưng trên thực tế, nó cũng đại diện cho một vấn đề thực sự, vì như nhiều người trong chúng ta có thể tưởng tượng, nó có thể gây ra rất nhiều xung đột, đặc biệt là với các "dương tính giả" và xét theo số lượng đánh giá tiêu cực về Apple, sáng kiến ​​này có thể không phải là sáng kiến ​​tốt nhất của công ty trong cuộc chiến chống lại nạn ấu dâm và khiêu dâm trẻ em.

Apple đã xác nhận trong một bài đăng trên blog, nói rằng công nghệ quét này là một phần của một loạt hệ thống bảo vệ trẻ em mới "sẽ phát triển và phát triển theo thời gian." Chức năng sẽ được triển khai như một phần của iOS 15, dự kiến ​​ra mắt vào tháng tới.

Công ty cho biết: “Công nghệ mới mang tính đột phá này cho phép Apple cung cấp thông tin hữu ích và có giá trị cho Trung tâm Quốc gia về Trẻ em Mất tích & Bị bóc lột và cơ quan thực thi pháp luật về sự gia tăng của các tài liệu lạm dụng tình dục trẻ em đã biết”.

Hệ thống, được gọi là neuralMatch, sẽ chủ động cảnh báo cho một nhóm kiểm tra con người nếu bạn nghĩ rằng hình ảnh bất hợp pháp được phát hiện ai sẽ liên hệ với cảnh sát nếu tài liệu có thể được xác minh. Hệ thống neuralMatch, được đào tạo với 200.000 hình ảnh từ Trung tâm Quốc gia về Trẻ em Mất tích & Bị bóc lột, sẽ được triển khai lần đầu tiên tại Hoa Kỳ. Các bức ảnh sẽ được băm và khớp với cơ sở dữ liệu về các hình ảnh lạm dụng tình dục trẻ em đã biết.

Theo giải thích của Apple mọi ảnh được tải lên iCloud ở Hoa Kỳ sẽ nhận được "phần thưởng bảo mật" cho biết nó có đáng ngờ hay không. Do đó, một khi một số lượng ảnh nhất định được đánh dấu là đáng ngờ, Apple sẽ cho phép giải mã tất cả các bức ảnh đáng ngờ và nếu chúng có vẻ bất hợp pháp, sẽ chuyển chúng đến các cơ quan có thẩm quyền thích hợp.

"Apple chỉ xem ảnh của người dùng nếu họ có một bộ sưu tập các CSAM đã biết trong tài khoản iCloud Photos", công ty cho biết nhằm đảm bảo với người dùng rằng dữ liệu của họ là bí mật.

Cần lưu ý rằng neuralMatch đại diện cho nỗ lực mới nhất của Apple nhằm thỏa hiệp giữa lời hứa bảo vệ quyền riêng tư của khách hàng và yêu cầu của chính phủ., các cơ quan thực thi pháp luật và các nhà hoạt động vì an toàn trẻ em để được tăng cường hỗ trợ trong các cuộc điều tra tội phạm, bao gồm khủng bố và khiêu dâm trẻ em. Sự căng thẳng giữa các công ty công nghệ như Apple và Facebook, những công ty đã ủng hộ việc sử dụng mã hóa ngày càng tăng trong các sản phẩm và dịch vụ của họ và việc thực thi pháp luật chỉ gia tăng kể từ năm 2016.

Matthew Green, một giáo sư và nhà mật mã học của Đại học Johns Hopkins, đã chia sẻ mối quan tâm của mình về hệ thống này trên Twitter vào tối thứ Tư. Green nói: “Loại công cụ này có thể là một lợi ích cho việc tìm kiếm nội dung khiêu dâm trẻ em trên điện thoại của mọi người.

"Nhưng hãy tưởng tượng những gì nó có thể làm trong tay một chính phủ độc tài," ông hỏi. Điều này gây lo lắng cho các nhà nghiên cứu bảo mật, những người cảnh báo rằng nó có thể mở ra cánh cửa để giám sát các thiết bị cá nhân của hàng triệu người. Các nhà nghiên cứu bảo mật, trong khi ủng hộ nỗ lực của Apple để giải quyết vấn đề lạm dụng trẻ em, lo ngại rằng công ty có thể cho phép các chính phủ trên khắp thế giới tìm kiếm quyền truy cập vào dữ liệu cá nhân của công dân của họ, có khả năng vượt xa ý định ban đầu của họ.

Tiền lệ do Apple đặt ra cũng có thể làm tăng áp lực lên các công ty công nghệ khác sử dụng các kỹ thuật tương tự. "Các chính phủ sẽ yêu cầu tất cả mọi người," Green nói.

Các hệ thống lưu trữ ảnh đám mây và các trang mạng xã hội đã tìm kiếm các hình ảnh lạm dụng trẻ em. Ví dụ, Apple sử dụng kỹ thuật băm khi ảnh được tải lên Ảnh iCloud. Tất cả ảnh được tải lên iCloud Photos để sao lưu và đồng bộ hóa không được lưu trữ trong mã hóa end-to-end. Ảnh được lưu trữ dưới dạng mã hóa trên các trang trại của Apple, nhưng các khóa giải mã cũng thuộc quyền sở hữu của Apple. Điều này có nghĩa là cảnh sát có thể trát đòi Apple và xem tất cả các bức ảnh do người dùng tải lên.

Fuente: https://www.apple.com


Để lại bình luận của bạn

địa chỉ email của bạn sẽ không được công bố. Các trường bắt buộc được đánh dấu bằng *

*

*

  1. Chịu trách nhiệm về dữ liệu: Miguel Ángel Gatón
  2. Mục đích của dữ liệu: Kiểm soát SPAM, quản lý bình luận.
  3. Hợp pháp: Sự đồng ý của bạn
  4. Truyền thông dữ liệu: Dữ liệu sẽ không được thông báo cho các bên thứ ba trừ khi có nghĩa vụ pháp lý.
  5. Lưu trữ dữ liệu: Cơ sở dữ liệu do Occentus Networks (EU) lưu trữ
  6. Quyền: Bất cứ lúc nào bạn có thể giới hạn, khôi phục và xóa thông tin của mình.

  1.   mvr1981 dijo

    Đồ ngu ngốc. Còn các bậc cha mẹ chụp ảnh cho bé yêu của mình thì sao?

    1.    darkcrizt dijo

      Đó là một câu hỏi đi vào xác thực

      1.    miguel rodriguez dijo

        Tôi sẽ không ngạc nhiên nếu ngay sau khi tính năng mới ra mắt, bạn sẽ phải hoảng hốt bởi số lượng "kẻ ấu dâm" sử dụng các sản phẩm của Apple là vô cùng lớn.

  2.   Gregory ros dijo

    Đây được gọi là cửa sau và các chính phủ sẽ trao cho nhau để có chìa khóa, nội dung khiêu dâm dường như là một cái cớ "nhạy cảm" để mọi người nuốt nó, nhưng những kẻ ấu dâm sẽ không gây nhức nhối, họ sẽ mã hóa nội dung nhạy cảm. Sau đó, có câu hỏi về bất kỳ cặp vợ chồng nào chụp ảnh con nhỏ của họ Với quyền gì thì Apple, hay bất kỳ ai khác, chúi mũi vào nội dung đó. Cuối cùng, một cánh cửa sau tốt cho mọi thứ, một khi nó được mở và nằm trong tay bất kỳ ai.

  3.   Azureus dijo

    Điều thú vị về tất cả những điều này là tại một thời điểm nào đó, có một con người đang đào tạo thứ đó hoặc đề xuất các mẫu vật, trong trường hợp cá nhân của tôi, tôi không chấp nhận bất kỳ máu me, bạo lực và chủ đề ấu dâm là một điều gì đó thực sự gây tổn thương và đau đớn cho tôi.

    Mẹ kiếp kiểu công việc đó hahaha