Chờ...

Anh cáo buộc Apple không báo cáo hình ảnh khiêu dâm của trẻ em

VOH - Các chuyên gia về an toàn trẻ em cáo buộc Apple không giám sát hiệu quả các nền tảng của mình hoặc không quét được hình ảnh và video về lạm dụng tình dục trẻ em.

Hiệp hội quốc gia phòng chống hành vi tàn ác với trẻ em (NSPCC) của Anh cáo buộc Apple đã tính thiếu rất nhiều về tần suất xuất hiện nội dung lạm dụng tình dục trẻ em (CSAM) trong các sản phẩm của mình.

Trong một năm, ‘những kẻ săn mồi trẻ em’ đã sử dụng iCloud, iMessage và Facetime của Apple để lưu trữ và trao đổi CSAM nhiều hơn (chỉ tính riêng ở Anh và xứ Wales) so với số liệu mà công ty tổng hợp của các quốc gia khác cộng lại.

apple-220724
Năm 2023, Apple chỉ gửi 267 báo cáo về tài liệu nghi ngờ lạm dụng tình dục trẻ em trên các nền tảng của mình trên toàn thế giới tới Trung tâm quốc gia về trẻ em mất tích và bị bóc lột - Ảnh: Reuters

Thông qua dữ liệu thu thập được, NSPCC phát hiện Apple có liên quan đến 337 vụ vi phạm hình ảnh lạm dụng trẻ em được ghi nhận từ tháng 4/2022 đến tháng 3/2023 tại Anh và xứ Wales.

Năm 2023, Apple chỉ thực hiện 267 báo cáo về CSAM bị nghi ngờ trên các nền tảng của mình trên toàn thế giới cho Trung tâm quốc gia về trẻ em mất tích và bị bóc lột (NCMEC), trái ngược hoàn toàn với các công ty công nghệ lớn khác. Chẳng hạn Google báo cáo hơn 1,47 triệu trường hợp và Meta báo cáo hơn 30,6 triệu trường hợp, theo báo cáo thường niên của NCMEC.

Tất cả các công ty công nghệ có trụ sở tại Hoa Kỳ đều có nghĩa vụ báo cáo mọi trường hợp CSAM mà họ phát hiện trên nền tảng của mình cho NCMEC.

Tổ chức có trụ sở tại Virginia này hoạt động như một trung tâm tiếp nhận các báo cáo về lạm dụng trẻ em từ khắp nơi trên thế giới, xem chúng và gửi chúng đến các cơ quan thực thi pháp luật có liên quan.

iMessage là một dịch vụ nhắn tin được mã hóa, nghĩa là Apple không thể xem nội dung tin nhắn của người dùng, nhưng WhatsApp của Meta cũng vậy, đã thực hiện khoảng 1,4 triệu báo cáo về CSAM bị nghi ngờ cho NCMEC vào năm 2023.

Thông báo của Apple vào tháng 6 về việc ra mắt hệ thống trí tuệ nhân tạo Apple Intelligence đã vấp phải sự lo ngại của các chuyên gia về an toàn trẻ em.

Apple cho biết, hệ thống AI, được tạo ra thông qua quan hệ đối tác với OpenAI, sẽ tùy chỉnh trải nghiệm của người dùng, tự động hóa các tác vụ và tăng cường quyền riêng tư cho người dùng.

Vào năm 2023, NCMEC đã nhận được hơn 4.700 báo cáo về CSAM do AI tạo ra và cho biết họ dự kiến ​​số lượng các báo cáo như vậy sẽ tăng lên trong tương lai.

Vì các mô hình AI có khả năng tạo ra CSAM đã được đào tạo trên các hình ảnh "thực tế" về lạm dụng trẻ em, nên các hình ảnh do AI tạo ra cũng có liên quan đến nạn nhân là trẻ em.

Tờ Guardian đưa tin vào tháng 6 rằng, những kẻ săn mồi trẻ em đang sử dụng AI để tạo ra những hình ảnh mới về nạn nhân mà chúng yêu thích, làm trầm trọng thêm chấn thương của những người sống sót hoặc hình ảnh lạm dụng trẻ em.