Chờ...

Hàn Quốc: Tội phạm tình dục sử dụng deepfake gia tăng trong trường học

HÀN QUỐC - Tội phạm tình dục deepfake sử dụng trí tuệ nhân tạo đang gia tăng tại các trường học ở Hàn Quốc, làm dấy lên lo ngại về tình trạng giáo dục không đầy đủ và thiếu các biện pháp ngăn chặn.

Một học sinh tại một trường quốc tế ở Hàn Quốc đã bị giao cho các công tố viên vì cáo buộc thực hiện video khai thác tình dục các bạn nữ, theo Sở cảnh sát Seogwipo vào ngày 30/7.

Cảnh sát cũng đã chuyển 3 người bạn cùng lớp đã xem video cùng nam sinh này đến cơ quan công tố.

bao-luc-hoc-duong-310724
Tội phạm tình dục sử dụng deepfake gia tăng trong trường học ở Hàn Quốc - Ảnh: Getty

Bị buộc tội vi phạm Luật Bảo vệ trẻ em và vị thành niên khỏi lạm dụng tình dục, nam sinh bị cáo buộc đã sử dụng công nghệ "deepfake" để tạo ra các video khai thác tình dục bằng cách kết hợp ảnh khuôn mặt của nạn nhân với ảnh khỏa thân của những người phụ nữ khác.

Sau khi cảnh sát tiến hành giám định kỹ thuật số trên máy tính xách tay và điện thoại di động của nam sinh, số nạn nhân đã tăng từ 2 lên 11.

Một tuần trước, cảnh sát đã mở cuộc điều tra về báo cáo tội phạm deepfake tại một trường tiểu học ở Gunsan, tỉnh Jeolla Bắc, nơi khuôn mặt của trẻ em được chỉnh sửa thành một hình ảnh khác bằng trí tuệ nhân tạo.

Theo "Báo cáo kết quả khảo sát bắt nạt trên mạng năm 2023" của Ủy ban Truyền thông Hàn Quốc, 10% trong số 9.000 học sinh từ lớp 4 tiểu học đến học sinh cuối cấp trung học trên toàn quốc đã chứng kiến ​​tội phạm tình dục trên mạng.

Tỷ lệ chứng kiến ​​hành vi phát tán video bất hợp pháp là 6,7%, tăng 0,9 điểm phần trăm so với năm ngoái và tỷ lệ làm nhục người quen cũng tăng lên 5,2%.

Phân tích của Cơ quan Cảnh sát Thủ đô Seoul về bạo lực học đường và tội phạm vị thành niên trong nửa đầu năm nay cũng cho thấy, có 662 báo cáo về bạo lực tình dục và quấy rối tình dục, tăng 161,7% so với cùng kỳ năm ngoái. Trong số này, có 20 báo cáo là deepfake.

Thuật ngữ "deepfake", kết hợp giữa "deep learning" và "fake", dùng để chỉ các video siêu thực được tạo ra hoặc chỉnh sửa kỹ thuật số để giống hoặc thay thế khuôn mặt của người thật. Bằng cách thao túng cảnh quay thực và âm thanh, deepfake thường khó phát hiện, khiến nạn nhân dễ bị tổn thương hơn.

Mặc dù vào năm 2020, Đạo luật đặc biệt về trừng phạt tội phạm bạo lực tình dục đã được ban hành tại Hàn Quốc nhưng tội phạm sử dụng công nghệ deepfake gần đây đã trở thành một ‘đại dịch’ trong giới trẻ - theo The Korea Herald.

Theo kết quả truy quét video giả mạo bất hợp pháp của Cơ quan Cảnh sát Quốc gia, 65 trong số 94 nghi phạm có độ tuổi từ 19 trở xuống.

Khi những người trẻ tuổi quen thuộc với các thiết bị thông minh và đã phát triển các kỹ năng của mình, việc tạo ảnh và video deepfake trở nên dễ dàng hơn đối với họ, một viên chức cảnh sát giải thích.