Cảnh giác với nguy cơ kẻ xấu sử dụng AI giả giọng người thân để lừa đảo

VOH - Chỉ cần một vài giây ghi âm giọng nói từ video trên mạng xã hội của nạn nhân, kẻ gian có thể tạo ra bản sao giọng nói ấy cho mục đích lừa đảo.

Ngân hàng trực tuyến Starling Bank (Anh) vừa đưa ra cảnh báo rằng hàng triệu người có thể bị lừa đảo thông qua việc sử dụng trí tuệ nhân tạo (AI) để sao chép giọng nói.

Theo cảnh báo, chỉ cần 3 giây âm thanh từ một video trên mạng xã hội, kẻ gian có thể dùng AI để tạo ra bản sao giọng nói của nạn nhân. Sau đó, chúng tiếp cận bạn bè và người thân của nạn nhân để thực hiện các cuộc gọi lừa đảo, yêu cầu chuyển tiền với giọng nói giả mạo.

ffdgdf-172708271202271837850420240926071039.6867060
Ảnh minh họa: Internet

Kết quả khảo sát của Starling Bank phối hợp với cơ quan nghiên cứu Mortar Research vào tháng 8 cho thấy hơn 1/4 số người tham gia đã trở thành mục tiêu của lừa đảo giả giọng bằng AI trong 12 tháng qua.

Điều đáng lo ngại hơn là 46% số người được hỏi không biết về hình thức lừa đảo này, và 8% cho biết họ sẵn sàng chuyển tiền theo yêu cầu của người thân, ngay cả khi nghi ngờ tính xác thực của cuộc gọi.

Bà Lisa Grahame, Giám đốc An ninh thông tin của Starling Bank, cho biết: "Mọi người thường xuyên đăng tải nội dung trực tuyến có giọng nói mà không nhận ra rủi ro bị lợi dụng bởi các kẻ lừa đảo."

Ngân hàng khuyến nghị khách hàng thiết lập "cụm từ an toàn" với người thân để xác minh danh tính qua điện thoại, tránh những trường hợp giả mạo. Ngân hàng cũng lưu ý khách hàng không nên chia sẻ cụm từ an toàn qua tin nhắn vì nguy cơ bị lộ, và cần xóa ngay sau khi đọc.

Đầu năm nay, Ngân hàng NAB của Úc đã đưa hình thức lừa đảo giả giọng bằng AI vào danh sách các mối đe dọa nguy hiểm hàng đầu trong năm 2024.

Starling Bank hy vọng với các biện pháp phòng ngừa, khách hàng sẽ được bảo vệ trước những mối nguy từ lừa đảo công nghệ cao.

Bình luận