Cảnh báo chiêu trò lừa đảo ghép mặt bằng AI gia tăng dịp Tết Nguyên đán Ất Tỵ

VOH - Thủ đoạn này lợi dụng tâm lý người dân vào dịp cuối năm, dễ mất cảnh giác, gây ra những thiệt hại không nhỏ về tài sản.

Thời điểm cận Tết Nguyên đán 2025, tình hình tội phạm công nghệ cao diễn biến phức tạp, đặc biệt là các vụ lừa đảo sử dụng công nghệ trí tuệ nhân tạo (AI) để ghép mặt đang có xu hướng gia tăng và ngày càng tinh vi.

Chiêu thức lừa đảo ngày càng tinh vi:

Kẻ gian sử dụng AI để thu thập hình ảnh, video của người dùng từ các nền tảng mạng xã hội như Facebook, Zalo, TikTok,... Sau đó, chúng dùng công nghệ deepfake để ghép khuôn mặt, giọng nói của người đó vào một video hoặc cuộc gọi giả mạo. Mục đích chính là tạo ra một hình ảnh tin cậy, khiến nạn nhân tin rằng đang giao tiếp với người thân, bạn bè.

Các tình huống lừa đảo thường gặp bao gồm:

  • Gọi video Messenger giả mạo: Kẻ gian tạo cuộc gọi video qua Messenger, giả danh người thân đang gặp khó khăn (tai nạn, nợ nần, cần tiền gấp...) để yêu cầu nạn nhân chuyển tiền ngay lập tức. Do thấy hình ảnh và nghe giọng nói quen thuộc, nhiều người đã sập bẫy.
  • Giả mạo kêu gọi đầu tư: Kẻ gian ghép mặt người nổi tiếng, chuyên gia tài chính vào các video quảng cáo kêu gọi đầu tư vào các dự án ảo, tiền ảo, hứa hẹn lợi nhuận cao.
  • Lừa đảo tuyển dụng: Kẻ gian tạo hồ sơ giả mạo của các công ty uy tín, sử dụng công nghệ AI để tạo video phỏng vấn giả mạo, sau đó yêu cầu ứng viên nộp tiền đặt cọc hoặc phí tuyển dụng.
PA05_2
Ảnh do nạn nhân cung cấp về đoạn tin nhắn của kẻ lừa đảo - Nguồn: PA05 Công an Đồng Tháp.

Mức độ nguy hiểm và khó nhận biết:

Điểm nguy hiểm của hình thức lừa đảo này nằm ở chỗ video giả mạo được tạo ra rất chân thực, khó phân biệt bằng mắt thường. Giọng nói và biểu cảm khuôn mặt được đồng bộ một cách tinh vi, khiến nạn nhân dễ dàng tin tưởng. Đặc biệt, vào dịp cuối năm, khi mọi người bận rộn và tâm lý cảnh giác có phần giảm sút, nguy cơ bị lừa đảo càng cao.

PA05
Hình ảnh minh họa về công nghệ Deepfake - Ảnh: Internet.

Cách phòng tránh:

Để tránh trở thành nạn nhân của chiêu trò lừa đảo này, người dân cần nâng cao cảnh giác và thực hiện các biện pháp sau:

  • Xác minh thông tin kỹ càng: Khi nhận được yêu cầu chuyển tiền hoặc thông tin bất thường từ người thân, bạn bè qua mạng xã hội, cần liên hệ trực tiếp qua số điện thoại hoặc gặp mặt để xác minh.
  • Không tin tuyệt đối vào video call: Ngay cả khi nhìn thấy hình ảnh và nghe giọng nói quen thuộc trong cuộc gọi video, cũng không nên tin tưởng tuyệt đối. Hãy đặt câu hỏi kiểm tra thông tin cá nhân mà chỉ người thân mới biết.
  • Hạn chế chia sẻ thông tin cá nhân lên mạng xã hội: Việc công khai quá nhiều thông tin cá nhân trên mạng xã hội tạo điều kiện cho kẻ gian thu thập và sử dụng vào mục đích xấu.
  • Cập nhật kiến thức về công nghệ: Tìm hiểu về các hình thức lừa đảo công nghệ cao để nâng cao nhận thức và phòng tránh.
  • Báo cáo các hành vi đáng ngờ: Khi phát hiện các dấu hiệu lừa đảo, cần báo cáo ngay cho cơ quan chức năng để được xử lý.

Cục An toàn thông tin (Bộ Thông tin và Truyền thông) cũng đã đưa ra khuyến cáo người dân cần đặc biệt cảnh giác với các cuộc gọi video qua Messenger sử dụng AI giả mạo khuôn mặt và giọng nói.

Việc nâng cao ý thức phòng tránh và trang bị kiến thức về an ninh mạng là vô cùng quan trọng để bảo vệ bản thân và gia đình trước những chiêu trò lừa đảo ngày càng tinh vi.

Bình luận