AI cho phép đọc được cuộc trò chuyện riêng tư trên Android hoặc iPhone

VOH - Các chuyên gia đã cảnh báo rằng tội phạm mạng có thể theo dõi các cuộc trò chuyện của người dùng bằng các chatbot hỗ trợ trí tuệ nhân tạo AI.

Kể từ khi ChatGPT ra mắt vào tháng 11/2022, các chuyên gia an ninh mạng đã quan tâm đến công nghệ này. ChatGPT là một chatbot nâng cao có thể hoàn thành liền mạch các tác vụ như viết một bài luận và tạo mã trong vài giây.

AI cho phép đọc được cuộc trò chuyện riêng tư trên Android hoặc iPhone 1
Ảnh minh họa: Getty Images

Ngày nay, một số chatbot hoạt động giống như ChatGPT, bao gồm cả Gemini của Google và Copilot của Microsoft trong Bing.

Các chatbot rất dễ sử dụng và nhiều người dùng nhanh chóng bị cuốn hút vào các cuộc trò chuyện với những người bạn đồng hành bằng ngôn ngữ tự nhiên.Tuy nhiên, các chuyên gia đã bày tỏ lo ngại về việc người dùng chia sẻ thông tin cá nhân với chatbot AI.

ChatGPT có thể thu thập các chi tiết có tính nhạy cảm cao mà người dùng chia sẻ thông qua lời nhắc và phản hồi. Sau đó, nó có thể liên kết thông tin này với địa chỉ email và số điện thoại của người dùng và lưu trữ nó.

Đó là vì để sử dụng nền tảng này, người dùng cần cung cấp cả địa chỉ email và số điện thoại di động. Người dùng không thể bỏ qua điều này bằng cách sử dụng các địa chỉ email và số điện thoại dùng một lần hoặc bị che giấu.

Do đó, ChatGPT được gắn chặt với danh tính trực tuyến của bạn vì nó ghi lại mọi thứ bạn nhập vào. Hơn nữa, tội phạm mạng cũng có thể lấy được dữ liệu riêng tư này nếu chúng đủ nhạy bén.

Yisroel Mirsky, người đứng đầu Phòng thí nghiệm nghiên cứu AI tấn công tại Đại học Ben-Gurion của Israel, cho biết: “Hiện tại, bất kỳ ai cũng có thể đọc các cuộc trò chuyện riêng tư được gửi từ ChatGPT và các dịch  vụ  khác”.

“Điều này bao gồm các tác nhân độc hại trên cùng một Wi-Fi hoặc mạng LAN với một khách hàng (như ngồi cùng một quán cà phê) hoặc thậm chí là một tác nhân độc hại trên internet, bất kỳ ai cũng có thể quan sát lưu lượng truy cập.”

Đây được gọi là “cuộc tấn công kênh bên” và có thể rất nguy hiểm cho nạn nhân. Mirsky tiết lộ: “Cuộc tấn công diễn ra thụ động và có thể xảy ra mà OpenAI hoặc khách hàng của họ không hề hay biết.

"OpenAI mã hóa lưu lượng truy cập của họ để ngăn chặn các kiểu tấn công nghe lén này, nhưng nghiên cứu của chúng tôi cho thấy cách OpenAI sử dụng mã hóa có sai sót và do đó nội dung của tin nhắn bị lộ."

Để giữ an toàn trước những cuộc tấn công như thế này, các chuyên gia khuyên người dùng nên hết sức cẩn thận với thông tin họ nhập vào chatbot AI.

Họ cũng cần cảnh giác với một thực tế là ngay cả khi các công ty AI không chia sẻ thông tin cá nhân của họ thì tin tặc vẫn có thể truy cập được.

Trong khi đó, OpenAI trong phần Câu hỏi thường gặp khuyên hàng triệu người dùng hàng ngày không nên chia sẻ “bất kỳ thông tin nhạy cảm nào trong cuộc trò chuyện của họ”.

Bình luận