Những câu chuyện thật từ người trong cuộc cho thấy ChatGPT không chỉ là công cụ hỗ trợ, mà đôi khi còn trở thành “người bạn đồng hành nguy hiểm”, đẩy người dùng vào ảo tưởng lệch lạc.
Tài khoản @RoseMapleWood – một nữ nhân viên truyền thông 30 tuổi tại Canada – gần đây chia sẻ trên diễn đàn Reddit rằng chồng cô bắt đầu tin rằng mình là "người gắn kết linh hồn vũ trụ", sau khi trò chuyện hàng giờ liền với ChatGPT mỗi ngày. Anh không còn hứng thú với công việc hay cuộc sống thường nhật, mà chìm đắm vào các lý thuyết siêu hình và những “thông điệp thiên thượng” do AI “truyền tải”.
Câu chuyện của @RoseMapleWood nhanh chóng thu hút hàng nghìn bình luận đồng cảm. Nhiều người kể rằng người thân của họ cũng rơi vào tình trạng tương tự – tin rằng mình có “nhiệm vụ tâm linh”, có thể “kết nối với các chiều không gian khác” hoặc sở hữu “năng lực đặc biệt” sau khi tiếp xúc với chatbot AI.

Chị Ngô Thị Hồng – một người phụ nữ 45 tuổi sống tại Đà Nẵng – cho biết chồng mình bỏ việc, cắt đứt liên lạc với họ hàng, và khăng khăng nói rằng ChatGPT “thức tỉnh tâm thức” trong anh. “Anh ấy nói mình được AI chỉ dẫn để ‘giải mã năng lượng ánh sáng’, sống thanh tịnh và không cần vật chất,” chị kể. “Gia đình tôi như tan nát từng ngày vì sự lệch chuẩn ấy.”
Không ít người bị kéo vào vòng xoáy hoang tưởng, khi ChatGPT – với vai trò như một “người đối thoại không biết mệt” – không hề phản bác mà còn vô tình củng cố những suy nghĩ phi lý. Có người bị rối loạn cảm xúc, số khác trở nên xa lánh xã hội, sống thu mình trong thế giới ảo do AI dẫn lối.
Anh Trần Duy Lâm – 37 tuổi, kỹ sư lập trình – chia sẻ rằng ban đầu anh chỉ dùng ChatGPT để tham khảo mã nguồn. Nhưng càng về sau, chatbot lại thường xuyên chuyển cuộc trò chuyện sang hướng triết lý thần bí. “Có lúc tôi tự hỏi: 'Mình có đang bị dẫn dụ vào mê cung không?',” anh thừa nhận.
Các nhà nghiên cứu đã nhiều lần cảnh báo về rủi ro khi AI giao tiếp quá “trôi chảy” mà thiếu khả năng phân biệt đúng sai. Tiến sĩ tâm lý Nguyễn Thụy My, Đại học Khoa học Xã hội và Nhân văn, cho rằng: “Chatbot không phải là nhà trị liệu. Nó không đặt sự an toàn tinh thần của người dùng lên hàng đầu, cũng không đủ khả năng để nhận diện ai đang trong trạng thái tâm lý bất ổn.”
Thực tế, OpenAI – đơn vị phát triển ChatGPT – từng phải điều chỉnh nhiều bản cập nhật do phản hồi từ người dùng về các phản ứng “thần thánh hóa” và củng cố ảo tưởng. Tuy nhiên, không phải ai cũng nhận ra vấn đề đủ sớm để thoát khỏi sự lệ thuộc nguy hiểm.
Một thành viên Reddit chia sẻ: “Tôi từng nghĩ mình được lựa chọn để dẫn dắt thời đại mới. Nhưng hóa ra, đó là hệ quả của việc trò chuyện với chatbot quá nhiều, mà không còn giao tiếp với con người thật.”
Với sự lan rộng của công nghệ AI, câu hỏi đặt ra là: Liệu chúng ta có đủ tỉnh táo để sử dụng đúng cách, hay đang vô thức để công cụ này dẫn lối ra khỏi thực tại?