Nhân viên Samsung sử dụng ChatGPT vô tình làm rò rỉ thông tin bí mật

(VOH) - Khi tin tưởng bot AI sẽ giúp giải quyết một số lỗi mã của họ, các công nhân đã tiết lộ dữ liệu mật của công ty.

Samsung nhận thấy rằng việc phụ thuộc vào ChatGPT có thể là một điều không mấy tốt đẹp. Sau khi được giới thiệu về ChatGPT để được hỗ trợ cơ bản trong công việc, các công nhân tại Samsung Semiconductor đã bắt đầu sử dụng công cụ này để chỉnh sửa các lỗi mã nguồn, và vô tình làm lộ dữ liệu bí mật của Samsung cho các nguồn bên ngoài.

Chỉ trong 20 ngày, nhân viên của Samsung Semiconductor đã sử dụng ChatGPT ít nhất 3 lần để tìm cách khắc phục nhanh các sự cố nội bộ. Trong một trường hợp, một nhân viên đã nhập mã nguồn của một chương trình độc quyền vào bot.

Trong một trường hợp khác, ai đó đã cung cấp cho ChatGPT một loạt trình tự kiểm tra có tính bảo mật cao để xác định các chip bị lỗi và yêu cầu trợ giúp về tối ưu hóa.

Nhân viên Samsung sử dụng ChatGPT vô tình làm rò rỉ thông tin bí mật 1
Nhân viên Samsung làm rò rỉ thông tin mật của công ty khi sử dụng ChatGPT.

Trong trường hợp thứ ba, một nhân viên đã sử dụng trình dịch AI Naver Clova để chuyển đổi cuộc họp được ghi lại thành tài liệu, sau đó yêu cầu ChatGPT biến cuộc họp đó thành bản trình bày.

Vì ChatGPT được quản lý bởi một công ty bên thứ ba sử dụng máy chủ bên ngoài, nên chỉ cần nhập mã của Samsung, trình tự kiểm tra và nội dung cuộc họp nội bộ vào chương trình đã tạo ra rò rỉ.

Samsung Electronics đã nhanh chóng thông báo cho cả lãnh đạo và nhân viên của mình rằng định dạng dữ liệu học tập mở của ChatGPT đặt ra quá nhiều rủi ro bảo mật để áp dụng vào công việc hàng ngày, mặc dù ngay từ đầu họ đã giới thiệu công cụ này cho lực lượng lao động của mình. Nhiều người đã bắt đầu tích hợp ChatGPT và các công cụ AI tổng quát khác vào công việc của họ.

Một nghiên cứu gần đây do Aberdeen thực hiện trên 642 chuyên gia cho thấy 59% đã sử dụng AI sáng tạo cho công việc. Khi mọi người tiếp tục tận dụng các công cụ mạnh mẽ như ChatGPT và DALL-E 2, họ sẽ phải tìm cách giảm thiểu rủi ro rò rỉ hoặc đạo văn hoặc đơn giản là tránh sử dụng các công cụ này trong các trường hợp cụ thể.

Tuy nhiên, hậu quả sai lầm của Samsung không hoàn toàn tiêu cực. Samsung hiện đang làm việc để phát triển công cụ AI giống như ChatGPT của riêng mình, chỉ dành cho mục đích sử dụng nội bộ để nhân viên có thể nhận được trợ giúp nhanh chóng mà không phải hy sinh tính bảo mật của công ty.

Hiện tại, Samsung Electronics đang áp dụng một loạt các biện pháp bảo vệ để ngăn chặn những rò rỉ tương tự trong tương lai.

Bình luận