Trong bản cập nhật không báo trước về chính sách sử dụng của mình vào ngày 10/1 vừa qua, OpenAI đã dỡ bỏ lệnh cấm rộng rãi đối với việc sử dụng công nghệ của mình cho “quân sự và chiến tranh”.
Người phát ngôn của OpenAI nói với Business Insider rằng ngôn ngữ mới vẫn cấm sử dụng các dịch vụ của OpenAI cho các mục đích cụ thể hơn như phát triển vũ khí, làm bị thương người khác hoặc phá hủy tài sản.
Người phát ngôn nói thêm rằng công ty “nhằm mục đích tạo ra một bộ nguyên tắc phổ quát vừa dễ nhớ vừa dễ áp dụng, đặc biệt là khi các công cụ của chúng tôi hiện được người dùng hàng ngày sử dụng trên toàn cầu, những người hiện cũng có thể xây dựng GPT”.
Vào ngày 10/1, OpenAI đã triển khai GPT Store, một thị trường để người dùng chia sẻ và duyệt các phiên bản ChatGPT tùy chỉnh được gọi là "GPT". Người phát ngôn của OpenAI cho biết, chính sách sử dụng mới của OpenAI hiện bao gồm các nguyên tắc như "Không làm hại người khác", "rộng nhưng dễ nắm bắt và phù hợp trong nhiều bối cảnh", cũng như cấm các trường hợp sử dụng cụ thể như phát triển hoặc sử dụng vũ khí.
Sarah Myers West, giám đốc điều hành của Viện AI Now và cựu nhà phân tích chính sách AI tại Ủy ban Thương mại Liên bang, nói với The Intercept: “Ngôn ngữ trong chính sách vẫn còn mơ hồ và đặt ra câu hỏi về cách OpenAI dự định tiếp cận việc thực thi”.
Mặc dù OpenAI không đưa ra nhiều thông tin cụ thể về kế hoạch của mình nhưng những thay đổi về ngôn ngữ có thể mở ra cánh cửa cho các hợp đồng trong tương lai với quân đội.
Người phát ngôn của OpenAI nói với Insider rằng có những trường hợp sử dụng vì an ninh quốc gia phù hợp với sứ mệnh của công ty, điều này một phần dẫn đến những thay đổi. Chẳng hạn, OpenAI đã hợp tác với Cơ quan Dự án Nghiên cứu Quốc phòng Tiên tiến, “để thúc đẩy việc tạo ra các công cụ an ninh mạng mới nhằm bảo mật phần mềm nguồn mở mà cơ sở hạ tầng và ngành công nghiệp quan trọng phụ thuộc vào”.