Elon Musk và các chuyên gia kêu gọi tạm dừng các hệ thống AI với lý do ảnh hưởng đến xã hội

(VOH) - CEO của Twitter Elon Musk cùng các chuyên gia đã kêu gọi tạm dừng đào tạo các mô hình trí tuệ nhân tạo sau sự trỗi dậy của ChatGPT với lý do có thể gây rủi ro cho nhân loại.

Theo hãng tin Reuters, Elon Musk đã cùng với hơn 1.000 chuyên gia ký vào một bức thư ngỏ được Future of Life Institute là tổ chức quan tâm về giảm thiểu các rủi ro hiện hữu toàn cầu, đặc biệt là rủi ro về trí tuệ nhân tạo.

Tổ chức này cũng nhận được tiền từ Quỹ cộng đồng Thung lũng Silicon. Theo sổ đăng ký của Liên minh châu Âu, Future of Life Institute được Quỹ Musk tài trợ chính, cùng một số quỹ khác.

Nội dung bức thư kêu gọi tạm dừng phát triển AI đến một giai đoạn an toàn phù hợp để phát triển và được các chuyên gia độc lập xem xét kỹ lưỡng, đồng thời nêu chi tiết những rủi ro tiềm ẩn mà AI tiên tiến gây ra nếu không có sự giám sát thích hợp.

Elon Musk và các chuyên gia kêu gọi tạm dừng các hệ thống AI với lý do ảnh hưởng đến xã hội 1
Elon Musk cùng các chuyên gia công nghệ kêu gọi tạm dừng phát triển các hệ thống AI. 

Các rủi ro bao gồm sự lan rộng của “tuyên truyền và sai sự thật”, mất việc làm, sự phát triển của “những bộ óc phi nhân loại mà cuối cùng có thể đông hơn, thông minh hơn, thay thế chúng ta” và nguy cơ “mất kiểm soát nền văn minh của chúng ta”.

Các chuyên gia chỉ ra rằng bản thân OpenAI gần đây đã thừa nhận rằng cần sớm được “đánh giá độc lập trước khi bắt đầu đào tạo các hệ thống trong tương lai”.

Bức thư viết: “Vì vậy, chúng tôi kêu gọi tất cả các phòng thí nghiệm AI ngay lập tức tạm dừng ít nhất 6 tháng việc đào tạo các hệ thống AI mạnh hơn GPT-4. Việc tạm dừng này phải được công khai và có thể kiểm chứng được, đồng thời bao gồm tất cả các tác nhân chính”.

Bức thư ra đời trong bối cảnh công ty OpenAI vừa cho ra mắt phiên bản GPT-4 với những tính năng vượt trội, có sự hiểu biết tinh vi hơn phiên bản cũ. Ngay chính “cha đẻ” - CEO OpenAI Sam Atman còn phải thừa nhận rằng anh cũng “hơi sợ” với sự lớn mạnh trong sản phẩm của mình.

Bình luận