Trong một bài đăng trên blog ngày 5/7, OpenAI nói rằng mặc dù trí tuệ nhân tạo "siêu thông minh" dường như còn rất xa vời, nhưng nó có thể xuất hiện trong vòng một thập kỷ.
"Hiện tại, chúng tôi không có giải pháp để điều khiển hoặc kiểm soát AI có khả năng siêu thông minh và ngăn về sự lớn mạnh của nó", đồng sáng lập OpenAI Ilya Sutskever và đồng trưởng nhóm mới này Jan Leike đã viết trong bài đăng trên blog.
Và mặc dù công nghệ này có thể giúp giải quyết nhiều vấn đề cấp bách nhất của thế giới, nhưng AI siêu thông minh có thể dẫn đến sự mất quyền lực của loài người hoặc thậm chí là sự tuyệt chủng của loài người.
Nhóm mới được thành lập được gọi là Superalignment có kế hoạch phát triển AI với trí thông minh ở cấp độ con người có thể giám sát AI siêu thông minh trong vòng bốn năm tới.
OpenAI hiện đang tuyển dụng cho nhóm này. Công ty cho biết họ có kế hoạch dành 20% sức mạnh tính toán cho nghiên cứu này, theo một bài đăng trên blog.
Giám đốc điều hành OpenAI Sam Altman từ lâu đã kêu gọi các cơ quan quản lý coi rủi ro AI là ưu tiên toàn cầu. Vào tháng 5, Altman đã cùng hàng trăm nhân vật chủ chốt khác trong lĩnh vực công nghệ ký một bức thư ngỏ có một câu: "Giảm thiểu nguy cơ tuyệt chủng do AI phải là ưu tiên toàn cầu bên cạnh các rủi ro quy mô xã hội khác như đại dịch và chiến tranh hạt nhân”.
Những nhân vật quan trọng khác trong lĩnh vực công nghệ, bao gồm cả Elon Musk, cũng đã gióng lên hồi chuông cảnh báo về việc điều chỉnh AI và kêu gọi tạm dừng phát triển AI trong sáu tháng, mặc dù một số người coi đây là một mưu đồ để Elon Musk bắt kịp.