Những phát hiện này dựa trên các cuộc phỏng vấn với hơn 200 người trong hơn một năm – bao gồm các giám đốc điều hành của các công ty AI hàng đầu, các nhà nghiên cứu an ninh mạng, các chuyên gia về vũ khí hủy diệt hàng loạt và các quan chức an ninh quốc gia trong chính phủ.
Báo cáo do Gladstone AI công bố trong tuần này tuyên bố, trong trường hợp xấu nhất, các hệ thống AI tiên tiến nhất có thể “gây ra mối đe dọa ở mức độ tuyệt chủng đối với loài người”.
Một quan chức Bộ Ngoại giao Mỹ xác nhận với CNN rằng, cơ quan này đã thực hiện báo cáo vì họ liên tục đánh giá mức độ phù hợp của AI với mục tiêu bảo vệ lợi ích của Mỹ trong và ngoài nước. Tuy nhiên, quan chức này nhấn mạnh, báo cáo không thể hiện quan điểm của chính phủ Mỹ.
Báo cáo nhắc nhở rằng, dù tiềm năng của AI tiếp tục thu hút các nhà đầu tư và công chúng nhưng cũng có những mối nguy hiểm thực sự.
“AI đã là một công nghệ biến đổi kinh tế. Nó có thể cho phép chúng ta chữa khỏi bệnh tật, thực hiện những khám phá khoa học và vượt qua những thách thức mà chúng ta từng nghĩ là không thể vượt qua”, Jeremie Harris, Giám đốc điều hành và đồng sáng lập của Gladstone AI nói.
Ông Harris nhấn mạnh: “AI cũng có thể mang đến những rủi ro nghiêm trọng, bao gồm cả những rủi ro thảm khốc mà chúng ta cần phải nhận thức được. Và ngày càng có nhiều bằng chứng - bao gồm cả nghiên cứu và phân tích thực nghiệm được công bố tại các hội nghị AI hàng đầu thế giới - cho thấy, đến một ngưỡng nhất định, AI có thể trở nên không thể kiểm soát được”.
Người phát ngôn Nhà Trắng Robyn Patterson cho biết, sắc lệnh hành pháp của Tổng thống Joe Biden về AI là “hành động quan trọng nhất mà bất kỳ chính phủ nào trên thế giới thực hiện để thực hiện lời hứa và quản lý rủi ro của trí tuệ nhân tạo”.
Ông Patterson cho biết: “Tổng thống và Phó Tổng thống sẽ tiếp tục làm việc với các đối tác quốc tế của chúng tôi và thúc giục Quốc hội thông qua luật lưỡng đảng để quản lý rủi ro liên quan đến các công nghệ mới nổi này”.
Hai mối nguy hiểm chính do AI gây ra
Gladstone AI cho biết, thứ nhất, các hệ thống AI tiên tiến nhất có thể được trang bị vũ khí để gây ra thiệt hại không thể khắc phục được.
Thứ hai, báo cáo cho biết, có những lo ngại riêng trong các phòng thí nghiệm AI rằng, đến một lúc nào đó họ có thể “mất quyền kiểm soát” chính những hệ thống mà họ đang phát triển, với “những hậu quả có thể tàn khốc đối với an ninh toàn cầu”.
Báo cáo cho biết: “Sự trỗi dậy của AI và AGI [trí thông minh nhân tạo] có khả năng gây mất ổn định an ninh toàn cầu theo những cách gợi nhớ đến việc sử dụng vũ khí hạt nhân”, đồng thời cho biết thêm, có nguy cơ xảy ra một “cuộc chạy đua vũ trang” AI và “xung đột”...
Báo cáo kêu gọi những bước đi mới nhằm đối mặt với mối đe dọa này, bao gồm việc thành lập một cơ quan AI mới, áp đặt các biện pháp bảo vệ pháp lý “khẩn cấp” và giới hạn lượng điện năng máy tính có thể được sử dụng để đào tạo các mô hình AI.
Ông Harris, Giám đốc điều hành Gladstone AI cho biết “mức độ tiếp cận chưa từng có” mà nhóm của ông có được đối với các quan chức trong khu vực công và tư nhân đã dẫn đến những kết luận đáng kinh ngạc trên.
Gladstone AI cho biết, họ đã trao đổi với các nhóm kỹ thuật và lãnh đạo từ chủ sở hữu ChatGPT OpenAI, Google DeepMind, công ty mẹ Meta và Anthropic của Facebook.
Ông Harris nói: “Ở hậu trường, tình hình an toàn và an ninh trong AI tiên tiến dường như khá kém so với những rủi ro an ninh quốc gia mà AI có thể sớm gây ra”.
Xem thêm: Loạt CEO công nghệ cho rằng AI có nguy cơ tuyệt chủng như chiến tranh hạt nhân
Báo cáo của Gladstone AI cho biết, áp lực cạnh tranh đang thúc đẩy các công ty tăng tốc phát triển AI “gây tổn hại đến an toàn và bảo mật”, làm tăng nguy cơ các hệ thống AI tiên tiến nhất có thể bị “đánh cắp” và “vũ khí hóa” để chống lại Mỹ.
Một tài liệu liên quan do Gladstone AI xuất bản cảnh báo rằng, sự phát triển của AGI và các khả năng tiếp cận AGI “sẽ gây ra những rủi ro thảm khốc không giống bất kỳ rủi ro nào mà Mỹ từng phải đối mặt”.
Ví dụ, các hệ thống AI có thể được sử dụng để thiết kế và thực hiện “các cuộc tấn công mạng có tác động mạnh, có khả năng làm tê liệt cơ sở hạ tầng quan trọng”.
Các ví dụ khác đáng lo ngại bao gồm các chiến dịch đưa thông tin sai lệch “quy mô lớn” do AI hỗ trợ, gây bất ổn cho xã hội và làm xói mòn lòng tin vào các thể chế; các ứng dụng robot được vũ khí hóa như các cuộc tấn công bằng máy bay không người lái; thao túng tâm lý; khoa học vật chất và sinh học được vũ khí hóa; và các hệ thống AI tìm kiếm quyền lực không thể kiểm soát và gây bất lợi cho con người...



