Đăng nhập

Nhà khoa học cảnh báo nhóm nắm quyền AI sẽ gây ra nỗi sợ hãi cho mọi người

00:00
00:00
00:00
VOH - Cha đỡ đầu của AI - Yann LeCun muốn chúng ta quên đi một số kịch bản về ngày tận thế do AI gây ra.

Tuy nhiên, ông ấy nhìn thấy một mối đe dọa thực sự khác ở phía chân trời: sự trỗi dậy của nhóm khao khát quyền lực, những kẻ cướp đi sự giàu có của AI của những người khác.

Cuối tuần qua, nhà khoa học AI của Meta đã cáo buộc một số nhà sáng lập nổi bật nhất trong lĩnh vực AI là gây sợ hãi và vận động hành lang công ty quy mô lớn để phục vụ lợi ích riêng.

Ông đã nêu tên Sam Altman của OpenAI, Demis Hassabis của Google DeepMind và Dario Amodei của Anthropic trong một bài đăng dài cuối tuần trên X.

Nhà khoa học cảnh báo nhóm nắm quyền AI sẽ gây ra nỗi sợ hãi cho mọi người 1Xem toàn màn hình
Nhà khoa học cảnh báo nhóm nắm quyền AI sẽ gây ra nỗi sợ hãi cho mọi người.

LeCun viết: “Altman, Hassabis và Amodei là những công ty đang thực hiện vận động hành lang quy mô lớn vào thời điểm hiện tại, đề cập đến vai trò của những người sáng lập này trong việc định hình các cuộc đối thoại pháp lý về an toàn AI. Họ là những người đang cố gắng thực hiện việc nắm bắt quy định đối với ngành AI”.

Ông nói thêm rằng nếu những nỗ lực này thành công, kết quả sẽ là một “thảm họa” vì một số ít công ty sẽ kiểm soát AI. Điều đó rất quan trọng vì hầu hết những người quan tâm đến công nghệ đều đồng ý rằng AI là sự phát triển lớn nhất về công nghệ kể từ vi mạch hoặc internet.

Nhận xét của LeCun được đưa ra để đáp lại một bài đăng trên X của nhà vật lý Max Tegmark, người cho rằng LeCun chưa coi trọng các cuộc tranh luận về ngày tận thế của AI.

Kể từ khi ChatGPT ra mắt, những người nắm quyền lực trong AI đã trở thành những nhân vật quan trọng của công chúng. Tuy nhiên, LeCun cho biết, những người sáng lập như Altman và Hassabis đã dành rất nhiều thời gian để khơi dậy nỗi sợ hãi về chính công nghệ mà họ đang bán.

Vào tháng 3, hơn 1.000 nhà lãnh đạo công nghệ, bao gồm Elon Musk, Sam Altman, Hassabis và Amodei, đã ký một lá thư kêu gọi tạm dừng phát triển AI tối thiểu sáu tháng . Bức thư trích dẫn “những rủi ro sâu sắc đối với xã hội và nhân loại” do các hệ thống AI giả định gây ra”.

LeCun và những người khác cho rằng những cảnh báo gây chú ý này chỉ nhằm mục đích củng cố sức mạnh và vượt qua những rủi ro thực sự sắp xảy ra của AI.

Theo Viện nghiên cứu AI phân tán (DAIR), những rủi ro đó bao gồm việc khai thác công nhân và đánh cắp dữ liệu nhằm tạo ra lợi nhuận cho một số ít thực thể. Việc tập trung vào những mối nguy hiểm giả định cũng làm chuyển hướng sự chú ý khỏi câu hỏi nhàm chán nhưng quan trọng về việc quá trình phát triển AI thực sự hình thành như thế nào.

Ông lập luận rằng khả năng diệt vong sắp xảy ra khó có thể xảy ra bởi vì mọi công nghệ mới trên thực tế đều trải qua một quá trình phát triển rất có trật tự trước khi được tung ra rộng rãi.

Vì vậy, trên thực tế, lĩnh vực cần tập trung vào là cách AI được phát triển hiện nay. Và đối với LeCun, mối nguy hiểm thực sự là sự phát triển của AI bị khóa chặt trong các tổ chức tư nhân, vì lợi nhuận, những tổ chức này không bao giờ công bố những phát hiện của mình, trong khi cộng đồng nguồn mở của AI bị xóa sổ. Hậu quả là mối lo ngại của ông là các cơ quan quản lý để điều đó xảy ra vì họ bị phân tâm bởi những cuộc tranh luận về robot giết người.

Các nhà lãnh đạo như LeCun đã ủng hộ các nhà phát triển nguồn mở khi công việc của họ trên các công cụ cạnh tranh với ChatpGPT của OpenAI, mang lại mức độ minh bạch mới cho việc phát triển AI.

Bình luận