ChatGPT đã có kế hoạch ngăn chặn AI can thiệp vào bầu cử

VOH - AI và công nghệ deepfake có thể gây tổn hại lớn đối với hình ảnh của các chính trị gia tham gia vào các cuộc bầu cử trên toàn cầu. Việc ngăn chặn chúng cũng chưa từng có tiền lệ.

OpenAI, công ty tạo ra ChatGPT, đã vạch ra kế hoạch ngăn chặn việc sử dụng công nghệ của mình để truyền bá thông tin sai lệch và can thiệp vào các cuộc bầu cử.

Khá nhiều quốc gia sẽ tổ chức các cuộc bầu cử trong năm nay. Tuy nhiên, sự nổi lên gần đây của trí tuệ nhân tạo, các công nghệ  deepfake đã dẫn đến lo ngại rằng nó có thể gây ra mối đe dọa làm mất đi tính công bằng cho các cuộc bầu cử tự do.

ChatGPT đã có kế hoạch ngăn chặn AI can thiệp vào bầu cử 1
Những tấm hình deepfake giả mạo bắt giữ cựu tổng thống Donlad Trump đã từng bị vạch trần 

Một trong những mối quan tâm chính liên quan đến hình ảnh deepfake có thể được tạo bằng các công cụ như Dall-E của OpenAI. Những điều này có thể thao túng những hình ảnh hiện có hoặc tạo ra những mô tả hoàn toàn mới làm tổn hại hình ảnh các chính trị gia tranh cử.

Một loại AI khác có khả năng bị lạm dụng là các trình tạo dựa trên văn bản như ChatGPT, có thể tạo ra văn bản giả tạo nhưng lại mang tính con người một cách thuyết phục.

Một bài đăng trên blog của OpenAI đề cập đến AI và bầu cử cho biết: “Khi chúng tôi chuẩn bị cho cuộc bầu cử vào năm 2024 trên khắp thế giới, cách tiếp cận của chúng tôi là đảm bảo an toàn cho nền tảng của mình bằng cách nâng cao thông tin bỏ phiếu chính xác, thực thi các chính sách được đo lường và cải thiện tính minh bạch”.

“Giống như bất kỳ công nghệ mới nào, những công cụ này đi kèm với những lợi ích và thách thức. Những thách thức chưa từng có và chúng tôi sẽ tiếp tục phát triển cách tiếp cận của mình khi tìm hiểu thêm về cách sử dụng các công cụ của mình.”

OpenAI cho biết họ đã tập hợp các thành viên của hệ thống an toàn, các nhóm an ninh, tình báo, pháp lý, kỹ thuật và chính sách để điều tra và giải quyết mọi hành vi tiềm ẩn lạm dụng công nghệ của mình.

Công ty đã có sẵn các biện pháp để ngăn công cụ Dall-E chấp nhận yêu cầu tạo hình ảnh của người thật, tuy nhiên các công ty khởi nghiệp AI khác không có các biện pháp bảo vệ như vậy.

Giám đốc điều hành OpenAI, Sam Altman trước đây đã từng nói rằng ông “lo lắng” về mối đe dọa mà AI gây ra đối với tính toàn vẹn của cuộc bầu cử, nó có thể được sử dụng theo một cách mới để truyền bá “thông tin sai lệch tương tác trực tiếp”.

Trong số các biện pháp mới nhằm ngăn chặn việc lạm dụng đó là một tính năng mới với ChatGPT hướng người dùng ở Mỹ đến trang CanIVote.org để cung cấp thông tin chính thức của cơ quan có thẩm quyền chung quanh việc bỏ phiếu.

Những cách mới để xác định hình ảnh do AI tạo ra cũng đang được phát triển, trong đó OpenAI hợp tác với Liên minh Chứng minh và Xác thực Nội dung để đặt biểu tượng lên những hình ảnh giả mạo.

Một ví dụ cụ thể như nội dung deepfake đã được sử dụng nhằm gây ảnh hưởng đến cuộc bầu cử, với âm thanh do AI tạo ra được sử dụng trong quá trình chuẩn bị cho cuộc bầu cử ở Slovakia vào năm ngoái đã làm tổn hại đến một trong các ứng cử viên.

Đảng Lao động Vương quốc Anh cũng là mục tiêu của âm thanh deepfake, với đoạn ghi âm giả của lãnh đạo đảng Keir Starmer nói rằng “Tôi ghét Liverpool” xuất hiện vào tháng 10 năm ngoái.

Một cuộc khảo sát gần đây từ trang so sánh Finder.com cho thấy chỉ 1,5% người dân ở Anh có thể xác định chính xác các video clip deepfake của những người nổi tiếng và các chính trị gia.

 
Bình luận