AI đang ngày càng trở thành một mối nguy hiểm cho môi trường, từ các GPU ngốn điện dùng để đào tạo các mô hình cho đến các trung tâm dữ liệu mới tiêu thụ lượng điện và nước khổng lồ.
Đế chế trung tâm dữ liệu của Amazon ở phía bắc Virginia sử dụng nhiều điện hơn toàn bộ lưới điện vận hành thành phố Seattle của công ty. Các trung tâm dữ liệu của Google tiêu thụ 5,2 tỷ gallon nước vào năm 2022, tăng 20% so với một năm trước đó. Mô hình Llama 2 của Meta cũng đang khát nước.
Những người chơi chính trong cuộc đua về AI cho biết họ đang bù đắp gánh nặng môi trường ngày càng tăng này bằng các chương trình như cam kết của Microsoft về việc các trung tâm dữ liệu ở Arizona của họ sẽ không sử dụng nước trong hơn nửa năm.
Hoặc, Google, gần đây đã công bố hợp tác với gã khổng lồ chip AI Nvidia và đặt mục tiêu bổ sung 120% lượng nước ngọt mà văn phòng và trung tâm dữ liệu của họ sử dụng vào năm 2030.
Theo Adrienne Russell, đồng giám đốc Trung tâm Báo chí, Truyền thông và Dân chủ tại Đại học Washington, những nỗ lực này có thể chủ yếu là hoạt động tiếp thị thông minh.
Cô nói với Insider: “Ngành công nghệ đã có nỗ lực lâu dài và phối hợp nhằm làm cho sự đổi mới kỹ thuật số có vẻ tương thích với tính bền vững nhưng thực tế không phải vậy”.
Cô trích dẫn sự chuyển đổi sang điện toán đám mây cũng như cách các sản phẩm của Apple được tiếp thị và trình bày như những ví dụ trong đó các công ty công nghệ tìm cách gắn kết với phản văn hóa, tự do, đổi mới kỹ thuật số và tính bền vững. Vòng quay tiếp thị này đã được sử dụng để giới thiệu AI dưới góc độ môi trường tốt hơn.
Trong báo cáo thu nhập quý hai của Nvidia vào tháng 8, Giám đốc điều hành Jensen Huang đã trình bày “điện toán tăng tốc” do AI dẫn đầu (những gì công ty ông bán) là tiết kiệm chi phí và năng lượng, so với “điện toán có mục đích chung” mà ông cho là tương đối kém hơn đối với môi trường và đắt hơn.
Dữ liệu cho thấy điều ngược lại là đúng. Một báo cáo nghiên cứu gần đây của Cowen ước tính rằng các trung tâm dữ liệu AI có thể cần công suất gấp 5 lần so với các cơ sở truyền thống.
GPU, thường do Nvidia cung cấp, mỗi GPU tiêu thụ điện năng lên tới khoảng 400 watt, do đó một máy chủ AI có thể tiêu thụ 2 kilowatt. Theo Shaolei Ren , nhà nghiên cứu tại UC Riverside, người đã nghiên cứu cách các mô hình AI hiện đại sử dụng tài nguyên, trong khi một máy chủ đám mây thông thường sử dụng 300 đến 500 watt.
Động lực xung quanh AI và dấu ấn môi trường của nó có thể sẽ tăng lên khi các công ty tìm cách đưa các mô hình ngôn ngữ lớn vào nhiều hoạt động của họ hơn.




