Chip trí tuệ nhân tạo (AI) H100 của Nvidia đã đưa công ty trở thành một tập đoàn trị giá ngàn tỷ đô la, có giá trị cao hơn cả Alphabet và Amazon. Nvidia sắp tiếp tục nắm giữ vị thế hàng đầu của mình với bộ xử lý đồ họa (GPU) mới Blackwell B200 và siêu chip GB200.
Hình ảnh của Blackwell B200 GPU. - Ảnh: Nvidia
Nvidia cho biết GPU mới B200 cung cấp lên đến 20 triệu tỉ phép tính/giây với sức mạnh FP4 từ 208 tỷ bóng bán dẫn. GB200 kết hợp hai trong số các GPU B200 với một CPU Grace có thể cung cấp 30 lần hiệu suất cho các công việc khai thác mô hình ngôn ngữ lớn (LLM) có thể tiết kiệm năng lượng đáng kể. Nvidia cho biết GB200 "giảm chi phí và tiêu thụ năng lượng lên đến 25 lần" so với một H100.
Jensen Huang, CEO của Nvidia, giới thiệu GPU mới của hãng tay trái, và chip H100 bên phải - Ảnh: Nvidia
Nvidia tuyên bố rằng việc huấn luyện một mô hình có 1,8 ngàn tỷ tham số trước đây đã mất 8.000 GPU Hopper và 15 megawatt điện năng. CEO của Nvidia cho biết với 2.000 GPU Blackwell có thể thực hiện 1,8 ngàn tỷ tham số chỉ với 4 megawatt điện năng.
Trên bảng đánh giá GPT-3 LLM với 175 tỷ tham số, Nvidia cho biết GB200 có hiệu suất gấp khoảng bảy lần so với một H100, và GB200 cung cấp bốn lần tốc độ huấn luyện.
Hình ảnh của một GB200. Hai GPU, một CPU, một bo mạch. - Ảnh: Nvidia
Nvidia cho biết một trong những cải tiến chính là động cơ biến áp thế hệ thứ hai, tăng gấp đôi sức mạnh tính toán, băng thông và kích thước mô hình bằng cách sử dụng bốn bit cho mỗi neuron thay vì tám. Một sự khác biệt thứ hai chỉ hoạt động khi bạn kết nối các GPU số lượng lớn: một công tắc NVLink thế hệ tiếp theo cho phép 576 GPU kết nối nhau, với 1,8 terabyte mỗi giây băng thông hai chiều.
Theo Nvidia. để tạo ra chip xử lý đồ họa mạnh nhất thế giới, Nvidia phải xây dựng một con chip công tắc mạng mới hoàn toàn, một con chip có 50 tỷ bóng bán dẫn và một số tính toán trên bo mạch của riêng nó: 3,6 ngàn tỷ tham số FP8,
Nvidia cho biết đang thêm cả FP4 và FP6 vào Blackwell. - Ảnh: Nvidia
Trước đây, Nvidia công bố một cụm chỉ có 16 GPU sẽ dành 60% thời gian để giao tiếp với nhau và chỉ có 40% để tính toán thực sự.
Nvidia sẽ mua số lượng lớn GPU của nhiều công ty khác nhau và đang thiết kế đóng gói lại trong các thiết kế chip lớn hơn, như GB200 NVL72, sử dụng 36 CPU và 72 GPU vào một tủ làm mát bằng chất lỏng duy nhất cho tổng cộng 720 ngàn tỷ tham số hiệu suất huấn luyện AI hoặc 1.440 ngàn tỷ tham số suy luận. Bên trong có gần 3,2 km dây cáp, với 5.000 cáp cá nhân.
GB200 NVL72. - Ảnh: Nvidia
Nvidia cho biết một tủ NVL72 chứa hai chip GB200 hoặc sử dụng hai công tắc NVLink, với 18 cái trước và 9 cái phía sau có thể hỗ trợ một mô hình có 27 ngàn tỷ tham số. Với GPT-4 một mô hình có 1,7 ngàn tỷ tham số.
Nvidia cho biết Amazon, Google, Microsoft và Oracle đều đã lên kế hoạch để cung cấp các tủ NVL72 trong các dịch vụ đám mây của họ.
Nvidia tự hào khi cung cấp cho các công ty tập đoàn công nghệ lớn của thế giới các giải pháp chip xử lý dành cho trí tuệ nhân tạo. Hệ thống cung cấp cho các tập đoàn là DGX Superpod, DGX GB200, kết hợp tám hệ thống trong một, tổng cộng 288 CPU, 576 GPU, 240TB bộ nhớ và 11,5 exaflops tính toán FP4.
Nvidia cho biết hệ thống của họ có thể mở rộng đến hàng ngàn GB200 siêu chip, được kết nối với mạng lưới 800Gbps với Quantum-X800 InfiniBand mới của Nvidia (cho 144 kết nối) hoặc ethernet Spectrum-X800 (cho 64 kết nối).
Trong Hội nghị Công nghệ GPU của Nvidia, nội dung được tập trung vào tính toán GPU và AI, không giới thiệu chip xử lý chơi game. Nhưng với kiến trúc GPU Blackwell mạnh mẽ có khả năng Nvidia sẽ tích hợp và phát triển sản phẩm card đồ họa máy tính để bàn RTX 50-series trong tương lai.



