Tại COMPUTEX 2025, ASUS công bố nền tảng AI POD thế hệ mới được xác thực bởi NVIDIA, mang đến giải pháp hạ tầng AI toàn diện, hiệu suất cao, dễ mở rộng và tối ưu cho triển khai AI tác nhân và LLM quy mô lớn.
Tại triển lãm công nghệ COMPUTEX 2025, ASUS đã giới thiệu những đột phá mới trong lĩnh vực hạ tầng AI với thiết kế AI POD tiên tiến, được phát triển dựa trên kiến trúc tham chiếu đạt chuẩn xác thực từ NVIDIA Enterprise AI Factory. Các giải pháp này có mặt dưới dạng hệ thống được NVIDIA chứng nhận, chạy trên nền tảng Grace Blackwell, HGX và MGX, hỗ trợ cả các trung tâm dữ liệu làm mát bằng khí và chất lỏng. Hướng đến việc tăng tốc triển khai AI tác nhân ở mọi cấp độ, hạ tầng mới của ASUS mang lại khả năng mở rộng vượt trội, hiệu suất tối ưu và hiệu quả nhiệt năng hàng đầu – trở thành lựa chọn lý tưởng cho các doanh nghiệp muốn hiện thực hóa các ứng dụng AI quy mô lớn.

Kiến trúc hợp nhất ASUS AI POD & NVIDIA Enterprise AI Factory
ASUS đã tích hợp thiết kế AI POD của mình vào kiến trúc xác thực từ NVIDIA Enterprise AI Factory, tạo thành một giải pháp toàn diện hỗ trợ triển khai và quản lý AI tác nhân, AI vật lý cũng như các tác vụ HPC tại chỗ dựa trên nền tảng Blackwell. Đây là giải pháp dành riêng cho các trung tâm dữ liệu doanh nghiệp, giúp tăng tốc điện toán, kết nối mạng, lưu trữ và phần mềm – từ đó rút ngắn thời gian triển khai và giảm thiểu rủi ro.
Đối với nhu cầu điện toán AI quy mô lớn, hệ thống ASUS AI POD có thể triển khai tới 576 GPU trong 8 tủ rack sử dụng hệ thống làm mát bằng chất lỏng, hoặc 72 GPU trong một rack với làm mát bằng không khí. Cấu hình này sử dụng NVIDIA GB200/300 NVL72 cùng mạng InfiniBand Quantum hoặc Spectrum-X, mang đến hiệu suất và mật độ điện toán cao kỷ lục, định nghĩa lại tiêu chuẩn cho tính toán suy luận AI hiện đại.
Tủ rack tối ưu cho AI hiện đại: Tăng tốc LLM và các ứng dụng thế hệ mới
ASUS cũng giới thiệu các tủ rack chuẩn MGX với dòng ESC8000, tích hợp hai bộ xử lý Intel® Xeon® 6, GPU RTX PRO 6000 Blackwell Server Edition và SuperNIC NVIDIA ConnectX-8 hỗ trợ băng thông lên đến 800Gb/s. Cùng với nền tảng phần mềm NVIDIA AI Enterprise, hệ thống này cung cấp một giải pháp đồng bộ, mạnh mẽ và dễ mở rộng cho các nhu cầu AI hiện đại.
Ngoài ra, ASUS còn tinh chỉnh kiến trúc HGX dựa trên nền tảng ASUS XA NB3I-E12 (HGX B300) và ESC NB8-E11 (HGX B200), tạo ra các giải pháp tản nhiệt hiệu quả và mật độ GPU tối ưu, lý tưởng cho huấn luyện mô hình ngôn ngữ lớn (LLM), suy luận và tinh chỉnh AI. Cả hai đều hỗ trợ linh hoạt giữa làm mát bằng không khí và chất lỏng, đảm bảo chi phí vận hành thấp nhưng vẫn duy trì hiệu suất cao và độ ổn định dài hạn.

Hạ tầng cho thế hệ AI tác nhân tiếp theo
Với khả năng tích hợp trình diễn AI tác nhân từ NVIDIA, hạ tầng của ASUS hỗ trợ các ứng dụng ra quyết định tự động, học hỏi theo thời gian thực và dễ dàng mở rộng. Là một trong những thương hiệu tiên phong trong lĩnh vực hạ tầng AI toàn cầu, ASUS cung cấp các hệ thống với hiệu năng cao, độ ổn định vượt trội và khả năng triển khai linh hoạt trong các môi trường trung tâm dữ liệu đa dạng.
Các giải pháp lưu trữ và mạng của ASUS như RS501A-E12-RS12U, dòng lưu trữ VS320D, phần mềm SLURM cho lập lịch tài nguyên, quản lý mạng NVIDIA UFM, hệ thống lưu trữ hiệu suất cao WEKA và ASUS ProGuard SAN đều góp phần hoàn thiện hệ sinh thái AI toàn diện. Bên cạnh đó, ASUS còn cung cấp bộ phần mềm quản lý chuyên biệt như ASUS Control Center (Data Center Edition) và nền tảng triển khai AIDC, giúp doanh nghiệp dễ dàng hiện thực hóa các dự án AI từ bước khởi đầu đến vận hành.
Nhờ đạt các cấp xác thực L11/L12, giải pháp của ASUS mang lại sự an tâm cho doanh nghiệp triển khai AI quy mô lớn với sự hỗ trợ kỹ thuật hàng đầu. Với vai trò là đối tác công nghệ tin cậy, ASUS tiếp tục khẳng định vị thế dẫn đầu trong hành trình xây dựng nền tảng cho các nhà máy AI tương lai.


