Omdia dự đoán số lượng đơn vị máy chủ xuất xưởng hàng năm sẽ giảm tới 20% vào cuối năm 2023, mặc dù doanh thu dự kiến sẽ tăng từ 6 đến 8%. Báo cáo cập nhật thị trường trung tâm dữ liệu và đám mây gần đây của công ty minh họa việc định hình lại thị trường trung tâm dữ liệu được thúc đẩy bởi nhu cầu về máy chủ AI. Ngược lại, điều này đang thúc đẩy quá trình chuyển đổi rộng rãi hơn sang mô hình điện toán siêu không đồng nhất.
Omdia đã đặt ra thuật ngữ “điện toán siêu không đồng nhất” để mô tả cấu hình máy chủ được trang bị bộ đồng xử lý được thiết kế đặc biệt để tối ưu hóa các khối lượng công việc khác nhau, cho dù là dành cho đào tạo mô hình AI hay các ứng dụng chuyên biệt khác. Theo Omdia, mô hình DGX của Nvidia, bao gồm 8 GPU H100 hoặc A100, đã nổi lên như máy chủ AI phổ biến nhất cho đến nay và đặc biệt hiệu quả trong việc đào tạo các mô hình chatbot.
Ngoài các sản phẩm của Nvidia, Omdia còn nhấn mạnh các mẫu Inferentia 2 của Amazon là công cụ tăng tốc AI phổ biến. Các máy chủ này được trang bị bộ đồng xử lý tùy chỉnh được thiết kế để tăng tốc khối lượng công việc suy luận AI. Các bộ đồng xử lý khác góp phần vào xu hướng điện toán siêu không đồng nhất bao gồm Đơn vị mã hóa video (VCU) của Google để chuyển mã video và máy chủ xử lý video của Meta, tận dụng Bộ xử lý video có thể mở rộng của công ty.
Trong kịch bản điện toán siêu không đồng nhất mới này, các nhà sản xuất đang tăng số lượng thành phần silicon đắt tiền được lắp đặt trong các mô hình máy chủ của họ. Theo dự báo của Omdia, CPU và bộ đồng xử lý chuyên dụng sẽ chiếm 30% chi tiêu của trung tâm dữ liệu vào năm 2027, tăng từ mức dưới 20% trong thập kỷ trước.
Hiện tại, xử lý phương tiện và AI đang được chú ý ở hầu hết các máy chủ siêu không đồng nhất. Tuy nhiên, Omdia dự đoán rằng các khối lượng công việc phụ trợ khác, chẳng hạn như cơ sở dữ liệu và máy chủ web, sẽ có bộ đồng xử lý riêng trong tương lai. Ổ đĩa thể rắn với lưu trữ tính toán các thành phần có thể được xem như một hình thức tăng tốc trong phần cứng ban đầu cho khối lượng công việc I/O.
Dựa trên dữ liệu của Omdia, Microsoft và Meta hiện dẫn đầu trong số các công ty siêu quy mô trong việc triển khai GPU máy chủ để tăng tốc AI. Cả hai công ty dự kiến sẽ nhận được 150.000 GPU Nvidia H100 vào cuối năm 2023, con số lớn gấp ba lần so với những gì Google, Amazon hoặc Oracle đang triển khai.
Nhu cầu về máy chủ tăng tốc AI từ các công ty đám mây cao đến mức các nhà sản xuất thiết bị gốc như Dell, Lenovo và HPE đang phải đối mặt với sự chậm trễ từ 36 đến 52 tuần trong việc có đủ GPU H100 từ Nvidia để đáp ứng đơn đặt hàng của khách hàng. Omdia lưu ý rằng các trung tâm dữ liệu mạnh mẽ được trang bị bộ đồng xử lý thế hệ tiếp theo cũng đang thúc đẩy nhu cầu về cơ sở hạ tầng năng lượng và làm mát ngày càng tăng.