Tuần này, Microsoft công bố họ đã xây dựng hai con chip “cây nhà lá vườn” sẽ xử lý khối lượng công việc điện toán chung và AI trong đám mây Azure. Thông báo được đưa ra tại hội nghị Ignite 2023 và xác nhận những tin đồn trước đây về sự tồn tại của “Project Athena” – một con chip dựa trên Arm được thiết kế tùy chỉnh nhằm giảm sự phụ thuộc của Microsoft vào phần cứng có sẵn từ các nhà cung cấp như Nvidia, đặc biệt là trong lĩnh vực đào tạo và suy luận trí tuệ nhân tạo.
Con chip đầu tiên có tên là Microsoft Azure Maia 100 AI Accelerator và là kết quả trực tiếp của Dự án Athena. Đúng như cái tên dài dòng của nó, gã khổng lồ Redmond đã thiết kế con chip này đặc biệt để chạy các mẫu ngôn ngữ lớn như GPT-3.5 Turbo và GPT-4. Được xây dựng trên quy trình 5nm của TSMC và có không dưới 105 tỷ bóng bán dẫn, con chip mới hỗ trợ nhiều loại công nghệ khác nhau. Kiểu dữ liệu MXbao gồm các định dạng phụ 8 bit để có thời gian suy luận và huấn luyện mô hình nhanh hơn.
Để tham khảo, H100 AI Superchip của Nvidia có 80 tỷ bóng bán dẫn và Instinct MI300X của AMD có 153 tỷ bóng bán dẫn. Điều đó nói lên rằng, chúng tôi vẫn chưa thấy bất kỳ so sánh trực tiếp nào về hiệu suất giữa Bộ tăng tốc AI Maia 100 và các chip hiện có được hầu hết các công ty xây dựng dịch vụ AI sử dụng. Những gì chúng tôi biết là mỗi đơn vị điện toán Maia 100 có băng thông tổng hợp là 4,8 Terabit nhờ giao thức mạng dựa trên Ethernet tùy chỉnh cho phép mở rộng quy mô và hiệu suất toàn diện tốt hơn.
Cũng đọc: Tạm biệt đồ họa: GPU đã thống trị AI và điện toán như thế nào
Điều đáng chú ý là Microsoft đã phát triển chip Maia 100 bằng cách sử dụng phản hồi rộng rãi từ OpenAI. Hai công ty đã làm việc cùng nhau để tinh chỉnh kiến trúc và thử nghiệm các mô hình GPT. Đối với Microsoft, điều này sẽ giúp tối ưu hóa hiệu quả kiến trúc AI end-to-end của Azure, trong khi OpenAI sẽ có thể đào tạo các mô hình AI mới tốt hơn và rẻ hơn so với những gì hiện có.
Con chip thứ hai được Microsoft giới thiệu tại Ignite có tên là CPU Cobalt 100. Đây là bộ xử lý dựa trên Arm 64 bit, 128 lõi dựa trên Arm Hệ thống con tính toán Neoverse và mang lại những cải tiến về hiệu suất lên tới 40% cho khối lượng công việc điện toán Azure tổng quát hơn khi so sánh với phần cứng thế hệ hiện tại có trong các máy chủ dựa trên Arm thương mại. Các máy chủ dựa trên Cobalt 100 sẽ được sử dụng để cung cấp năng lượng cho các dịch vụ như Microsoft Teams và Windows 365, cùng nhiều dịch vụ khác.
Rani Borkar, người đứng đầu hệ thống cơ sở hạ tầng Azure tại Microsoft, cho biết những nỗ lực sản xuất chip trong nước của công ty được xây dựng dựa trên kinh nghiệm hai thập kỷ về đồng kỹ thuật silicon cho Xbox và Surface. CPU Cobalt 100 mới cho phép công ty kiểm soát hiệu suất và mức tiêu thụ điện năng trên cơ sở từng lõi và giúp xây dựng một ngăn xếp phần cứng đám mây hiệu quả hơn về mặt chi phí.
Phần chi phí của phương trình là đặc biệt quan trọng. Trong trường hợp của Maia 100 AI Accelerator, Microsoft đã phải đưa ra giải pháp làm mát bằng chất lỏng mới và thiết kế giá đỡ mới nhằm cung cấp nhiều không gian hơn cho nguồn điện và cáp mạng. Điều đó nói lên rằng, chi phí sử dụng chip mới vẫn thấp hơn đáng kể so với việc sử dụng phần cứng chuyên dụng của Nvidia hay AMD.
Microsoft dường như quyết tâm tạo ra Copilot “cho mọi người và mọi việc bạn làm” và điều đó được phản ánh qua việc phát hành Copilot cho Windows, GitHub, Dynamics 365, Microsoft Security và Microsoft 365. Công ty vừa đổi tên Bing Chat thành “Microsoft Copilot ,” vì vậy rõ ràng là họ muốn đưa các mô hình AI tiên tiến hơn bao giờ hết vào mọi dịch vụ mà họ cung cấp trong tương lai.
Đào tạo và suy luận AI nhanh chóng trở nên đắt đỏ và việc vận hành một dịch vụ AI là ước lượng đắt gấp mười lần so với một thứ gì đó như công cụ tìm kiếm. Việc tạo ra silicon tùy chỉnh cũng có thể giảm bớt các vấn đề về nguồn cung và giúp Microsoft có được lợi thế cạnh tranh trong bối cảnh đông đảo các nhà cung cấp đám mây AI. Một số như Amazon, Meta và Google cũng có những nỗ lực sản xuất silicon trong nước vì những lý do tương tự, và những công ty như Ampere từng mơ ước trở thành nhà cung cấp chip trung tâm dữ liệu dựa trên Arm chắc chắn sẽ buộc phải thích ứng với những phát triển này nếu muốn tồn tại.
Điều đó nói lên rằng, công ty Redmond cho biết họ sẽ tiếp tục sử dụng phần cứng có sẵn trong tương lai gần, bao gồm cả GPU H200 Tensor Core được Nvidia công bố gần đây. Scott Guthrie, phó chủ tịch điều hành của Microsoft Cloud + AI Group, cho biết điều này sẽ giúp đa dạng hóa chuỗi cung ứng của công ty và mang đến cho khách hàng nhiều lựa chọn về cơ sở hạ tầng hơn.