Trong ngữ cảnh: Giám đốc điều hành Intel, Pat Gelsinger, đã đưa ra tuyên bố táo bạo rằng ngành này sẽ tốt hơn với suy luận thay vì CUDA của Nvidia vì nó tiết kiệm tài nguyên, thích ứng với việc thay đổi dữ liệu mà không cần đào tạo lại mô hình và vì hào của Nvidia là “nông”. Nhưng liệu anh ấy có đúng không? CUDA hiện là tiêu chuẩn của ngành và có rất ít dấu hiệu bị loại khỏi vị trí của nó.
Intel đã tung ra danh mục sản phẩm AI nhắm vào trung tâm dữ liệu, đám mây, mạng, biên và PC tại sự kiện AI Everywhere ở thành phố New York vào tuần trước. “Intel đang thực hiện sứ mệnh đưa AI đến mọi nơi thông qua các nền tảng được thiết kế đặc biệt, các giải pháp an toàn và hỗ trợ cho hệ sinh thái mở”, Giám đốc điều hành Pat Gelsinger cho biết, đồng thời đề cập đến ngày ra mắt chip di động Intel Core Ultra và CPU Xeon thế hệ thứ 5 dành cho doanh nghiệp.
Các sản phẩm đã được báo chí, nhà đầu tư và khách hàng chú ý nhưng điều khiến họ chú ý hơn cả là Bình luận của Gelsinger về công nghệ CUDA của Nvidia và những gì anh mong đợi cuối cùng nó sẽ chìm vào quên lãng.
“Bạn biết đấy, toàn bộ ngành được thúc đẩy để loại bỏ thị trường CUDA,” Gelsinger nói, trích dẫn MLIR, Google và OpenAI đang chuyển sang “lớp lập trình Python” để giúp việc đào tạo AI cởi mở hơn.
Cuối cùng, Gelsinger cho biết, công nghệ suy luận sẽ quan trọng hơn việc đào tạo AI vì hào CUDA “nông và nhỏ”. Ông tiếp tục: Ngành này muốn có một bộ công nghệ rộng hơn cho đào tạo, đổi mới và khoa học dữ liệu. Các lợi ích bao gồm không phụ thuộc vào CUDA sau khi mô hình đã được đào tạo bằng khả năng suy luận và sau đó tất cả sẽ phụ thuộc vào việc liệu một công ty có thể vận hành tốt mô hình đó hay không.
Cũng đọc: Bối cảnh thị trường chip AI – Hãy chọn trận chiến của bạn một cách cẩn thận
Một lời giải thích không thể chấp nhận được cho nhận xét của Gelsinger có thể là ông đã chê bai các mô hình đào tạo AI vì đó là điểm mà Intel tụt hậu. Thông điệp là suy luận, so với đào tạo mô hình, tiết kiệm tài nguyên hơn nhiều và có thể thích ứng với dữ liệu thay đổi nhanh chóng mà không cần phải đào tạo lại mô hình.
Tuy nhiên, từ nhận xét của ông, rõ ràng Nvidia đã đạt được tiến bộ vượt bậc trong thị trường AI và trở thành đối thủ có thể đánh bại. Tháng trước, công ty đã báo cáo doanh thu trong quý 3 là 18,12 tỷ USD, tăng 206% so với một năm trước và tăng 34% so với quý trước và cho rằng sự gia tăng này là do sự chuyển đổi nền tảng công nghiệp rộng rãi từ mục đích chung sang điện toán tăng tốc và AI tổng hợp, Giám đốc điều hành Jensen Huang cho biết. Ông nói, GPU, CPU, mạng, phần mềm và dịch vụ AI của Nvidia đều đang ở trạng thái “tăng tốc tối đa”.
Liệu những dự đoán của Gelsinger về CUDA có trở thành sự thật hay không vẫn còn phải chờ xem nhưng hiện tại công nghệ này được cho là tiêu chuẩn thị trường.
Trong khi chờ đợi, Intel đang đưa ra các ví dụ về cơ sở khách hàng của mình và cách họ sử dụng suy luận để giải quyết các vấn đề máy tính của họ. Một người là Mor Miller, Phó Giám đốc Phát triển tại Bufferzone (video bên dưới), người giải thích rằng độ trễ, quyền riêng tư và chi phí là một số thách thức mà công ty gặp phải khi chạy các dịch vụ AI trên đám mây. Ông cho biết công ty đã hợp tác với Intel để phát triển một hệ thống suy luận AI mới nhằm giải quyết những lo ngại này.