Microsoft đã công bố hai chip tùy chỉnh nhắm vào khối lượng công việc trí tuệ nhân tạo tại hội nghị Ignite thường niên. Bộ tăng tốc AI Microsoft Azure Maia được sử dụng cho các tác vụ trí tuệ nhân tạo và trí tuệ nhân tạo tổng hợp, trong khi Microsoft Azure Cobalt là bộ xử lý ARM cho khối lượng công việc điện toán chung trên đám mây của Microsoft.
Ý tưởng của dự án là tùy chỉnh "mọi thứ từ chip đến dịch vụ" để đáp ứng nhu cầu của trí tuệ nhân tạo hiện đại. Ngoài việc tạo ra các chip bên trong, Microsoft còn đảm bảo mọi thứ khác đều được tối ưu hóa cho khối lượng công việc AI, chẳng hạn như phần mềm, giá đỡ máy chủ và hệ thống làm mát.
Microsoft đang xây dựng cơ sở hạ tầng để hỗ trợ đổi mới trí tuệ nhân tạo và chúng tôi đang mô phỏng lại mọi khía cạnh của trung tâm dữ liệu để đáp ứng nhu cầu của khách hàng. Ở quy mô hoạt động, điều quan trọng là phải tối ưu hóa và tích hợp mọi lớp của cơ sở hạ tầng để tối đa hóa hiệu suất, đa dạng hóa chuỗi cung ứng và cung cấp sự lựa chọn về cơ sở hạ tầng cho khách hàng.
Microsoft cho biết bộ tăng tốc AzurMaia AI được thiết kế cho ngăn xếp phần cứng Azure, đạt được "mức sử dụng phần cứng tối đa tuyệt đối". Đối với Azure Cobalt, đây là chip ARM tiết kiệm năng lượng dành cho các sản phẩm dựa trên nền tảng đám mây với tỷ lệ hiệu suất trên mỗi watt được tối ưu hóa trong trung tâm dữ liệu.
Để chứa các chip mới trong cơ sở hạ tầng trung tâm dữ liệu hiện có, Microsoft đã thiết kế lại giá đỡ máy chủ (bộ xử lý mới yêu cầu bảng mạch rộng hơn) và triển khai giải pháp làm mát bằng chất lỏng. Công ty sẽ triển khai bộ xử lý trí tuệ nhân tạo mới cho các trung tâm dữ liệu vào đầu năm tới, bước đầu cung cấp sức mạnh tính toán cho Microsoft Copilot và Azure Open AI Service.
Ngoài việc tung ra các chip dành riêng cho trí tuệ nhân tạo, Microsoft cũng đang mở rộng hợp tác với các nhà sản xuất khác để mang đến cho khách hàng nhiều sự lựa chọn hơn. Microsoft đã tung ra bản xem trước của một máy ảo mới được hỗ trợ bởi GPU H100 TensorCore của NVIDIA. Ngoài ra, gã khổng lồ phần mềm còn có kế hoạch sử dụng H200TensorCore của Nvidia và MI300X của AMD. Những bổ sung mới này sẽ mang lại hiệu suất, độ tin cậy và hiệu quả cho hoạt động đào tạo từ trung cấp đến cao cấp và AI tổng hợp.