Sau nhiều năm sản xuất chip có thể được sử dụng cho cả đào tạo và suy luận mô hình trí tuệ nhân tạo, Google đang chia hai nhiệm vụ này thành các bộ xử lý khác nhau, động thái mới nhất của họ nhằm cạnh tranh với Nvidia trong lĩnh vực phần cứng AI. Google đã công bố vào thứ Tư rằng họ sẽ thực hiện thay đổi này đối với bộ xử lý tensor (TPU) thế hệ thứ tám, với cả hai chip sẽ ra mắt vào cuối năm nay.

Amin Wahdat, phó chủ tịch cấp cao kiêm giám đốc công nghệ trí tuệ nhân tạo và cơ sở hạ tầng của Google, cho biết trong một bài đăng trên blog: “Với sự gia tăng của các tác nhân AI, chúng tôi tin rằng việc đào tạo và triển khai tương ứng sẽ mang lại lợi ích cho ngành. ”

Vào tháng 3 năm nay, Nvidia đã quảng cáo sản phẩm chip sắp ra mắt của mình, có thể cho phép các mẫu máy trả lời nhanh chóng các câu hỏi của người dùng với sự trợ giúp của công nghệ có được thông qua việc mua lại công ty khởi nghiệp chip Groq trị giá 20 tỷ USD. Google là một khách hàng lớn của Nvidia nhưng hãng này cũng cung cấp TPU như một giải pháp thay thế cho các công ty sử dụng dịch vụ đám mây của mình.

Hầu hết các công ty công nghệ hàng đầu thế giới đang phát triển chất bán dẫn dành riêng cho trí tuệ nhân tạo để tối đa hóa hiệu quả tính toán và đáp ứng nhu cầu của các tình huống ứng dụng cụ thể. Apple đã phát triển các thành phần AI của công cụ mạng thần kinh của riêng mình vào chip iPhone trong nhiều năm; Microsoft đã phát hành chip AI thế hệ thứ hai vào tháng 1 năm nay; tuần trước, Meta thông báo rằng họ đang hợp tác với Broadcom để phát triển nhiều bộ xử lý AI.

Google là người tiên phong trong xu hướng này. Năm 2015, Google bắt đầu sử dụng chip tự phát triển để chạy các mô hình AI và năm 2018, hãng mở cửa cho khách hàng sử dụng dịch vụ đám mây cho thuê. Amazon Cloud Technology đã ra mắt chip Inferentia để xử lý các yêu cầu AI vào năm 2018 và bộ xử lý Trainium để đào tạo các mô hình AI vào năm 2020.

Các nhà phân tích từ tổ chức đầu tư DADavidson đã ước tính vào tháng 9 năm ngoái rằng hoạt động kinh doanh TPU cộng với nhóm Google DeepMind AI có tổng giá trị khoảng 900 tỷ USD.

Hiện tại chưa có gã khổng lồ công nghệ nào có thể thay thế được NVIDIA. Google thậm chí còn chưa so sánh hiệu năng của chip mới với các sản phẩm của người dẫn đầu chip AI. Tuy nhiên, Google cho biết hiệu năng của chip đào tạo mới gấp 2,8 lần so với Ironwood TPU thế hệ thứ bảy ra mắt vào tháng 11 năm ngoái và giá cả cũng như nhau; hiệu suất của chip suy luận được tăng thêm 80%.

Nvidia cho biết phần cứng Groq3LPU sắp tới của họ sẽ sử dụng một lượng lớn bộ nhớ truy cập ngẫu nhiên tĩnh (SRAM). Nhà sản xuất chip AI Cerebras, đơn đăng ký niêm yết vào đầu tháng này, cũng sử dụng công nghệ này. Chip suy luận mới của Google có tên mã TPU8i cũng được trang bị SRAM. Con chip đơn có 384 MB SRAM tích hợp và dung lượng gấp ba lần so với Ironwood TPU.

Sundar Pichai, Giám đốc điều hành của Alphabet, công ty mẹ của Google, đã viết trên blog rằng kiến ​​trúc chip được thiết kế để "đạt được thông lượng lớn và độ trễ thấp với hiệu quả chi phí cao nhằm đáp ứng nhu cầu vận hành hàng triệu đại lý cùng lúc."

Quy mô ứng dụng của chip AI của Google ngày càng mở rộng. Google tuyên bố rằng Citadel Securities đã xây dựng phần mềm nghiên cứu định lượng dựa trên Google TPU và tất cả 17 phòng thí nghiệm quốc gia của Bộ Năng lượng Hoa Kỳ đều sử dụng phần mềm nhà khoa học hợp tác AI được phát triển dựa trên con chip này; công ty trí tuệ nhân tạo Anthropic cũng đã cam kết sử dụng vài gigawatt sức mạnh tính toán Google TPU.