Theo các phương tiện truyền thông đưa tin, Kim Jung-ho, một học giả người Hàn Quốc được mệnh danh là "Cha đẻ của HBM (Bộ nhớ băng thông cao)" trong ngành, đã chỉ ra rằng sự thống trị của điện toán AI đang đẩy nhanh quá trình chuyển từ GPU sang bộ nhớ. Khi trí tuệ nhân tạo chuyển từ thời đại sinh sản sang kỷ nguyên tác nhân (Agentic AI), bộ nhớ đang trở thành nút thắt chính hạn chế sự phát triển. Jin Zhenghao tin rằng cốt lõi của sự thay đổi này nằm ở sự phát triển của "kỹ thuật theo ngữ cảnh" và AI cần xử lý các tài liệu, video và dữ liệu đa phương thức khổng lồ cùng một lúc.
Để hỗ trợ xu hướng này, băng thông và dung lượng bộ nhớ cần phải tăng lên tới 1000 lần để đảm bảo tốc độ và độ chính xác khi vận hành hệ thống. Khi kích thước đầu vào tăng từ 100 đến 1000 lần, yêu cầu về bộ nhớ có thể tăng theo cấp số nhân, lên tới hàng triệu lần.
Trong bối cảnh này, Jin Zhenghao đã chỉ ra rằng các sản phẩm HBM hiện tại đạt được băng thông cực cao bằng cách xếp chồng DRAM có thể khó đáp ứng nhu cầu của thời đại thông minh. Ông tập trung vào công nghệ HBF (Bộ nhớ flash băng thông cao, bộ nhớ flash băng thông cao).
Là một giải pháp lưu trữ mới, HBF thay thế DRAM bằng cách xếp chồng bộ nhớ flash NAND để xây dựng một hệ thống lưu trữ dài hạn tương tự như một "giá sách khổng lồ" và đạt được mức dung lượng tăng vọt.
Jin Zhenghao còn tuyên bố thêm rằng cơ cấu quyền lực của ngành AI có thể thay đổi, chuyển từ GPU sang bộ nhớ. Mặc dù kiến trúc điện toán hiện tại vẫn tập trung vào GPU và CPU, nhưng các hệ thống trong tương lai sẽ được xây dựng dựa trên bộ nhớ dung lượng cực lớn (chẳng hạn như HBM và HBF) và bộ xử lý giống một thành phần được nhúng trong đó hơn.
Khái niệm này đã bắt đầu hình thành trong ngành. Vào tháng 2 năm nay, SK Hynix đã đề xuất "kiến trúc H3" trong một bài báo nộp cho Viện Kỹ sư Điện và Điện tử (IEEE), với cấu hình kết hợp giữa HBM và HBF.
Bài viết chỉ ra rằng HBF có băng thông tương đương và dung lượng lớn hơn HBM, nhưng có độ trễ truy cập dài hơn, độ bền ghi kém hơn và mức tiêu thụ điện năng cao hơn. Vì vậy, H3 sử dụng HBF như một “phần mở rộng thứ cấp” của HBM. HBF chịu trách nhiệm lưu trữ dữ liệu chỉ đọc và HBM chịu trách nhiệm về phần còn lại của dữ liệu.
Jin Zhenghao dự đoán rằng các mẫu kỹ thuật HBF dự kiến sẽ xuất hiện vào khoảng năm 2027 và các nhà sản xuất như Google, NVIDIA hoặc AMD có thể bắt đầu áp dụng công nghệ này ngay sau năm 2028. Sự cạnh tranh xung quanh HBF có thể lặp lại mô hình của kỷ nguyên HBM, với Samsung Electronics và SK Hynix dự kiến sẽ đối đầu một lần nữa.
