Vào ngày 13 tháng 6 năm 2023, giá trị thị trường của NVIDIA đã vượt mốc nghìn tỷ đô la, chỉ đứng sau Apple, Microsoft, Alphabet và Amazon, trở thành công ty có vốn hóa thị trường lớn thứ năm tại Hoa Kỳ. Trong quý 2, doanh thu kinh doanh trung tâm dữ liệu của NVIDIA đã vượt 10 tỷ USD, cao hơn doanh thu gộp của Intel và AMD.
Truy cập trang mua hàng:
Tóm tắt sản phẩm dòng Jingdong NVIDIA
Chip GPU đóng một vai trò quan trọng trong cuộc chiến đào tạo mô hình lớn của siêu máy tính và các gã khổng lồ toàn cầu, và NVIDIA, công ty kiểm soát 80% thị phần GPU toàn cầu, đã kiếm được rất nhiều tiền. Tuy nhiên, thị phần
Theo dữ liệu của Tractica, doanh thu thị trường phần cứng AI toàn cầu dự kiến sẽ đạt 234,9 tỷ USD vào năm 2025, trong đó doanh thu GPU chiếm 23,2%.
NVIDIA đã xây dựng được một con hào trong thị trường GPU và CUDA là một phần quan trọng trong đó.
Năm 2006, chính xác là khi AMD mua lại ATI và người Anh. Khi Intel vẫn còn là nhà sản xuất chip lớn nhất thế giới, NVIDIA đã ra mắt CUDA (Compute Unified Device Architecture), một nền tảng điện toán song song và mô hình lập trình được phát triển bởi NVIDIA.
AI master Andrew Ng nhận xét ngắn gọn về tầm quan trọng của CUDA: "Trước khi CUDA xuất hiện, có lẽ trên thế giới chỉ có không quá 100 người có thể lập trình với GPU. Với CUDA, việc sử dụng GPU đã trở thành một điều rất dễ dàng. . ”
Hầu hết những người đề xuất CUDA đều tin rằng hệ sinh thái trình biên dịch hoàn chỉnh của CUDA là chìa khóa thành công của GPU NVIDIA trong lĩnh vực điện toán hiệu năng cao.
Cụ thể, CUDA có ưu điểm là dễ triển khai, giao diện phát triển linh hoạt, thích ứng ngôn ngữ lập trình, các công cụ và thư viện mã hoàn chỉnh, đồng thời tương thích với nhiều hệ điều hành như Windows, Linux và MacOS.
Sự phát triển của CUDA khiến GPU không còn là bộ xử lý đồ họa đơn giản nữa và mục tiêu áp dụng của nó đã thay đổi từ nhà sản xuất trò chơi sang nhà khoa học, kỹ sư hoặc nghệ sĩ.
Với việc lặp lại liên tục, CUDA đã ra mắt một số lượng lớn thư viện tăng tốc trong lĩnh vực AI hoặc học sâu mạng lưới thần kinh, hình thành trạm sinh thái phần mềm và phần cứng của CUDA.
David Rosenthal đã giới thiệu trong Acquired.FM rằng thư viện mã CUDA đã được tối ưu hóa, giúp các nhà phát triển gọi các thư viện này để phát triển chương trình thuận tiện hơn. Do đó, CUDA có nguồn lực cộng đồng khổng lồ và số lượng nhà phát triển đăng ký sẽ tăng lên 4 triệu vào tháng 5 năm 2023.
NVIDIA gần như độc quyền thị trường chip đào tạo với CUDA và có rất ít gã khổng lồ trong ngành có tác động đột phá đến hệ sinh thái CUDA.
NVIDIA đã mở đường cho hệ sinh thái CUDA trong hơn mười năm.
Năm 2007, công nghệ R&D GPU của NVIDIA đã chiếm một vị trí vững chắc. Năm sau, khách hàng lớn của Intel là Apple đã trực tiếp thay thế MacBook bằng GPU kiến trúc NVIDIA Tesla bên cạnh CPU.
Theo báo cáo, tổng vốn đầu tư của Nvidia vào CUDA trong những năm qua đã vượt quá 10 tỷ đô la Mỹ.
Dưới sự cân nhắc thương mại hóa của Huang Renxun, hệ sinh thái CUDA cần đào tạo các nhà phát triển tiềm năng và trở thành một nền tảng công nghệ được các lập trình viên và doanh nghiệp hoan nghênh.
Sau khi ra mắt CUDA vào năm 2006, chiến lược đầu tiên của NVIDIA là nhắm đến "các nhà phát triển phần mềm" và đầu tư mạnh vào việc giúp các nhà phát triển làm quen với việc sử dụng nền tảng CUDA.
Trong những ngày đầu, có một câu nói trong cộng đồng nhà phát triển: CUDA đơn giản hóa việc lập trình ở cả ngôn ngữ lập trình và cấp độ bộ nhớ dùng chung, cho phép sinh viên đại học sử dụng CUDA để viết các chương trình điện toán hiệu năng cao quy mô lớn.
Để mở rộng phạm vi phủ sóng, NVIDIA đã giới thiệu CUDA vào các lớp học đại học và hợp tác với các trường đại học như Đại học Illinois để cải thiện chức năng thư viện. Năm 2010, 250 trường đại học đã mở các khóa giảng dạy CUDA và có hàng nghìn bài báo liên quan. Dựa trên điều này để cải thiện hệ sinh thái, NVIDIA đã thành lập các trung tâm nghiên cứu, trung tâm giảng dạy và chương trình chứng nhận. Đến năm 2015, 800 trường đại học đã phát triển các khóa học phù hợp.
Ở góc độ ngành, NVIDIA đã đầu tư vào chương trình inception (chương trình tăng tốc khởi nghiệp), cho phép các công ty khởi nghiệp sử dụng CUDA để đặt nền móng cho các dự án của mình.
Cho đến nay, hơn 100 công ty khởi nghiệp đã tận dụng CUDA. Ngoài ra, NVIDIA còn có các thư viện phát triển nguồn mở cho các kịch bản phổ biến như Cub và NCCL, đồng thời cung cấp các thư viện cơ bản giúp tối ưu hóa hiệu suất phần mềm trung gian cho các nhà sản xuất sử dụng, một lần nữa mở rộng hệ sinh thái.
Do đó, nhiều nhà phát triển dựa vào CUDA, trong khi nó được ưa chuộng trên thị trường tiêu dùng nhờ khả năng cốt lõi mạnh mẽ.
Vào năm 2012, sau khi ra mắt AlexNet và giành chiến thắng trong cuộc thi ImageNet, CUDA đã được nâng cấp lên phiên bản 5.0, hỗ trợ các thư viện động và con trỏ GPU.
Vào năm 2016, khi OpenAI được thành lập, CUDA8.0 đã hỗ trợ các số dấu phẩy động và lõi tensor có độ chính xác một nửa, đồng thời hệ sinh thái phần mềm đã được các học giả cũng như những người trong ngành biết đến và giới thiệu cho nhau.
Vào cuối năm 2022, việc phát hành ChatGPT sẽ mang AI đến với mọi người. CUDA12.0 hỗ trợ các tính năng kiến trúc NVIDIAHopper và NVIDIAAdaLovelace mới, đồng thời cung cấp các cải tiến mô hình lập trình bổ sung cho tất cả các GPU.
Vào thời điểm sự phổ biến của các mẫu máy lớn đã lan rộng đến nhiều công ty khác nhau, NVIDIA đã tăng cường sự khác biệt hóa của họ trong ngành và trở thành lựa chọn hàng đầu cho những người tham gia thị trường trong giỏ mua sắm.
Cho đến nay, hơn một triệu GPU dựa trên CUDA đã được bán.
Trong số nhiều nhà sản xuất chip GPU, tại sao NVIDIA lại là môi trường phát triển CUDA duy nhất?
Nhìn lại những năm đầu thế kỷ, NVIDIA đã phải cận chiến với 5 gã khổng lồ Microsoft, ATI, AMD và Intel. NVIDIA dần chiếm ưu thế trên thị trường xử lý đồ họa.
Vào tháng 7 năm 2006, AMD mua lại ATI với giá 5,4 tỷ USD, cải tổ lại thị trường chip. Cùng năm đó, nhà khoa học trưởng của Nvidia, David Kirk, đã đề xuất ý tưởng “tổng quát hóa công nghệ GPU” để thoát khỏi nhiệm vụ chính là kết xuất 3D và khám phá các nhiệm vụ tính toán chung.
Ý tưởng này là CUDA. Vào thời điểm đó, chính Nvidia sẵn sàng tiếp nhận công nghệ tốn kém và tốn nhiều công sức này.
Trong số một số công ty sản xuất chip lớn, GPU R&D đã rơi vào thế yếu sau khi đối thủ cũ AMD mua lại ATI và Intel hủy bỏ kế hoạch GPU tự phát triển của mình. NVIDIA đã bỏ xa những gã khổng lồ về công nghệ GPU.
17 năm trước, việc phát triển CUDA là một quyết định quá sớm. Quá trình phát triển CUDA của NVIDIA không hề thuận buồm xuôi gió và Huang Renxun nhấn mạnh rằng “điện toán tăng tốc” chính là tương lai.
NVIDIA và Intel đã cùng nhau phát triển GPU dựa trên CUDA mới vào mùa thu năm 2006, G80GPU. Sự hợp tác giữa hai người không kéo dài lâu và các quyết định nghiên cứu và phát triển của CUDA đòi hỏi Nvidia phải đầu tư rất nhiều tiền trong dài hạn.
Về đặc tính sản phẩm, việc bổ sung mạch logic CUDA vào các sản phẩm phần cứng sẽ dẫn đến yêu cầu tản nhiệt cho chip tăng lên, điều này cũng sẽ làm tăng chi phí và rủi ro xảy ra lỗi.
Đánh giá từ hiệu suất báo cáo tài chính, CUDA cũng là một doanh nghiệp thua lỗ, điều này trở nên rõ ràng hơn trước và sau cuộc khủng hoảng tài chính năm 2008.
Ngay cả trong những thời điểm khó khăn nhất, Huang Renxun vẫn không gián đoạn CUDA cho đến năm 2012 khi Giáo sư Hinton dẫn đầu một nhóm sử dụng GPU thay vì CPU để đào tạo các mô hình AI và tạo ra AlexNet.
Năm 2020, Huang Renxun nhấn mạnh trong một cuộc phỏng vấn với Barron's Weekly: "NVIDIA sẽ thúc đẩy vụ nổ lớn tiếp theo của trí tuệ nhân tạo."
Trong 5 năm qua, để chào đón trí tuệ nhân tạo, NVIDIA đã làm được 3 việc.
Với việc phát hành ChatGPT, giá và lô hàng máy chủ AI đã tăng lên, đồng thời giá chip GPU của Nvidia cũng tăng. Tổng giá của DGXH100 của NVIDIA là 268.495 USD, bao gồm đế 8GPU+4NVSwitch, v.v., với tỷ suất lợi nhuận gộp gần 190.000 USD mỗi chiếc.
Doanh thu tài chính của Nvidia rất ấn tượng. Được biết, tốc độ tăng trưởng kép hàng năm (CAGR) trong ba năm tài chính vừa qua đã đạt 35,2% và doanh thu dự kiến sẽ tăng 51,4% lên 40,8 tỷ USD vào năm 2023.
Năm 2016, AMD ra mắt ROCm, hệ sinh thái GPU dựa trên các dự án nguồn mở, tương tự như hệ thống CUDA của NVIDIA. Tuy nhiên, công nghệ ROCm đang bị tụt lại phía sau và phải đến tháng 4 năm 2023 mới được ra mắt trên nền tảng Windows. Do thời gian vào cuộc muộn nên số lượng nhà phát triển của AMD thấp hơn nhiều so với Nvidia. Trên Github, có hơn 32.600 nhà phát triển đóng góp vào kho gói CUDA, trong khi ROCm có ít hơn 600.
NVIDIA chiếm khoảng 80% thị phần GPU toàn cầu. Xét riêng về doanh số bán hàng thì nó là duy nhất.
Lợi thế thị trường độc quyền của NVIDIA có thể kéo dài được bao lâu?
Để giải quyết vấn đề này, nhà phân tích chính của SemiAnalysis, Dylan Patel, đã đưa ra quan điểm của mình: Khi PyTorch hỗ trợ nhiều nhà sản xuất GPU hơn, cùng với việc Triton của OpenAI phá vỡ tình hình, công cụ sắc bén CUDA của NVIDIA đang dần mất đi lợi thế.
Từ góc độ hệ sinh thái phần mềm, sự thống trị của CUDA thực sự đang bị tấn công từ tất cả các bên.
Trong những năm gần đây, khung phát triển AI PyTorch đã dần vượt qua TensorFlow nhờ tỷ lệ sử dụng chế độ háo hức linh hoạt. Phiên bản PyTorch 2.0 sẽ hỗ trợ và cải tiến GPU và bộ tăng tốc như AMD, Intel, Tesla và Google.
OpenAI trực tiếp ra mắt "phiên bản đơn giản hóa của CUDA: Triton", ít khó vận hành hơn CUDA.
Trong quý đầu tiên của năm 2023, AMD thông báo rằng hệ thống ROCm đã được tích hợp vào khung PyTorch2.0, đồng thời các khung học sâu TensorFlow và Caffe cũng đã tham gia ROCm thế hệ thứ năm. Bộ xử lý tăng tốc trung tâm dữ liệu (APU) AMDMI300 thế hệ tiếp theo được ra mắt vào tháng 6 hoàn toàn tương thích với hệ sinh thái CUDA của NVIDIA về mặt phần mềm và được ngành đánh giá là có cơ hội thách thức vị thế của NVIDIA trong ngành trí tuệ nhân tạo.
Tuy nhiên, từ góc độ sức mạnh tính toán, sản phẩm nâng cấp DGXGH200 của NVIDIA H100 giải quyết được nút thắt chính của AI quy mô lớn và phù hợp với những khách hàng tiềm năng có nguồn vốn dồi dào và yêu cầu hiệu suất cao. Trong ngắn hạn, hệ sinh thái CUDA vẫn ổn định và hầu hết người dùng cần chip đào tạo vẫn sẽ chọn NVIDIA.