CEO của Nvidia, Huang Renxun, đã tiết lộ trong cuộc phỏng vấn với truyền thông Wccftech qua đêm rằng công ty sẽ ra mắt sản phẩm chip hoàn toàn mới “chưa từng thấy trên thế giới” tại hội nghị GTC năm nay. Phát biểu này đã gây chú ý lớn trên thị trường về lộ trình sản phẩm thế hệ tiếp theo của Nvidia, các phân tích cho rằng sản phẩm mới có thể liên quan đến dòng Rubin hoặc các chip dựa trên kiến trúc Feynman mang tính cách mạng hơn.
Huang Renxun cho biết:
Chúng tôi đã chuẩn bị nhiều loại chip hoàn toàn mới mà chưa từng thấy trên thế giới. Điều này không dễ dàng vì tất cả các công nghệ đều đã gần đạt đến giới hạn vật lý.
Xét đến việc Nvidia vừa trình diễn dòng sản phẩm Vera Rubin AI đã vào giai đoạn sản xuất toàn diện tại CES 2026, bao gồm sáu thiết kế chip mới, thị trường dự đoán rằng tại GTC lần này có thể sẽ ra mắt các công nghệ tiên tiến hơn nữa. Điều này đối với các nhà đầu tư quan tâm sát sao đến cuộc đua hạ tầng AI có nghĩa là Nvidia có thể một lần nữa nâng cao tiêu chuẩn công nghệ ngành.
Lễ phát biểu chính tại GTC của Nvidia sẽ diễn ra vào ngày 15 tháng 3 tại San Jose, California, nơi mà giai đoạn tiếp theo của cuộc đua hạ tầng AI sẽ trở thành chủ đề trung tâm.
Hai hướng khả năng của sản phẩm mới
Theo Wccftech, mặc dù Huang Renxun chưa tiết lộ rõ ràng chi tiết cụ thể về sản phẩm, nhưng dựa trên mô tả “chưa từng thấy”, các phân tích thị trường chỉ ra hai hướng chính.
Hướng thứ nhất là các chip thuộc dòng Rubin hoặc các sản phẩm dérivé của nó, ví dụ như Rubin CPX đã từng bị rò rỉ trước đó. Nvidia vừa ra mắt dòng Vera Rubin AI tại CES 2026, gồm sáu chip đã bước vào giai đoạn sản xuất toàn diện, trong đó có Vera CPU và Rubin GPU.
Hướng thứ hai mang tính đột phá hơn — Nvidia có thể sẽ tiết lộ sớm hơn kiến trúc chip thế hệ tiếp theo dựa trên kiến trúc Feynman. Theo thông tin, Feynman được coi là sản phẩm mang tính “cách mạng”, có thể sử dụng giải pháp tích hợp SRAM rộng rãi hơn, thậm chí tích hợp LPU (đơn vị xử lý ngôn ngữ) qua công nghệ xếp chồng 3D, tuy nhiên, các chi tiết này vẫn chưa được xác nhận chính thức.
Chuyển đổi nhu cầu tính toán thúc đẩy sự tiến hóa của sản phẩm
Môi trường thị trường hiện tại của Nvidia đang thay đổi theo từng quý về nhu cầu tính toán. Phát biểu của Huang phản ánh sự rõ ràng trong định hướng phát triển công nghệ của công ty.
Trong thời kỳ Hopper và Blackwell, nhu cầu chính là huấn luyện trước; còn khi dòng Grace Blackwell Ultra và Vera Rubin ra mắt, khả năng suy luận trở thành trung tâm, với độ trễ và băng thông bộ nhớ là các điểm nghẽn chính. Sự chuyển đổi này ảnh hưởng trực tiếp đến hướng thiết kế sản phẩm của Nvidia.
Với kiến trúc Feynman, dự kiến thị trường sẽ kỳ vọng nó sẽ được tối ưu hóa sâu cho các kịch bản suy luận. Nvidia đang khám phá cách tích hợp SRAM quy mô lớn hơn và có thể là LPU để vượt qua các giới hạn hiệu suất hiện tại, điều này sẽ ảnh hưởng lớn đến các nhà cung cấp dịch vụ đám mây và khách hàng doanh nghiệp phụ thuộc vào khả năng suy luận AI.
Ngoài ra, Huang còn nhấn mạnh tầm quan trọng của các mối quan hệ hợp tác rộng rãi và chiến lược đầu tư. Ông nói: “Nvidia có các đối tác xuất sắc và các công ty khởi nghiệp tuyệt vời, chúng tôi đang đầu tư toàn bộ vào hệ sinh thái AI. AI không chỉ là một mô hình, nó là một ngành công nghiệp hoàn chỉnh bao gồm năng lượng, bán dẫn, trung tâm dữ liệu, đám mây và các ứng dụng xây dựng trên nền tảng đó.” Phát biểu này cho thấy Nvidia đang chuyển đổi từ một nhà cung cấp chip đơn thuần sang nhà xây dựng hệ sinh thái AI. Thông qua các thương vụ mua lại và hợp tác, công ty cố gắng duy trì vị thế dẫn đầu trong cuộc đua hạ tầng AI.
Cảnh báo rủi ro và điều khoản miễn trừ trách nhiệm
Thị trường có rủi ro, đầu tư cần thận trọng. Bài viết này không phải là lời khuyên đầu tư cá nhân, cũng không xem xét các mục tiêu, tình hình tài chính hoặc nhu cầu đặc biệt của từng người dùng. Người đọc cần cân nhắc xem các ý kiến, quan điểm hoặc kết luận trong bài có phù hợp với tình hình của mình hay không. Đầu tư theo đó, chịu trách nhiệm hoàn toàn.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Huang Renxun dự kiến ra mắt sản phẩm chip mới "chưa từng thấy", kiến trúc Feynman thế hệ tiếp theo có thể trở thành tâm điểm
CEO của Nvidia, Huang Renxun, đã tiết lộ trong cuộc phỏng vấn với truyền thông Wccftech qua đêm rằng công ty sẽ ra mắt sản phẩm chip hoàn toàn mới “chưa từng thấy trên thế giới” tại hội nghị GTC năm nay. Phát biểu này đã gây chú ý lớn trên thị trường về lộ trình sản phẩm thế hệ tiếp theo của Nvidia, các phân tích cho rằng sản phẩm mới có thể liên quan đến dòng Rubin hoặc các chip dựa trên kiến trúc Feynman mang tính cách mạng hơn.
Huang Renxun cho biết:
Xét đến việc Nvidia vừa trình diễn dòng sản phẩm Vera Rubin AI đã vào giai đoạn sản xuất toàn diện tại CES 2026, bao gồm sáu thiết kế chip mới, thị trường dự đoán rằng tại GTC lần này có thể sẽ ra mắt các công nghệ tiên tiến hơn nữa. Điều này đối với các nhà đầu tư quan tâm sát sao đến cuộc đua hạ tầng AI có nghĩa là Nvidia có thể một lần nữa nâng cao tiêu chuẩn công nghệ ngành.
Lễ phát biểu chính tại GTC của Nvidia sẽ diễn ra vào ngày 15 tháng 3 tại San Jose, California, nơi mà giai đoạn tiếp theo của cuộc đua hạ tầng AI sẽ trở thành chủ đề trung tâm.
Hai hướng khả năng của sản phẩm mới
Theo Wccftech, mặc dù Huang Renxun chưa tiết lộ rõ ràng chi tiết cụ thể về sản phẩm, nhưng dựa trên mô tả “chưa từng thấy”, các phân tích thị trường chỉ ra hai hướng chính.
Hướng thứ nhất là các chip thuộc dòng Rubin hoặc các sản phẩm dérivé của nó, ví dụ như Rubin CPX đã từng bị rò rỉ trước đó. Nvidia vừa ra mắt dòng Vera Rubin AI tại CES 2026, gồm sáu chip đã bước vào giai đoạn sản xuất toàn diện, trong đó có Vera CPU và Rubin GPU.
Hướng thứ hai mang tính đột phá hơn — Nvidia có thể sẽ tiết lộ sớm hơn kiến trúc chip thế hệ tiếp theo dựa trên kiến trúc Feynman. Theo thông tin, Feynman được coi là sản phẩm mang tính “cách mạng”, có thể sử dụng giải pháp tích hợp SRAM rộng rãi hơn, thậm chí tích hợp LPU (đơn vị xử lý ngôn ngữ) qua công nghệ xếp chồng 3D, tuy nhiên, các chi tiết này vẫn chưa được xác nhận chính thức.
Chuyển đổi nhu cầu tính toán thúc đẩy sự tiến hóa của sản phẩm
Môi trường thị trường hiện tại của Nvidia đang thay đổi theo từng quý về nhu cầu tính toán. Phát biểu của Huang phản ánh sự rõ ràng trong định hướng phát triển công nghệ của công ty.
Trong thời kỳ Hopper và Blackwell, nhu cầu chính là huấn luyện trước; còn khi dòng Grace Blackwell Ultra và Vera Rubin ra mắt, khả năng suy luận trở thành trung tâm, với độ trễ và băng thông bộ nhớ là các điểm nghẽn chính. Sự chuyển đổi này ảnh hưởng trực tiếp đến hướng thiết kế sản phẩm của Nvidia.
Với kiến trúc Feynman, dự kiến thị trường sẽ kỳ vọng nó sẽ được tối ưu hóa sâu cho các kịch bản suy luận. Nvidia đang khám phá cách tích hợp SRAM quy mô lớn hơn và có thể là LPU để vượt qua các giới hạn hiệu suất hiện tại, điều này sẽ ảnh hưởng lớn đến các nhà cung cấp dịch vụ đám mây và khách hàng doanh nghiệp phụ thuộc vào khả năng suy luận AI.
Ngoài ra, Huang còn nhấn mạnh tầm quan trọng của các mối quan hệ hợp tác rộng rãi và chiến lược đầu tư. Ông nói: “Nvidia có các đối tác xuất sắc và các công ty khởi nghiệp tuyệt vời, chúng tôi đang đầu tư toàn bộ vào hệ sinh thái AI. AI không chỉ là một mô hình, nó là một ngành công nghiệp hoàn chỉnh bao gồm năng lượng, bán dẫn, trung tâm dữ liệu, đám mây và các ứng dụng xây dựng trên nền tảng đó.” Phát biểu này cho thấy Nvidia đang chuyển đổi từ một nhà cung cấp chip đơn thuần sang nhà xây dựng hệ sinh thái AI. Thông qua các thương vụ mua lại và hợp tác, công ty cố gắng duy trì vị thế dẫn đầu trong cuộc đua hạ tầng AI.
Cảnh báo rủi ro và điều khoản miễn trừ trách nhiệm
Thị trường có rủi ro, đầu tư cần thận trọng. Bài viết này không phải là lời khuyên đầu tư cá nhân, cũng không xem xét các mục tiêu, tình hình tài chính hoặc nhu cầu đặc biệt của từng người dùng. Người đọc cần cân nhắc xem các ý kiến, quan điểm hoặc kết luận trong bài có phù hợp với tình hình của mình hay không. Đầu tư theo đó, chịu trách nhiệm hoàn toàn.