Trong bối cảnh AI sinh sinh đang lan tỏa toàn cầu, động lực của cuộc cách mạng này là những chip trí tuệ nhân tạo có khả năng tính toán cao. Trong hơn mười năm qua, NVIDIA đã gieo hạt giống của cuộc cách mạng công nghiệp AI bằng GPU, và hiện nay, Blackwell GPU được thiết kế đặc biệt cho việc đào tạo và suy diễn AI tiên tiến nhất, đã trở thành thiết bị tiêu chuẩn trong các trung tâm dữ liệu toàn cầu, với lượng xuất khẩu đạt 6 triệu chiếc trong năm ngoái. Trong một giá đỡ máy chủ lớn, 72 GPU có thể được kết hợp qua công nghệ NVLink thành một đơn vị tính toán giống như một GPU khổng lồ duy nhất. Hiện nay, thị trường chip AI không còn là sân chơi độc quyền của GPU NVIDIA, ASIC tùy chỉnh và FPGA đang được các công ty công nghệ lớn áp dụng, sự khác biệt giữa các chip AI này là gì? Tương lai sẽ ảnh hưởng đến sự phát triển AI như thế nào, và có thể sẽ làm lung lay vị thế độc quyền của NVIDIA?
GPU:Khởi đầu của thời đại vàng AI
GPU đã từ thẻ game nhảy vọt thành lõi AI, có thể truy nguyên đến AlexNet năm 2012. Nhóm nghiên cứu lần đầu tiên sử dụng khả năng tính toán song song của GPU NVIDIA cho việc huấn luyện mạng nơ-ron, thành công vượt xa các đối thủ khác trong cuộc thi nhận diện hình ảnh, đồng thời mở ra kỷ nguyên học sâu.
Lợi thế cốt lõi của GPU đến từ hàng ngàn lõi xử lý song song, có khả năng thực hiện hiệu quả các phép nhân ma trận và các phép toán tensor khác, rất phù hợp cho đào tạo và suy luận AI. Hiện nay, NVIDIA không chỉ cung cấp GPU cho OpenAI, các chính phủ và doanh nghiệp trên toàn thế giới, mà còn trực tiếp xây dựng toàn bộ hệ thống máy chủ. Giá bán của một máy chủ Blackwell trong một khung máy lên tới 3 triệu USD, NVIDIA thậm chí tiết lộ rằng mỗi tuần họ xuất 1000 máy, cho thấy sự khát khao về sức mạnh tính toán AI. Đối thủ cạnh tranh của NVIDIA, AMD, dựa vào GPU Instinct và hệ sinh thái phần mềm mã nguồn mở để thúc đẩy tiến trình, gần đây còn nhận được sự hỗ trợ từ OpenAI và Oracle, trở thành một động lực quan trọng trong thị trường hạ tầng AI. Sự khác biệt của GPU AMD chủ yếu nằm ở việc sử dụng phần mềm mã nguồn mở, trong khi GPU Nvidia tập trung tối ưu hóa xung quanh CUDA, nền tảng phần mềm độc quyền của Nvidia.
ASIC được thiết kế đặc biệt cho một mục đích duy nhất đang trở thành xu hướng mới.
Từ Google, Amazon, Meta, Microsoft, đến OpenAI và Broadcom, các ông lớn về điện toán đám mây đang lần lượt đầu tư vào việc phát triển ASIC tùy chỉnh (mạch tích hợp chuyên dụng cho ứng dụng). Những con chip được thiết kế cho một mục đích duy nhất này dự kiến sẽ trở thành loại chip AI tăng trưởng nhanh nhất trong vài năm tới.
Khi các mô hình ngôn ngữ lớn bước vào giai đoạn trưởng thành, nhu cầu suy luận đang nhanh chóng vượt qua đào tạo. Chi phí, tiêu thụ năng lượng và độ ổn định của suy luận trở thành điểm đau của các nền tảng đám mây, và đây chính là chiến trường chính của ASIC. Khác với GPU đa dụng, ASIC giống như một “công cụ siêu chính xác chuyên dụng”, được tối ưu hóa mã cứng cho một loại tải công việc AI đơn lẻ, do đó nhanh hơn và tiêu thụ năng lượng ít hơn. Nhược điểm là độ linh hoạt kém và ngưỡng phát triển cực kỳ cao, chi phí thiết kế cho một chip tùy chỉnh có thể tiêu tốn hàng tỷ đô la, vì vậy chỉ có các ông lớn đám mây mới có thể chi trả.
Chi phí cho ASIC tùy chỉnh cho AI cao hơn. Cực kỳ đắt đỏ, ít nhất cần hàng nghìn đến hàng triệu đô la. Nhưng đối với những nhà cung cấp dịch vụ đám mây lớn không thể chi trả cho ASIC tùy chỉnh, AS6 tùy chỉnh có thể mang lại lợi ích vì chúng có hiệu suất năng lượng cao hơn và giảm sự phụ thuộc vào Nvidia.
ASIC của Broadcom mạnh mẽ thách thức thị phần AI
Broadcom và các công ty thiết kế chip gia công như Marvell là đối tác chiến lược cốt lõi của các doanh nghiệp đám mây siêu lớn. Google TPU, bộ tăng tốc tự phát triển của Meta, cũng như ASIC sắp ra mắt của OpenAI, đều được Broadcom tham gia sâu sắc. Broadcom giúp xây dựng TPU của Google và đào tạo lý thuyết AI của Meta, các nhà phân tích ước tính thị phần của Broadcom trong thị trường ASIC tùy chỉnh có thể đạt từ 70% đến 80%.
FPGA: Lựa chọn linh hoạt giữa ASIC và GPU
FPGA được sử dụng để hỗ trợ AI biên giới tại thiết bị thay vì trên đám mây. Lợi thế lớn nhất của FPGA là “có thể cấu hình lại”. Khi các doanh nghiệp cần kiểm tra kiến trúc khi phần cứng chưa được quyết định, FPGA cung cấp một lựa chọn ở giữa tính linh hoạt của GPU và hiệu suất cao của ASIC. Mặc dù hiệu suất không bằng ASIC, nhưng tính linh hoạt vẫn khiến nó được các trung tâm dữ liệu và thiết bị nhúng ưa chuộng. AMD (mua lại Xilinx) và Intel (mua lại Altera) là hai lực lượng chính trên thị trường FPGA.
Google TPU
Google là người chơi lớn đầu tiên trong lĩnh vực ASIC, tiên phong chế tạo các mạch tích hợp chuyên dụng tùy chỉnh (ASIC) cho tăng tốc trí tuệ nhân tạo, và khi mẫu ASIC đầu tiên của họ ra mắt vào năm 2015, thuật ngữ Tensor Processing Unit (bộ xử lý tensor, TPU) đã được tạo ra. TPU cũng đã thúc đẩy Google phát minh ra kiến trúc Transformer vào năm 2017, trở thành nền tảng chung cho các AI như ChatGPT, Claude, v.v. Hiện nay, Google đã phát triển đến thế hệ TPU thứ 7, Ironwood, và hỗ trợ Anthropologie sử dụng hàng triệu TPU để đào tạo các mô hình trong series Claude. Có tin đồn rằng TPU trong một số trường hợp thậm chí còn vượt qua GPU của NVIDIA, nhưng Google truyền thống chỉ sử dụng cho mình, vì vậy tiềm năng thực sự của TPU vẫn chưa được khai thác hoàn toàn.
AWS Tranium: Ma trận suy diễn đám mây
AWS đã đầu tư toàn lực vào chip AI của riêng mình sau khi mua lại Annapurna Labs. Tranium và Inferentia đã trở thành trụ cột quan trọng của nền tảng đào tạo và suy luận AWS. Tranium được cấu thành từ nhiều động cơ tensor nhỏ, rất linh hoạt, theo AWS cho biết, nó có tỷ lệ chi phí - hiệu suất cao hơn 30% đến 40% so với phần cứng khác trong đám mây. Năm 2024, Anthropic đã đào tạo mô hình với 500.000 Tranium 2 tại trung tâm dữ liệu AWS Bắc Indiana, trong đó thậm chí không có GPU NVIDIA, cho thấy vị thế của ASIC đang dần gia tăng.
NPU (Bộ xử lý mạng nơ-ron): Chip AI biên giới cho điện thoại, máy tính và thiết bị ô tô
Ngoài trung tâm dữ liệu, chip AI cũng mở rộng đến thiết bị cá nhân. NPU (Bộ xử lý mạng nơ-ron) là chip được thiết kế đặc biệt để chạy trí tuệ nhân tạo biên trên thiết bị, thay vì chạy trên đám mây, đảm bảo quyền riêng tư cá nhân. Hiện đã được tích hợp trong dòng SoC Snapdragon của Qualcomm, AMD, Intel và dòng M của Apple, được sử dụng cho điện thoại di động, máy tính xách tay, nhà thông minh, ô tô và thậm chí là robot. AI ở thiết bị sẽ mang lại sự bảo vệ quyền riêng tư cao hơn, độ trễ thấp hơn và khả năng kiểm soát mạnh mẽ hơn, là động lực quan trọng cho làn sóng phổ cập AI tiếp theo.
TSMC trở thành trung tâm của cuộc chiến giành chip
Dù là chip AI của Nvidia Blackwell, Google TPU hay AWS Tranium, hầu hết các chip AI cuối cùng đều được TSMC gia công. Điều này khiến việc cung cấp sức mạnh AI gắn chặt với địa chính trị toàn cầu. Hoa Kỳ đang cố gắng kéo một phần năng lực sản xuất chip trở lại quê hương thông qua nhà máy TSMC ở Arizona và quy trình 18A của Intel. Tuy nhiên, các doanh nghiệp Trung Quốc như Huawei, Alibaba cũng đang tích cực phát triển ASIC riêng, tìm kiếm giải pháp thay thế trong nước dưới sự kiểm soát xuất khẩu.
Thời đại của các chip AI đã đến
Dù là sự thống trị mạnh mẽ của GPU Nvidia, hay các công ty như Google, AWS, Meta, OpenAI đang đẩy mạnh AI biên đến từng chiếc điện thoại và ô tô với đường đua ASIC và NPU, cuộc chiến chip vẫn đang gia tăng. Mặc dù không dễ để làm lung lay vị trí của Nvidia, nhưng quy mô thị trường AI rất lớn, những người chơi mới không ngừng xuất hiện, và bản đồ chip trong mười năm tới chắc chắn sẽ trở nên khốc liệt hơn.
Bài viết này về sự khác biệt công nghệ giữa GPU của Nvidia và chip AI tự sản xuất của Google, Amazon AWS cùng với xu hướng thị trường trong tương lai đã xuất hiện lần đầu trên Chain News ABMedia.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Sự khác biệt về công nghệ giữa GPU của Nvidia và các chip AI tự phát triển của Google, Amazon AWS cũng như xu hướng thị trường trong tương lai.
Trong bối cảnh AI sinh sinh đang lan tỏa toàn cầu, động lực của cuộc cách mạng này là những chip trí tuệ nhân tạo có khả năng tính toán cao. Trong hơn mười năm qua, NVIDIA đã gieo hạt giống của cuộc cách mạng công nghiệp AI bằng GPU, và hiện nay, Blackwell GPU được thiết kế đặc biệt cho việc đào tạo và suy diễn AI tiên tiến nhất, đã trở thành thiết bị tiêu chuẩn trong các trung tâm dữ liệu toàn cầu, với lượng xuất khẩu đạt 6 triệu chiếc trong năm ngoái. Trong một giá đỡ máy chủ lớn, 72 GPU có thể được kết hợp qua công nghệ NVLink thành một đơn vị tính toán giống như một GPU khổng lồ duy nhất. Hiện nay, thị trường chip AI không còn là sân chơi độc quyền của GPU NVIDIA, ASIC tùy chỉnh và FPGA đang được các công ty công nghệ lớn áp dụng, sự khác biệt giữa các chip AI này là gì? Tương lai sẽ ảnh hưởng đến sự phát triển AI như thế nào, và có thể sẽ làm lung lay vị thế độc quyền của NVIDIA?
GPU:Khởi đầu của thời đại vàng AI
GPU đã từ thẻ game nhảy vọt thành lõi AI, có thể truy nguyên đến AlexNet năm 2012. Nhóm nghiên cứu lần đầu tiên sử dụng khả năng tính toán song song của GPU NVIDIA cho việc huấn luyện mạng nơ-ron, thành công vượt xa các đối thủ khác trong cuộc thi nhận diện hình ảnh, đồng thời mở ra kỷ nguyên học sâu.
Lợi thế cốt lõi của GPU đến từ hàng ngàn lõi xử lý song song, có khả năng thực hiện hiệu quả các phép nhân ma trận và các phép toán tensor khác, rất phù hợp cho đào tạo và suy luận AI. Hiện nay, NVIDIA không chỉ cung cấp GPU cho OpenAI, các chính phủ và doanh nghiệp trên toàn thế giới, mà còn trực tiếp xây dựng toàn bộ hệ thống máy chủ. Giá bán của một máy chủ Blackwell trong một khung máy lên tới 3 triệu USD, NVIDIA thậm chí tiết lộ rằng mỗi tuần họ xuất 1000 máy, cho thấy sự khát khao về sức mạnh tính toán AI. Đối thủ cạnh tranh của NVIDIA, AMD, dựa vào GPU Instinct và hệ sinh thái phần mềm mã nguồn mở để thúc đẩy tiến trình, gần đây còn nhận được sự hỗ trợ từ OpenAI và Oracle, trở thành một động lực quan trọng trong thị trường hạ tầng AI. Sự khác biệt của GPU AMD chủ yếu nằm ở việc sử dụng phần mềm mã nguồn mở, trong khi GPU Nvidia tập trung tối ưu hóa xung quanh CUDA, nền tảng phần mềm độc quyền của Nvidia.
ASIC được thiết kế đặc biệt cho một mục đích duy nhất đang trở thành xu hướng mới.
Từ Google, Amazon, Meta, Microsoft, đến OpenAI và Broadcom, các ông lớn về điện toán đám mây đang lần lượt đầu tư vào việc phát triển ASIC tùy chỉnh (mạch tích hợp chuyên dụng cho ứng dụng). Những con chip được thiết kế cho một mục đích duy nhất này dự kiến sẽ trở thành loại chip AI tăng trưởng nhanh nhất trong vài năm tới.
Khi các mô hình ngôn ngữ lớn bước vào giai đoạn trưởng thành, nhu cầu suy luận đang nhanh chóng vượt qua đào tạo. Chi phí, tiêu thụ năng lượng và độ ổn định của suy luận trở thành điểm đau của các nền tảng đám mây, và đây chính là chiến trường chính của ASIC. Khác với GPU đa dụng, ASIC giống như một “công cụ siêu chính xác chuyên dụng”, được tối ưu hóa mã cứng cho một loại tải công việc AI đơn lẻ, do đó nhanh hơn và tiêu thụ năng lượng ít hơn. Nhược điểm là độ linh hoạt kém và ngưỡng phát triển cực kỳ cao, chi phí thiết kế cho một chip tùy chỉnh có thể tiêu tốn hàng tỷ đô la, vì vậy chỉ có các ông lớn đám mây mới có thể chi trả.
Chi phí cho ASIC tùy chỉnh cho AI cao hơn. Cực kỳ đắt đỏ, ít nhất cần hàng nghìn đến hàng triệu đô la. Nhưng đối với những nhà cung cấp dịch vụ đám mây lớn không thể chi trả cho ASIC tùy chỉnh, AS6 tùy chỉnh có thể mang lại lợi ích vì chúng có hiệu suất năng lượng cao hơn và giảm sự phụ thuộc vào Nvidia.
ASIC của Broadcom mạnh mẽ thách thức thị phần AI
Broadcom và các công ty thiết kế chip gia công như Marvell là đối tác chiến lược cốt lõi của các doanh nghiệp đám mây siêu lớn. Google TPU, bộ tăng tốc tự phát triển của Meta, cũng như ASIC sắp ra mắt của OpenAI, đều được Broadcom tham gia sâu sắc. Broadcom giúp xây dựng TPU của Google và đào tạo lý thuyết AI của Meta, các nhà phân tích ước tính thị phần của Broadcom trong thị trường ASIC tùy chỉnh có thể đạt từ 70% đến 80%.
FPGA: Lựa chọn linh hoạt giữa ASIC và GPU
FPGA được sử dụng để hỗ trợ AI biên giới tại thiết bị thay vì trên đám mây. Lợi thế lớn nhất của FPGA là “có thể cấu hình lại”. Khi các doanh nghiệp cần kiểm tra kiến trúc khi phần cứng chưa được quyết định, FPGA cung cấp một lựa chọn ở giữa tính linh hoạt của GPU và hiệu suất cao của ASIC. Mặc dù hiệu suất không bằng ASIC, nhưng tính linh hoạt vẫn khiến nó được các trung tâm dữ liệu và thiết bị nhúng ưa chuộng. AMD (mua lại Xilinx) và Intel (mua lại Altera) là hai lực lượng chính trên thị trường FPGA.
Google TPU
Google là người chơi lớn đầu tiên trong lĩnh vực ASIC, tiên phong chế tạo các mạch tích hợp chuyên dụng tùy chỉnh (ASIC) cho tăng tốc trí tuệ nhân tạo, và khi mẫu ASIC đầu tiên của họ ra mắt vào năm 2015, thuật ngữ Tensor Processing Unit (bộ xử lý tensor, TPU) đã được tạo ra. TPU cũng đã thúc đẩy Google phát minh ra kiến trúc Transformer vào năm 2017, trở thành nền tảng chung cho các AI như ChatGPT, Claude, v.v. Hiện nay, Google đã phát triển đến thế hệ TPU thứ 7, Ironwood, và hỗ trợ Anthropologie sử dụng hàng triệu TPU để đào tạo các mô hình trong series Claude. Có tin đồn rằng TPU trong một số trường hợp thậm chí còn vượt qua GPU của NVIDIA, nhưng Google truyền thống chỉ sử dụng cho mình, vì vậy tiềm năng thực sự của TPU vẫn chưa được khai thác hoàn toàn.
AWS Tranium: Ma trận suy diễn đám mây
AWS đã đầu tư toàn lực vào chip AI của riêng mình sau khi mua lại Annapurna Labs. Tranium và Inferentia đã trở thành trụ cột quan trọng của nền tảng đào tạo và suy luận AWS. Tranium được cấu thành từ nhiều động cơ tensor nhỏ, rất linh hoạt, theo AWS cho biết, nó có tỷ lệ chi phí - hiệu suất cao hơn 30% đến 40% so với phần cứng khác trong đám mây. Năm 2024, Anthropic đã đào tạo mô hình với 500.000 Tranium 2 tại trung tâm dữ liệu AWS Bắc Indiana, trong đó thậm chí không có GPU NVIDIA, cho thấy vị thế của ASIC đang dần gia tăng.
NPU (Bộ xử lý mạng nơ-ron): Chip AI biên giới cho điện thoại, máy tính và thiết bị ô tô
Ngoài trung tâm dữ liệu, chip AI cũng mở rộng đến thiết bị cá nhân. NPU (Bộ xử lý mạng nơ-ron) là chip được thiết kế đặc biệt để chạy trí tuệ nhân tạo biên trên thiết bị, thay vì chạy trên đám mây, đảm bảo quyền riêng tư cá nhân. Hiện đã được tích hợp trong dòng SoC Snapdragon của Qualcomm, AMD, Intel và dòng M của Apple, được sử dụng cho điện thoại di động, máy tính xách tay, nhà thông minh, ô tô và thậm chí là robot. AI ở thiết bị sẽ mang lại sự bảo vệ quyền riêng tư cao hơn, độ trễ thấp hơn và khả năng kiểm soát mạnh mẽ hơn, là động lực quan trọng cho làn sóng phổ cập AI tiếp theo.
TSMC trở thành trung tâm của cuộc chiến giành chip
Dù là chip AI của Nvidia Blackwell, Google TPU hay AWS Tranium, hầu hết các chip AI cuối cùng đều được TSMC gia công. Điều này khiến việc cung cấp sức mạnh AI gắn chặt với địa chính trị toàn cầu. Hoa Kỳ đang cố gắng kéo một phần năng lực sản xuất chip trở lại quê hương thông qua nhà máy TSMC ở Arizona và quy trình 18A của Intel. Tuy nhiên, các doanh nghiệp Trung Quốc như Huawei, Alibaba cũng đang tích cực phát triển ASIC riêng, tìm kiếm giải pháp thay thế trong nước dưới sự kiểm soát xuất khẩu.
Thời đại của các chip AI đã đến
Dù là sự thống trị mạnh mẽ của GPU Nvidia, hay các công ty như Google, AWS, Meta, OpenAI đang đẩy mạnh AI biên đến từng chiếc điện thoại và ô tô với đường đua ASIC và NPU, cuộc chiến chip vẫn đang gia tăng. Mặc dù không dễ để làm lung lay vị trí của Nvidia, nhưng quy mô thị trường AI rất lớn, những người chơi mới không ngừng xuất hiện, và bản đồ chip trong mười năm tới chắc chắn sẽ trở nên khốc liệt hơn.
Bài viết này về sự khác biệt công nghệ giữa GPU của Nvidia và chip AI tự sản xuất của Google, Amazon AWS cùng với xu hướng thị trường trong tương lai đã xuất hiện lần đầu trên Chain News ABMedia.