Geliştirici AI'nın dünya genelinde etkisini sürdürdüğü bu dönemde, bu devrimi yönlendiren ana unsur, yüksek hızlı işlemciye sahip yapay zeka çipleridir. Geçtiğimiz on yılda, NVIDIA, GPU'larıyla AI sanayi devrimini başlattı; bugün Blackwell GPU, en ileri düzey AI eğitimi ve çıkarımına yönelik olarak tasarlandı ve dünya genelindeki veri merkezlerinin standart ekipmanı haline geldi. Geçen yıl, gönderim miktarı 6 milyon adedi aştı. Büyük sunucu raflarında, 72 GPU, NVLink teknolojisi ile tek bir dev GPU gibi işlem birimleri haline getirilebilir. Günümüzde, AI çipleri pazarı artık yalnızca NVIDIA GPU'ların tekelinde değil; özelleştirilmiş ASIC ve FPGA'lar büyük teknoloji şirketleri tarafından kullanılmaya başlandı. Bu AI çipleri arasındaki farklar nelerdir? Gelecekte AI gelişimini nasıl etkileyecek ve hatta NVIDIA'nın tek başına egemenliğini sarsabilir mi? Bu makale CNBC video özetinden derlenmiştir.
GPU:AI altın çağının başlangıcı
GPU, oyun kartlarından AI çekirdeğine yükselerek, 2012'deki AlexNet'e kadar uzanmaktadır. Araştırma ekibi, NVIDIA GPU'nun paralel hesaplama gücünü ilk kez sinir ağı eğitiminde kullanmış ve görüntü tanıma yarışmasında diğer rakiplerin çok önünde başarı elde etmiştir, bu da derin öğrenme çağını başlatmıştır.
GPU'nin temel avantajı, binlerce paralel işleme çekirdeğinden gelmektedir; bu da matris çarpımı gibi tensör hesaplamalarını verimli bir şekilde gerçekleştirebilir ve AI eğitimi ile çıkarımı için idealdir. Günümüzde NVIDIA, yalnızca OpenAI, çeşitli hükümetler ve işletmelere GPU tedarik etmekle kalmıyor, aynı zamanda tam bir sunucu sistemi de geliştiriyor. Tek bir raf üzerindeki Blackwell sunucusunun fiyatı 3 milyon dolara kadar çıkıyor ve NVIDIA, haftada 1000 birim çıkardığını bile açıkladı; bu da AI hesaplama gücüne olan talebin ne kadar çılgın olduğunu gösteriyor. NVIDIA'nın rakibi AMD ise Instinct GPU ve açık kaynak yazılım ekosistemine dayanarak ilerlemesini hızlandırıyor; yakın zamanda OpenAI ve Oracle desteği de alarak AI altyapı pazarında önemli bir itici güç haline geldi. AMD GPU'nun farkı, esas olarak açık kaynak yazılım kullanmasıdır, oysa NVIDIA GPU, CUDA etrafında optimize edilmiştir; CUDA, NVIDIA'nın özel yazılım platformudur.
Tek bir amaç için tasarlanmış ASIC'ler yeni bir trend haline geliyor.
Google, Amazon, Meta, Microsoft'tan OpenAI ve Broadcom'a kadar büyük bulut devleri, özel ASIC (Uygulamaya Özgü Entegre Devre) araştırma ve geliştirmesine yatırım yapıyor. Tek bir amaç için tasarlanan bu çiplerin, önümüzdeki birkaç yıl içinde en hızlı büyüyen AI çip kategorisi haline gelmesi bekleniyor.
Büyük dil modelleri olgunlaşma dönemine girerken, çıkarım talepleri hızla eğitimi geride bırakmaktadır. Çıkarımın maliyeti, enerji tüketimi ve kararlılığı bulut platformlarının acı noktası haline geldi ve bu, ASIC'in ana savaş alanıdır. Çok amaçlı GPU'ların aksine, ASIC tıpkı “özel ultra hassas bir alet” gibidir; tek bir tür AI iş yükü için sert kodlama optimizasyonu yapılır, bu nedenle daha hızlıdır ve enerji tüketimi daha düşüktür. Dezavantajı ise esnekliğinin düşük olması ve geliştirme eşiğinin son derece yüksek olmasıdır; bir özel çipin tasarım maliyeti genellikle on milyonlarca doları bulmaktadır, bu nedenle sadece bulut devleri bunu karşılayabilir.
AI için özel ASIC maliyetleri daha yüksektir. Son derece pahalıdır, en az birkaç bin hatta birkaç yüz milyon dolar gerektirir. Ancak, özel ASIC'leri karşılayamayan büyük bulut hizmeti sağlayıcıları için, özel AS6'lar daha yüksek enerji verimliliği sağladıkları ve Nvidia'ya olan bağımlılığı azalttıkları için getiriler sunabilir.
Broadcom'un ASIC'leri, AI piyasa payına güçlü bir meydan okuma getiriyor.
Broadcom, Marvell ve diğer çip tasarım şirketleri, süper büyük bulut işletmelerinin temel stratejik ortaklarıdır. Google TPU, Meta'nın kendi geliştirdiği hızlandırıcıları ve OpenAI'nin yakında piyasaya süreceği ASIC'ler, Broadcom'un derin katılımıyla geliştirilmiştir. Broadcom, Google'ın TPU'sunu ve Meta'nın AI çıkarım eğitimini inşa etmeye yardımcı olmaktadır, analistler Broadcom'un özelleştirilmiş ASIC pazarındaki pazar payının %70 ile %80 arasında olabileceğini tahmin etmektedir.
FPGA: ASIC ve GPU arasında esnek bir seçenek
FPGA, cihaz tarafında bulut yerine kenar AI'ye destek sağlamak için kullanılan bir çiptir. FPGA'nın en büyük avantajı “yeniden yapılandırılabilir” olmasıdır. Şirketler, donanım henüz kesinleşmemişken mimarileri test etmek istediklerinde, FPGA, GPU'nun çok yönlülüğü ile ASIC'in yüksek performansı arasında bir seçenek sunar. ASIC kadar performanslı olmasa da, esnekliği nedeniyle veri merkezleri ve gömülü cihazlar tarafından hâlâ tercih edilmektedir. AMD (Xilinx'i satın aldı) ve Intel (Altera'yı satın aldı), FPGA pazarının iki büyük oyuncusudur.
Google TPU
Google, ASIC'in ilk büyük oyuncusu olarak, yapay zeka hızlandırma için özelleştirilmiş entegre devreler (ASIC) geliştiren ilk şirket oldu ve 2015 yılında ilk ASIC'i piyasaya sürdüğünde Tensor İşlem Birimi (TPU) terimini yarattı. TPU, Google'ın 2017 yılında Transformer mimarisini icat etmesine de katkıda bulundu ve bu mimari, ChatGPT, Claude gibi AI'ların ortak temelini oluşturdu. Günümüzde Google, 7. nesil TPU Ironwood'a kadar ilerledi ve Anthropologie'ye Claude serisi modelleri eğitmek için yüz binlerce TPU ile yardımcı oldu. Dışarıda, TPU'nun bazı durumlarda NVIDIA'nın GPU'larını aştığı söylentileri dolaşıyor, ancak Google geleneksel olarak sadece kendi kullanımına yönelik olduğu için TPU'nun gerçek potansiyeli henüz tam olarak ortaya çıkmamıştır.
AWS Tranium: Bulut Tümevarım Matris
AWS, Annapurna Labs'ı satın aldıktan sonra kendi AI çiplerine tam olarak yatırım yapmaya başladı. Tranium ve Inferentia, AWS'nin eğitim ve çıkarım platformlarının önemli sütunları haline geldi. Tranium, çok sayıda küçük tensor motorundan oluşuyor, son derece esnek ve AWS'ye göre buluttaki diğer donanımlardan %30 ile %40 daha yüksek maliyet etkinliği sunuyor. 2024 yılında, Anthropic, AWS'nin Kuzey Indiana veri merkezinde 500.000 Tranium 2 kullanarak modelleri eğitiyor, burada tamamen Nvidia GPU olmadan, ASIC'in konumunun yükseldiği görülüyor.
NPU (Sinir Ağı İşlemcisi): Telefon, bilgisayar, araç içi cihazlar için kenar AI çipi
Veri merkezlerinin yanı sıra AI çipleri de kişisel cihazlara uzanıyor. NPU (Sinir Ağı İşlemcisi), bulutta değil, cihaz üzerinde kenar yapay zekâ çalıştırmak için tasarlanmış bir çip olup, kişisel gizliliği koruyabilir. Artık Qualcomm Snapdragon, AMD, Intel ve Apple M serisi SoC'lerde entegre edilmiştir ve telefonlar, dizüstü bilgisayarlar, akıllı evler, otomobiller ve hatta robotlar için kullanılmaktadır. Cihaz tarafındaki AI, daha yüksek gizlilik koruması, daha düşük gecikme ve daha güçlü kontrol sunarak, bir sonraki AI yaygınlaşmasının önemli bir itici gücü olacaktır.
TSMC, çip savaşlarının merkezine yerleşti.
NVIDIA Blackwell, Google TPU veya AWS Tranium olsun, çoğu AI çipi nihayetinde TSMC tarafından üretilmektedir. Bu, AI hesaplama gücü tedarikinin küresel jeopolitikle sıkı bir şekilde bağlantılı hale gelmesine neden olmaktadır. ABD, TSMC'nin Arizona fabrikası ve Intel'in 18A süreçleri aracılığıyla bazı çip üretim yeteneklerini yurda geri çekmeye çalışıyor. Ancak, Huawei ve Alibaba gibi Çinli şirketler de kendi ASIC'lerini aktif olarak geliştirmekte ve ihracat kısıtlamaları altında yerel alternatifler aramaktadır.
Yapay Zeka Çipleri Çağı Geliyor
NVIDIA GPU'nun güçlü hakimiyeti olsun, Google, AWS, Meta, OpenAI gibi şirketlerin ASIC yarışı ve NPU'lar, kenar AI'yı her bir telefon ve araca yönlendiriyor, çip savaşları hala hızla tırmanıyor. NVIDIA'nın konumunu sarsmak kolay olmasa da, AI pazarının büyüklüğü devasa ve yeni oyuncular sürekli olarak içeri giriyor, önümüzdeki on yıl içinde çip haritası kesinlikle daha da şiddetli hale gelecek.
Bu makale, NVIDIA GPU ile Google ve Amazon AWS'nin kendi geliştirdiği AI çipleri arasındaki teknik farklar ve gelecekteki pazar yönelimi hakkında. İlk olarak Chain News ABMedia'da yayımlanmıştır.
View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
NVIDIA GPU ile Google ve Amazon AWS'in kendi geliştirdiği AI çipleri arasındaki teknik farklar ve gelecekteki piyasa yönelimi
Geliştirici AI'nın dünya genelinde etkisini sürdürdüğü bu dönemde, bu devrimi yönlendiren ana unsur, yüksek hızlı işlemciye sahip yapay zeka çipleridir. Geçtiğimiz on yılda, NVIDIA, GPU'larıyla AI sanayi devrimini başlattı; bugün Blackwell GPU, en ileri düzey AI eğitimi ve çıkarımına yönelik olarak tasarlandı ve dünya genelindeki veri merkezlerinin standart ekipmanı haline geldi. Geçen yıl, gönderim miktarı 6 milyon adedi aştı. Büyük sunucu raflarında, 72 GPU, NVLink teknolojisi ile tek bir dev GPU gibi işlem birimleri haline getirilebilir. Günümüzde, AI çipleri pazarı artık yalnızca NVIDIA GPU'ların tekelinde değil; özelleştirilmiş ASIC ve FPGA'lar büyük teknoloji şirketleri tarafından kullanılmaya başlandı. Bu AI çipleri arasındaki farklar nelerdir? Gelecekte AI gelişimini nasıl etkileyecek ve hatta NVIDIA'nın tek başına egemenliğini sarsabilir mi? Bu makale CNBC video özetinden derlenmiştir.
GPU:AI altın çağının başlangıcı
GPU, oyun kartlarından AI çekirdeğine yükselerek, 2012'deki AlexNet'e kadar uzanmaktadır. Araştırma ekibi, NVIDIA GPU'nun paralel hesaplama gücünü ilk kez sinir ağı eğitiminde kullanmış ve görüntü tanıma yarışmasında diğer rakiplerin çok önünde başarı elde etmiştir, bu da derin öğrenme çağını başlatmıştır.
GPU'nin temel avantajı, binlerce paralel işleme çekirdeğinden gelmektedir; bu da matris çarpımı gibi tensör hesaplamalarını verimli bir şekilde gerçekleştirebilir ve AI eğitimi ile çıkarımı için idealdir. Günümüzde NVIDIA, yalnızca OpenAI, çeşitli hükümetler ve işletmelere GPU tedarik etmekle kalmıyor, aynı zamanda tam bir sunucu sistemi de geliştiriyor. Tek bir raf üzerindeki Blackwell sunucusunun fiyatı 3 milyon dolara kadar çıkıyor ve NVIDIA, haftada 1000 birim çıkardığını bile açıkladı; bu da AI hesaplama gücüne olan talebin ne kadar çılgın olduğunu gösteriyor. NVIDIA'nın rakibi AMD ise Instinct GPU ve açık kaynak yazılım ekosistemine dayanarak ilerlemesini hızlandırıyor; yakın zamanda OpenAI ve Oracle desteği de alarak AI altyapı pazarında önemli bir itici güç haline geldi. AMD GPU'nun farkı, esas olarak açık kaynak yazılım kullanmasıdır, oysa NVIDIA GPU, CUDA etrafında optimize edilmiştir; CUDA, NVIDIA'nın özel yazılım platformudur.
Tek bir amaç için tasarlanmış ASIC'ler yeni bir trend haline geliyor.
Google, Amazon, Meta, Microsoft'tan OpenAI ve Broadcom'a kadar büyük bulut devleri, özel ASIC (Uygulamaya Özgü Entegre Devre) araştırma ve geliştirmesine yatırım yapıyor. Tek bir amaç için tasarlanan bu çiplerin, önümüzdeki birkaç yıl içinde en hızlı büyüyen AI çip kategorisi haline gelmesi bekleniyor.
Büyük dil modelleri olgunlaşma dönemine girerken, çıkarım talepleri hızla eğitimi geride bırakmaktadır. Çıkarımın maliyeti, enerji tüketimi ve kararlılığı bulut platformlarının acı noktası haline geldi ve bu, ASIC'in ana savaş alanıdır. Çok amaçlı GPU'ların aksine, ASIC tıpkı “özel ultra hassas bir alet” gibidir; tek bir tür AI iş yükü için sert kodlama optimizasyonu yapılır, bu nedenle daha hızlıdır ve enerji tüketimi daha düşüktür. Dezavantajı ise esnekliğinin düşük olması ve geliştirme eşiğinin son derece yüksek olmasıdır; bir özel çipin tasarım maliyeti genellikle on milyonlarca doları bulmaktadır, bu nedenle sadece bulut devleri bunu karşılayabilir.
AI için özel ASIC maliyetleri daha yüksektir. Son derece pahalıdır, en az birkaç bin hatta birkaç yüz milyon dolar gerektirir. Ancak, özel ASIC'leri karşılayamayan büyük bulut hizmeti sağlayıcıları için, özel AS6'lar daha yüksek enerji verimliliği sağladıkları ve Nvidia'ya olan bağımlılığı azalttıkları için getiriler sunabilir.
Broadcom'un ASIC'leri, AI piyasa payına güçlü bir meydan okuma getiriyor.
Broadcom, Marvell ve diğer çip tasarım şirketleri, süper büyük bulut işletmelerinin temel stratejik ortaklarıdır. Google TPU, Meta'nın kendi geliştirdiği hızlandırıcıları ve OpenAI'nin yakında piyasaya süreceği ASIC'ler, Broadcom'un derin katılımıyla geliştirilmiştir. Broadcom, Google'ın TPU'sunu ve Meta'nın AI çıkarım eğitimini inşa etmeye yardımcı olmaktadır, analistler Broadcom'un özelleştirilmiş ASIC pazarındaki pazar payının %70 ile %80 arasında olabileceğini tahmin etmektedir.
FPGA: ASIC ve GPU arasında esnek bir seçenek
FPGA, cihaz tarafında bulut yerine kenar AI'ye destek sağlamak için kullanılan bir çiptir. FPGA'nın en büyük avantajı “yeniden yapılandırılabilir” olmasıdır. Şirketler, donanım henüz kesinleşmemişken mimarileri test etmek istediklerinde, FPGA, GPU'nun çok yönlülüğü ile ASIC'in yüksek performansı arasında bir seçenek sunar. ASIC kadar performanslı olmasa da, esnekliği nedeniyle veri merkezleri ve gömülü cihazlar tarafından hâlâ tercih edilmektedir. AMD (Xilinx'i satın aldı) ve Intel (Altera'yı satın aldı), FPGA pazarının iki büyük oyuncusudur.
Google TPU
Google, ASIC'in ilk büyük oyuncusu olarak, yapay zeka hızlandırma için özelleştirilmiş entegre devreler (ASIC) geliştiren ilk şirket oldu ve 2015 yılında ilk ASIC'i piyasaya sürdüğünde Tensor İşlem Birimi (TPU) terimini yarattı. TPU, Google'ın 2017 yılında Transformer mimarisini icat etmesine de katkıda bulundu ve bu mimari, ChatGPT, Claude gibi AI'ların ortak temelini oluşturdu. Günümüzde Google, 7. nesil TPU Ironwood'a kadar ilerledi ve Anthropologie'ye Claude serisi modelleri eğitmek için yüz binlerce TPU ile yardımcı oldu. Dışarıda, TPU'nun bazı durumlarda NVIDIA'nın GPU'larını aştığı söylentileri dolaşıyor, ancak Google geleneksel olarak sadece kendi kullanımına yönelik olduğu için TPU'nun gerçek potansiyeli henüz tam olarak ortaya çıkmamıştır.
AWS Tranium: Bulut Tümevarım Matris
AWS, Annapurna Labs'ı satın aldıktan sonra kendi AI çiplerine tam olarak yatırım yapmaya başladı. Tranium ve Inferentia, AWS'nin eğitim ve çıkarım platformlarının önemli sütunları haline geldi. Tranium, çok sayıda küçük tensor motorundan oluşuyor, son derece esnek ve AWS'ye göre buluttaki diğer donanımlardan %30 ile %40 daha yüksek maliyet etkinliği sunuyor. 2024 yılında, Anthropic, AWS'nin Kuzey Indiana veri merkezinde 500.000 Tranium 2 kullanarak modelleri eğitiyor, burada tamamen Nvidia GPU olmadan, ASIC'in konumunun yükseldiği görülüyor.
NPU (Sinir Ağı İşlemcisi): Telefon, bilgisayar, araç içi cihazlar için kenar AI çipi
Veri merkezlerinin yanı sıra AI çipleri de kişisel cihazlara uzanıyor. NPU (Sinir Ağı İşlemcisi), bulutta değil, cihaz üzerinde kenar yapay zekâ çalıştırmak için tasarlanmış bir çip olup, kişisel gizliliği koruyabilir. Artık Qualcomm Snapdragon, AMD, Intel ve Apple M serisi SoC'lerde entegre edilmiştir ve telefonlar, dizüstü bilgisayarlar, akıllı evler, otomobiller ve hatta robotlar için kullanılmaktadır. Cihaz tarafındaki AI, daha yüksek gizlilik koruması, daha düşük gecikme ve daha güçlü kontrol sunarak, bir sonraki AI yaygınlaşmasının önemli bir itici gücü olacaktır.
TSMC, çip savaşlarının merkezine yerleşti.
NVIDIA Blackwell, Google TPU veya AWS Tranium olsun, çoğu AI çipi nihayetinde TSMC tarafından üretilmektedir. Bu, AI hesaplama gücü tedarikinin küresel jeopolitikle sıkı bir şekilde bağlantılı hale gelmesine neden olmaktadır. ABD, TSMC'nin Arizona fabrikası ve Intel'in 18A süreçleri aracılığıyla bazı çip üretim yeteneklerini yurda geri çekmeye çalışıyor. Ancak, Huawei ve Alibaba gibi Çinli şirketler de kendi ASIC'lerini aktif olarak geliştirmekte ve ihracat kısıtlamaları altında yerel alternatifler aramaktadır.
Yapay Zeka Çipleri Çağı Geliyor
NVIDIA GPU'nun güçlü hakimiyeti olsun, Google, AWS, Meta, OpenAI gibi şirketlerin ASIC yarışı ve NPU'lar, kenar AI'yı her bir telefon ve araca yönlendiriyor, çip savaşları hala hızla tırmanıyor. NVIDIA'nın konumunu sarsmak kolay olmasa da, AI pazarının büyüklüğü devasa ve yeni oyuncular sürekli olarak içeri giriyor, önümüzdeki on yıl içinde çip haritası kesinlikle daha da şiddetli hale gelecek.
Bu makale, NVIDIA GPU ile Google ve Amazon AWS'nin kendi geliştirdiği AI çipleri arasındaki teknik farklar ve gelecekteki pazar yönelimi hakkında. İlk olarak Chain News ABMedia'da yayımlanmıştır.