Grandes empresas de tecnologia estão, supostamente, a deslocar as suas operações de treino de modelos de IA para além das fronteiras nacionais para garantir o acesso a chips Nvidia de alto desempenho. Este movimento estratégico destaca a crescente concorrência por hardware de ponta na corrida para desenvolver sistemas de IA de próxima geração.
A relocação de cargas de trabalho intensivas em computação reflete quão crítica se tornou a infraestrutura de GPU para o avanço da IA. As empresas estão essencialmente a seguir o hardware—configurando instalações de treino onde quer que consigam obter de forma fiável a potência de processamento necessária para o desenvolvimento de modelos em larga escala.
Esta tendência sublinha uma realidade mais ampla: o acesso a chips especializados como os da série H100 e A100 da Nvidia tornou-se um gargalo na inovação em IA. Para o espaço da blockchain e Web3, isso também é importante—muitos projetos de IA descentralizada e protocolos de aprendizado de máquina em cadeia enfrentam desafios de infraestrutura semelhantes ao escalar as suas necessidades computacionais.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
16 gostos
Recompensa
16
3
Republicar
Partilhar
Comentar
0/400
LiquidatedNotStirred
· 23h atrás
As placas de gpu agora realmente se tornaram o novo petróleo, haha, todo mundo está competindo
---
A corrida é para o exterior em busca de placas gráficas... essa é a rotina dos projetos web3, a infraestrutura está muito bombear
---
A nvidia realmente é incrível, prendeu o mundo todo aos chips
---
Os projetos de ai descentralizados agora são como os pobres em poder de computação, sinto pena por um segundo
---
Falando francamente, é uma questão de poder de computação estrangulando, sem um h100, não dá pra brincar.
Ver originalResponder0
FancyResearchLab
· 23h atrás
Mais uma velha história de limitações de hardware, que em resumo significa que está preso no chip e não consegue se mover. Teoricamente, o treinamento distribuído deveria ser viável, mas na prática ainda é necessário se submeter à Nvidia, e agora já se tornou um especialista.
Ver originalResponder0
MetaverseVagabond
· 23h atrás
a monopolização dos chips da nvidia é realmente absurda, as grandes empresas têm que se submeter
---
Em resumo, é uma guerra de poder de computação, quem não conseguir o H100 estará acabado
---
Na área do Web3 a situação é ainda pior, nem conseguem competir com as grandes empresas...
---
Treinamento de instalações transfronteiriças? Parece que a escassez de chips realmente nunca acaba
---
o gpu se tornou o petróleo da nova era, todos têm que olhar para a nvidia
---
Parece que a primavera dos modelos de código aberto pode estar chegando, de qualquer forma, não conseguem competir com o poder de computação das grandes empresas
---
É por isso que os projetos de AI descentralizada são tão difíceis de se estabelecer, a infraestrutura é um gargalo
---
Caramba, gastar tanto dinheiro em instalações no exterior só para comprar chips? Quão absurdo é esse custo
---
Projetos de blockchain são ainda mais embaraçosos, querem usar AI mas não têm dinheiro para comprar chips...
Grandes empresas de tecnologia estão, supostamente, a deslocar as suas operações de treino de modelos de IA para além das fronteiras nacionais para garantir o acesso a chips Nvidia de alto desempenho. Este movimento estratégico destaca a crescente concorrência por hardware de ponta na corrida para desenvolver sistemas de IA de próxima geração.
A relocação de cargas de trabalho intensivas em computação reflete quão crítica se tornou a infraestrutura de GPU para o avanço da IA. As empresas estão essencialmente a seguir o hardware—configurando instalações de treino onde quer que consigam obter de forma fiável a potência de processamento necessária para o desenvolvimento de modelos em larga escala.
Esta tendência sublinha uma realidade mais ampla: o acesso a chips especializados como os da série H100 e A100 da Nvidia tornou-se um gargalo na inovação em IA. Para o espaço da blockchain e Web3, isso também é importante—muitos projetos de IA descentralizada e protocolos de aprendizado de máquina em cadeia enfrentam desafios de infraestrutura semelhantes ao escalar as suas necessidades computacionais.