Quão forte será a iteração inteligente dos grandes modelos nos próximos três anos?
Ao analisar, na verdade, há apenas duas variáveis a impulsionar: o crescimento exponencial do poder de cálculo de hardware, juntamente com a regra de escalonamento dos próprios modelos.
Do lado dos chips, aproximadamente a cada 18 meses a capacidade de cálculo pode quadruplicar — esse é o ritmo reconhecido pela indústria. Do lado dos dados de treinamento, com base na atual lei de escalonamento, os dados de alta qualidade disponíveis atualmente podem suportar cerca de 2-3 ciclos de iteração desse tipo.
Contando assim, até 2029, o nível de inteligência dos grandes modelos será 16 vezes maior do que atualmente. Esse número parece um pouco louco.
Para áreas emergentes como Web3 e infraestrutura de IA, esse aumento de capacidade pode ser a chave para acelerar a implementação de aplicações. Mas ao mesmo tempo, também significa que precisamos pensar mais cedo sobre ética tecnológica e controle de riscos.
O que você acha? Está ansioso por essas possibilidades ou um pouco preocupado?
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
14 Curtidas
Recompensa
14
7
Repostar
Compartilhar
Comentário
0/400
Gm_Gn_Merchant
· 01-05 04:48
Um aumento de 16 vezes parece impressionante, mas como superar o gargalo de dados? Dados de alta qualidade são realmente suficientes?
Ver originalResponder0
SchroedingerMiner
· 01-04 14:08
16x? Caramba, se for verdade, tenho que juntar umas GPUs rapidamente
Ver originalResponder0
AirdropHunter9000
· 01-02 19:28
16x? Estás a brincar, o gargalo de dados já há muito que bloqueou isso, na altura vais ver que sou mais conservador do que pensas haha
Os algoritmos andam a vangloriar-se de 16x todos os dias, e no final, os dados de treino já estão no limite, realmente achas que o texto da internet é infinito?
Web3 tem potencial, se conseguirmos fazer uma distribuição eficiente da inferência do modelo, as possibilidades ainda são grandes
Mas a questão da ética, já falámos disso há tantos anos, quantos é que realmente controlam isso?
Ver originalResponder0
FloorSweeper
· 01-02 12:50
16x? Será que então todos ficaremos desempregados hahaha
Ver originalResponder0
AirdropLicker
· 01-02 12:49
16x? O gargalo de dados é que é o verdadeiro assassino, dados de alta qualidade simplesmente não são suficientes
Ver originalResponder0
SillyWhale
· 01-02 12:38
16x? Estás a brincar, se já usaste todos os dados, como é que vais continuar a iterar?
Modelos de inteligência artificial Modelos grandes
Ver originalResponder0
Ser_Liquidated
· 01-02 12:34
16x? E quanto aos gargalos de dados, não parece ser o caso, hein
Quão forte será a iteração inteligente dos grandes modelos nos próximos três anos?
Ao analisar, na verdade, há apenas duas variáveis a impulsionar: o crescimento exponencial do poder de cálculo de hardware, juntamente com a regra de escalonamento dos próprios modelos.
Do lado dos chips, aproximadamente a cada 18 meses a capacidade de cálculo pode quadruplicar — esse é o ritmo reconhecido pela indústria. Do lado dos dados de treinamento, com base na atual lei de escalonamento, os dados de alta qualidade disponíveis atualmente podem suportar cerca de 2-3 ciclos de iteração desse tipo.
Contando assim, até 2029, o nível de inteligência dos grandes modelos será 16 vezes maior do que atualmente. Esse número parece um pouco louco.
Para áreas emergentes como Web3 e infraestrutura de IA, esse aumento de capacidade pode ser a chave para acelerar a implementação de aplicações. Mas ao mesmo tempo, também significa que precisamos pensar mais cedo sobre ética tecnológica e controle de riscos.
O que você acha? Está ansioso por essas possibilidades ou um pouco preocupado?