Escaneie para baixar o app da Gate
qrCode
Mais opções de download
Não me lembre de novo hoje

Aniversário de três anos do ChatGPT: A batalha dos grandes modelos chega ao fim, onde está realmente a verdadeira barreira?

O ChatGPTAI da OpenAI existe há três anos. O verdadeiro campo de batalha mudou para o poder de computação, custo e ecossistemas. O vencedor ou perdedor final pode não ser o modelo em si, mas quem pode fazer da IA um sistema completo que funciona de forma sustentável. (Sinopse: ChatGPT suportará PayPal débito direto em 2026, a última peça do quebra-cabeça do império de comércio eletrônico da Openai) (Suplemento de fundo: o navegador nativo da Openai “ChatGPT Atlas” três funções principais ao mesmo tempo, agentes de IA podem abalar a hegemonia do Chrome? Desde o lançamento do ChatGPT em 30 de novembro de 2022 até exatamente três anos agora, a indústria de tecnologia evoluiu em um ritmo avassalador. Naquela época, todos pensavam que a competição de IA seria uma pura “guerra de modelos”: quem tivesse parâmetros de modelo maiores, dados mais espessos e poder de computação mais violento seria rei neste mercado. No entanto, três anos depois, olhando para trás, percebo que aquelas primeiras imaginações foram, na verdade, simplificadas demais. A verdadeira concorrência nunca é “quem pode fazer o maior modelo”, mas “quem pode transformar o modelo num sistema completo”. Um conjunto de sistemas que podem aterrar, podem ser comercializados, podem suportar custos, podem suportar o consumo de energia de computação e podem sobreviver no fluxo de trabalho da empresa. Nos últimos três anos, a curva tecnológica dos grandes modelos tem sido quase visível a olho nu, mas a comercialização das empresas de IA não acompanhou o ritmo, e até mais lenta do que muitos esperavam. A razão não é que não haja tecnologia suficiente, mas que toda a indústria mudou da proporção de modelos para o campo de batalha de “quem pode suportar a pressão antes do amanhecer”. Poder do modelo, fonte de energia de computação, custo de inferência, expectativas do usuário, essas quatro curvas sobem descontroladamente ao mesmo tempo, como um arco cheio de cordas. E todas as empresas de IA que estão na corda, que podem durar muito tempo, aguentar e suportar o custo, são as verdadeiras vencedoras. Da corrida armamentista paramétrica à corrida pela eficiência No primeiro ano de IA, todos só tinham parâmetros nos olhos. Quanto maior o modelo, mais avançado ele é; Quanto mais caro, mais high-end. O discurso dominante da época chegou a considerar as grandezas de parâmetros como uma espécie de “dignidade”, como se o próprio modelo supergrande pudesse representar liderança tecnológica. Mas depois de 2024, a situação começou a mudar sutilmente. As empresas só percebem após a implantação real que não é mais importante que o modelo não seja grande, o importante é se o modelo pode concluir a tarefa “de forma estável, barata e rápida”. A melhoria da inteligência do próprio modelo já não é tão linear como nos anos anteriores; Em vez disso, o progresso torna-se como um ajuste lento. Quanto maior o modelo, mais impressionante o custo de inferência, maior o limite de implantação e menos disposta a empresa está a pagar. Por outro lado, modelos pequenos que são treinados de forma mais eficiente, compactados e podem ser executados em GPUs comuns se tornarão os produtos de IA mais populares para empresas em 2025. Muitas empresas até começaram a substituir APIs de código fechado internamente por um modelo de código aberto, não porque o código aberto seja mais forte, mas porque o código aberto quebra todas as expectativas em termos de “preço/desempenho”. Requisitos de poder de computação mais baixos, velocidade de iteração mais rápida e métodos de implantação mais flexíveis fizeram muitas empresas que originalmente dependiam de modelos de código fechado começarem a pensar: “Será que realmente precisamos pagar tanto?” “80% da capacidade do modelo de código aberto, mais ajuste interno, não é suficiente?” A competição de modelos passou de uma “corrida pelo poder” para uma “corrida da eficiência”. Não é quem é mais forte, é quem torna as empresas mais acessíveis. GPUs não são mais hardware, são estruturas de energia Se o modelo passou de mito a mercadoria em três anos, as GPUs foram diretamente atualizadas para “bens estratégicos” nesses três anos. O maior medo para as empresas de IA não é que os modelos estejam ficando para trás, mas que não haja GPUs suficientes. À medida que os modelos crescem, as inferências aumentam e as expectativas dos usuários aumentam, todas as empresas de IA estão penduradas de cabeça para baixo na cadeia de suprimentos da NVIDIA. Se você não tem chips suficientes, você não pode treinar um novo modelo; Se o chip não for suficiente, a velocidade de inferência não pode ser melhorada; Se não houver chips suficientes, é impossível expandir a base de usuários; Não há chips suficientes, e mesmo fundos são difíceis de levantar, porque os investidores sabem claramente: sem poder de computação, não há futuro. Isso faz com que a concorrência de IA apresente um estado muito estranho: a tecnologia está claramente avançando, mas o gargalo está no poder, chips e cadeias de suprimentos. Todo o mercado parece estar pisando no acelerador e freando ao mesmo tempo, avançando a uma velocidade sem fôlego, mas qualquer lacuna de chip pode fazer a empresa parar em um instante. Este é o ponto problemático mais realista e de nível mais baixo da indústria de IA: você não está competindo com concorrentes, você está competindo com a cadeia de suprimentos. Os custos de inferência tornaram-se, portanto, a linha de vida ou morte das empresas. Quanto mais forte o modelo, mais cara a inferência, e quanto mais usuários, mais você perde. As empresas de IA tornam-se um modelo de negócio contraintuitivo: quanto mais populares são, mais perdem dinheiro e quanto mais pessoas as utilizam, mais perigosas são. É por isso que o verdadeiro fosso da IA começa a ficar claro aqui. Três anos depois, o mercado finalmente chegou a um consenso quase brutal: as capacidades do modelo em si não são mais o fosso mais importante. Porque os modelos podem ser copiados, comprimidos, ajustados e apanhados pela comunidade de código aberto. Há apenas duas coisas que podem realmente distinguir os vencedores dos perdedores. O primeiro é a “distribuição”: as empresas com entradas ao nível do sistema não precisam do modelo mais forte para dominar o mercado. O Google usa o mecanismo de busca e todo o ecossistema para garantir que o Gemini tenha tráfego estável, e a Microsoft usa o Windows e o Office para tornar o Copilot uma entrada natural para o mundo; A Meta é ainda mais louca, amontoando o modelo de código aberto diretamente no Instagram, WhatsApp, Facebook e dominando diretamente a distribuição. A distribuição é a competitividade mais tradicional e realista do mundo da tecnologia. Se você tem a entrada, você tem o direito de falar, e é por isso que unicórnios como as marcas emergentes Openai, Perplexity e Manus estão atualmente sob pressão crescente. O segundo é “você pode deixar a IA realmente fazer as coisas” A capacidade de bate-papo há muito tempo não é um ponto positivo, e a multimodalidade não é mais rara. O que realmente importa é se o modelo pode chamar ferramentas corretamente, escrever programas, analisar arquivos, conectar APIs, dividir tarefas e se tornar um executor de trabalho real na empresa. No momento em que um modelo evolui para um “agente” que pode concluir processos, tomar decisões e executar tarefas por conta própria, ele é verdadeiramente produtivo. As empresas que podem construir uma cadeia de ferramentas completa se tornarão uma infraestrutura subjacente insubstituível no futuro, assim como as plataformas de nuvem atuais. Três anos depois, o fosso está finalmente claro: não é quem tem o modelo mais forte, mas quem pode transformar a IA num conjunto de sistemas de funcionamento adequado. O padrão futuro do mercado de IA está gradualmente divergindo em três ecossistemas À medida que a lacuna nas capacidades do modelo diminui, a pressão sobre o poder de computação aumenta e o custo se torna o núcleo, as empresas de IA foram silenciosamente divididas em três campos, que existirão no futuro, mas seus destinos são completamente diferentes. O primeiro são os gigantes ao nível das plataformas, que não têm necessariamente os modelos iniciais mais fortes, mas têm vantagens esmagadoras no ecossistema e balas de prata que podem recuperar o atraso mais tarde. Microsoft, Google, Meta e essas empresas têm portais de distribuição global, têm suas próprias nuvens, têm reservas de GPU, têm pipelines de dados e têm produtos integrados. Para eles, os modelos não são produtos, mas “ferramentas ligadas ao ecossistema”. Empresas como OpenAI, Anthropic e Mistral são players de tecnologia pura com recursos de modelos líderes, mas eles não têm sistema operacional, falta de telefones celulares, falta de mecanismos de busca, falta de plataformas sociais e falta de “distribuição”. Não importa quão forte seja seu modelo, eles também precisam estar conectados aos ecossistemas de outras pessoas para alcançar usuários em grande número. Nos próximos três anos…

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
0/400
Sem comentários
  • Em alta na Gate FunVer projetos
  • Cap. de M.:$0.1Holders:1
    0.00%
  • Cap. de M.:$3.34KHolders:1
    0.00%
  • Cap. de M.:$3.4KHolders:2
    0.24%
  • Cap. de M.:$3.39KHolders:2
    0.10%
  • Cap. de M.:$3.38KHolders:2
    0.00%
  • Marcar
Negocie criptomoedas a qualquer hora e em qualquer lugar
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)