AI nesta área, na verdade, já mudou silenciosamente a sua lógica de competição. Antes, todos competiam para ver quem tinha o modelo mais grande, mais parâmetros ou gerava mais rápido; mas até hoje, o que realmente faz a diferença não é mais a capacidade, mas sim se se tem coragem de ser confiável.
Isso não é uma narrativa que a própria indústria está criando para si, a atitude do mundo exterior já está bastante clara.
No relatório recente da China Internet, intitulado «Relatório de Tendências Tecnológicas para os Próximos 5 Anos», foi apontada uma tendência direta: o mundo está entrando na era dos agentes de IA inteligentes. E não é aquela IA que apenas conversa, escreve textos ou faz atendimento ao cliente, mas sim uma que entrará em cenários de alta sensibilidade como controle financeiro, aprovação governamental, governança pública, e até começará a participar de decisões reais.
No entanto, o relatório enfatiza repetidamente que, se a IA não for confiável, ela nem mesmo tem o direito de ser integrada nesses sistemas.
A pesquisa do IIT Delhi explica de forma mais direta: estruturas de caixa preta, problemas de alucinação, falta de interpretabilidade, são atualmente as maiores lacunas de confiança na IA. Quanto mais forte o modelo, maior o risco de problemas, e esse risco não é linear, mas amplificado diretamente.
E justamente por essa realidade, você verá um fenômeno bastante fragmentado: de um lado, há uma grande quantidade de “IA + plugins” e “IA + aplicações encapsuladas”, que parecem estar cada vez mais funcionais; do outro, a questão de se a IA pode ou não entrar em cenários centrais ainda depende de confiança, mas quase ninguém está abordando essa questão de forma direta.
E a série de ações recentes da @inference_labs justamente visa resolver esse ponto mais difícil.
Eles lançaram a segunda temporada do TruthTensor, ao mesmo tempo em que renomearam o antigo Subnet-2 para DSperse. A mudança de nome não é o mais importante, o que importa é que a direção ficou muito clara: eles não estão mais apenas “fazendo uma sub-rede”, mas construindo uma infraestrutura descentralizada e verificável de IA.
A ideia central do DSperse não é complexa: não deixar mais que um único modelo, um único nó ou sistema ateste sozinho a “correção”. A geração de provas será feita por múltiplas pessoas, a validação envolverá várias partes, e a confiança não virá de uma autoridade, mas do próprio processo que pode ser revisado, quantificado e rastreado.
Ele executa tanto modelos quanto os audita; não é “você confia em mim”, mas “você pode verificar por si mesmo”.
Mais importante ainda, o DSperse separa completamente “inferência” e “validação”, realizando ambos de forma distribuída. Isso pode não ser eficiente a curto prazo, mas, em termos de segurança do sistema, evita diretamente o problema mais fatal da IA centralizada: se um nó falhar, todo o sistema pode colapsar.
Esse caminho, para ser honesto, é bastante difícil, e até mesmo pouco popular no curto prazo. Mas, se você realmente olhar sob a perspectiva de que a IA deve entrar no mundo real, é quase inevitável.
Na minha opinião, 2026 será um momento muito crucial. Naquela altura, a IA não terá mais falta de capacidade de modelo; o que realmente será escasso serão três coisas: verificabilidade, auditabilidade e uma camada de infraestrutura confiável.
Com o ritmo atual, a Inference Labs escolheu enfrentar a parte mais difícil primeiro. Entre muitos projetos que ainda estão focados em aumentar parâmetros, treinar modelos ou trocar aplicações, o DSperse parece mais um elemento discreto, mas que pode determinar a direção da próxima fase.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
AI nesta área, na verdade, já mudou silenciosamente a sua lógica de competição. Antes, todos competiam para ver quem tinha o modelo mais grande, mais parâmetros ou gerava mais rápido; mas até hoje, o que realmente faz a diferença não é mais a capacidade, mas sim se se tem coragem de ser confiável.
Isso não é uma narrativa que a própria indústria está criando para si, a atitude do mundo exterior já está bastante clara.
No relatório recente da China Internet, intitulado «Relatório de Tendências Tecnológicas para os Próximos 5 Anos», foi apontada uma tendência direta: o mundo está entrando na era dos agentes de IA inteligentes. E não é aquela IA que apenas conversa, escreve textos ou faz atendimento ao cliente, mas sim uma que entrará em cenários de alta sensibilidade como controle financeiro, aprovação governamental, governança pública, e até começará a participar de decisões reais.
No entanto, o relatório enfatiza repetidamente que, se a IA não for confiável, ela nem mesmo tem o direito de ser integrada nesses sistemas.
A pesquisa do IIT Delhi explica de forma mais direta: estruturas de caixa preta, problemas de alucinação, falta de interpretabilidade, são atualmente as maiores lacunas de confiança na IA. Quanto mais forte o modelo, maior o risco de problemas, e esse risco não é linear, mas amplificado diretamente.
E justamente por essa realidade, você verá um fenômeno bastante fragmentado: de um lado, há uma grande quantidade de “IA + plugins” e “IA + aplicações encapsuladas”, que parecem estar cada vez mais funcionais; do outro, a questão de se a IA pode ou não entrar em cenários centrais ainda depende de confiança, mas quase ninguém está abordando essa questão de forma direta.
E a série de ações recentes da @inference_labs justamente visa resolver esse ponto mais difícil.
Eles lançaram a segunda temporada do TruthTensor, ao mesmo tempo em que renomearam o antigo Subnet-2 para DSperse. A mudança de nome não é o mais importante, o que importa é que a direção ficou muito clara: eles não estão mais apenas “fazendo uma sub-rede”, mas construindo uma infraestrutura descentralizada e verificável de IA.
A ideia central do DSperse não é complexa: não deixar mais que um único modelo, um único nó ou sistema ateste sozinho a “correção”. A geração de provas será feita por múltiplas pessoas, a validação envolverá várias partes, e a confiança não virá de uma autoridade, mas do próprio processo que pode ser revisado, quantificado e rastreado.
Ele executa tanto modelos quanto os audita; não é “você confia em mim”, mas “você pode verificar por si mesmo”.
Mais importante ainda, o DSperse separa completamente “inferência” e “validação”, realizando ambos de forma distribuída. Isso pode não ser eficiente a curto prazo, mas, em termos de segurança do sistema, evita diretamente o problema mais fatal da IA centralizada: se um nó falhar, todo o sistema pode colapsar.
Esse caminho, para ser honesto, é bastante difícil, e até mesmo pouco popular no curto prazo. Mas, se você realmente olhar sob a perspectiva de que a IA deve entrar no mundo real, é quase inevitável.
Na minha opinião, 2026 será um momento muito crucial. Naquela altura, a IA não terá mais falta de capacidade de modelo; o que realmente será escasso serão três coisas: verificabilidade, auditabilidade e uma camada de infraestrutura confiável.
Com o ritmo atual, a Inference Labs escolheu enfrentar a parte mais difícil primeiro. Entre muitos projetos que ainda estão focados em aumentar parâmetros, treinar modelos ou trocar aplicações, o DSperse parece mais um elemento discreto, mas que pode determinar a direção da próxima fase.