A aprendizagem de máquina com conhecimento zero (zkML) enfrenta um desafio crítico na aplicação: os dados de entrada muitas vezes causam um aumento significativo na escala da prova, o que afeta diretamente a eficiência e escalabilidade do sistema. Alguns projetos encontraram soluções otimizando o processo de geração de testemunhas — realizando um pré-processamento inteligente antes da geração da prova, reduzindo efetivamente os dados redundantes e, assim, comprimindo consideravelmente o tamanho da prova final. Essa abordagem é de grande importância para melhorar o desempenho das provas de conhecimento zero em aplicações práticas, especialmente em cenários sensíveis ao custo em blockchain.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
9 Curtidas
Recompensa
9
7
Repostar
Compartilhar
Comentário
0/400
NftBankruptcyClub
· 5h atrás
Isto é o caminho certo, finalmente alguém pensou em otimizar essa parte, a redundância de dados é demasiado prejudicial
Ver originalResponder0
FarmToRiches
· 6h atrás
Haha, finalmente alguém está a otimizar este ponto problemático, o volume de prova anterior era realmente um pesadelo
Ver originalResponder0
NotFinancialAdviser
· 6h atrás
Ai, finalmente alguém está a tratar do problema de redundância de dados do zkML, esta coisa tem sido a minha dor de cabeça constante
Ver originalResponder0
LongTermDreamer
· 6h atrás
Ah, não é isso que temos estado à espera na direção da otimização? Há três anos já havia quem dissesse que zkML iria mudar tudo, mas ficou preso neste conceito, e agora finalmente alguém resolveu bem o tratamento de witness. Para ser sincero, ver projetos realmente a trabalhar nesta área de pré-processamento deixa-me bastante entusiasmado, embora as minhas Participações tenham estado a perder imenso este ano... mas esse tipo de quebra de infraestrutura é aquilo que pode reverter a situação em três anos, percebe?
Ver originalResponder0
SellLowExpert
· 6h atrás
Ah, finalmente alguém está otimizando esse ponto problemático, o problema da redundância de dados ficou por muito tempo.
Ver originalResponder0
MerkleDreamer
· 6h atrás
Uau, isso sim é a abordagem de otimização que eu queria ver, o projeto zkML anterior só quebrou porque a proof estava muito pesada.
Ver originalResponder0
LeekCutter
· 6h atrás
Haha, finalmente alguém está pensando nisso, a prova de expansão sempre foi um problema persistente.
A ideia de otimização do witness é realmente incrível, o custo na cadeia deve ser economizado sempre que possível.
Se isso realmente puder ser comprimido, a probabilidade de implementação do zkML aumentou bastante.
Parece simples, mas com certeza haverá muitos desafios na realização.
Quais são os detalhes do pré-processamento, quero ver se há armadilhas.
A aprendizagem de máquina com conhecimento zero (zkML) enfrenta um desafio crítico na aplicação: os dados de entrada muitas vezes causam um aumento significativo na escala da prova, o que afeta diretamente a eficiência e escalabilidade do sistema. Alguns projetos encontraram soluções otimizando o processo de geração de testemunhas — realizando um pré-processamento inteligente antes da geração da prova, reduzindo efetivamente os dados redundantes e, assim, comprimindo consideravelmente o tamanho da prova final. Essa abordagem é de grande importância para melhorar o desempenho das provas de conhecimento zero em aplicações práticas, especialmente em cenários sensíveis ao custo em blockchain.