A aprendizagem de máquina com conhecimento zero (zkML) enfrenta um desafio crítico na aplicação: os dados de entrada muitas vezes causam um aumento significativo na escala da prova, o que afeta diretamente a eficiência e escalabilidade do sistema. Alguns projetos encontraram soluções otimizando o processo de geração de testemunhas — realizando um pré-processamento inteligente antes da geração da prova, reduzindo efetivamente os dados redundantes e, assim, comprimindo consideravelmente o tamanho da prova final. Essa abordagem é de grande importância para melhorar o desempenho das provas de conhecimento zero em aplicações práticas, especialmente em cenários sensíveis ao custo em blockchain.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • 7
  • Repostar
  • Compartilhar
Comentário
0/400
NftBankruptcyClubvip
· 5h atrás
Isto é o caminho certo, finalmente alguém pensou em otimizar essa parte, a redundância de dados é demasiado prejudicial
Ver originalResponder0
FarmToRichesvip
· 6h atrás
Haha, finalmente alguém está a otimizar este ponto problemático, o volume de prova anterior era realmente um pesadelo
Ver originalResponder0
NotFinancialAdviservip
· 6h atrás
Ai, finalmente alguém está a tratar do problema de redundância de dados do zkML, esta coisa tem sido a minha dor de cabeça constante
Ver originalResponder0
LongTermDreamervip
· 6h atrás
Ah, não é isso que temos estado à espera na direção da otimização? Há três anos já havia quem dissesse que zkML iria mudar tudo, mas ficou preso neste conceito, e agora finalmente alguém resolveu bem o tratamento de witness. Para ser sincero, ver projetos realmente a trabalhar nesta área de pré-processamento deixa-me bastante entusiasmado, embora as minhas Participações tenham estado a perder imenso este ano... mas esse tipo de quebra de infraestrutura é aquilo que pode reverter a situação em três anos, percebe?
Ver originalResponder0
SellLowExpertvip
· 6h atrás
Ah, finalmente alguém está otimizando esse ponto problemático, o problema da redundância de dados ficou por muito tempo.
Ver originalResponder0
MerkleDreamervip
· 6h atrás
Uau, isso sim é a abordagem de otimização que eu queria ver, o projeto zkML anterior só quebrou porque a proof estava muito pesada.
Ver originalResponder0
LeekCuttervip
· 6h atrás
Haha, finalmente alguém está pensando nisso, a prova de expansão sempre foi um problema persistente. A ideia de otimização do witness é realmente incrível, o custo na cadeia deve ser economizado sempre que possível. Se isso realmente puder ser comprimido, a probabilidade de implementação do zkML aumentou bastante. Parece simples, mas com certeza haverá muitos desafios na realização. Quais são os detalhes do pré-processamento, quero ver se há armadilhas.
Ver originalResponder0
  • Marcar
Negocie criptomoedas a qualquer hora e em qualquer lugar
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)