A aprendizagem de máquina com conhecimento zero (zkML) enfrenta um desafio crítico na aplicação: os dados de entrada muitas vezes causam um aumento significativo na escala da prova, o que afeta diretamente a eficiência e escalabilidade do sistema. Alguns projetos encontraram soluções otimizando o processo de geração de testemunhas — realizando um pré-processamento inteligente antes da geração da prova, reduzindo efetivamente os dados redundantes e, assim, comprimindo consideravelmente o tamanho da prova final. Essa abordagem é de grande importância para melhorar o desempenho das provas de conhecimento zero em aplicações práticas, especialmente em cenários sensíveis ao custo em blockchain.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • 8
  • Republicar
  • Partilhar
Comentar
0/400
SchrodingerAirdropvip
· 8h atrás
Caramba, esta é realmente uma solução com ideias, não apenas uma acumulação de técnicas para mostrar músculos
Ver originalResponder0
NftBankruptcyClubvip
· 15h atrás
Isto é o caminho certo, finalmente alguém pensou em otimizar essa parte, a redundância de dados é demasiado prejudicial
Ver originalResponder0
FarmToRichesvip
· 16h atrás
Haha, finalmente alguém está a otimizar este ponto problemático, o volume de prova anterior era realmente um pesadelo
Ver originalResponder0
NotFinancialAdviservip
· 16h atrás
Ai, finalmente alguém está a tratar do problema de redundância de dados do zkML, esta coisa tem sido a minha dor de cabeça constante
Ver originalResponder0
LongTermDreamervip
· 16h atrás
Ah, não é isso que temos estado à espera na direção da otimização? Há três anos já havia quem dissesse que zkML iria mudar tudo, mas ficou preso neste conceito, e agora finalmente alguém resolveu bem o tratamento de witness. Para ser sincero, ver projetos realmente a trabalhar nesta área de pré-processamento deixa-me bastante entusiasmado, embora as minhas Participações tenham estado a perder imenso este ano... mas esse tipo de quebra de infraestrutura é aquilo que pode reverter a situação em três anos, percebe?
Ver originalResponder0
SellLowExpertvip
· 16h atrás
Ah, finalmente alguém está otimizando esse ponto problemático, o problema da redundância de dados ficou por muito tempo.
Ver originalResponder0
MerkleDreamervip
· 16h atrás
Uau, isso sim é a abordagem de otimização que eu queria ver, o projeto zkML anterior só quebrou porque a proof estava muito pesada.
Ver originalResponder0
LeekCuttervip
· 16h atrás
Haha, finalmente alguém está pensando nisso, a prova de expansão sempre foi um problema persistente. A ideia de otimização do witness é realmente incrível, o custo na cadeia deve ser economizado sempre que possível. Se isso realmente puder ser comprimido, a probabilidade de implementação do zkML aumentou bastante. Parece simples, mas com certeza haverá muitos desafios na realização. Quais são os detalhes do pré-processamento, quero ver se há armadilhas.
Ver originalResponder0
  • Fixar

Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)