L'apprentissage automatique à zéro connaissance (zkML) fait face à un défi clé dans son application : les données d'entrée entraînent souvent une expansion significative de l'échelle des preuves, ce qui affecte directement l'efficacité et l'évolutivité du système. Certains projets ont trouvé des solutions en optimisant le processus de génération de témoins - en effectuant un prétraitement intelligent avant la génération de preuves, réduisant efficacement les données redondantes et compressant ainsi considérablement le volume de la preuve finale. Cette approche est d'une grande importance pour améliorer les performances des preuves à zéro connaissance dans des applications pratiques, en particulier dans des scénarios sensibles aux coûts sur la chaîne.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
11 J'aime
Récompense
11
8
Reposter
Partager
Commentaire
0/400
SchrodingerAirdrop
· Il y a 11h
Putain, c'est ça une véritable idée de solution, pas juste empiler des techniques pour montrer sa puissance
Voir l'originalRépondre0
NftBankruptcyClub
· Il y a 18h
C'est la bonne voie, enfin quelqu'un a pensé à optimiser cette partie, la redondance des données est trop problématique.
Voir l'originalRépondre0
FarmToRiches
· Il y a 18h
Haha, enfin quelqu'un qui optimise ce point sensible, la taille de la preuve était vraiment un cauchemar auparavant.
Voir l'originalRépondre0
NotFinancialAdviser
· Il y a 18h
Oh là là, enfin quelqu'un s'attaque au problème de redondance des données de zkML, ce truc a toujours été mon point faible
Voir l'originalRépondre0
LongTermDreamer
· Il y a 18h
Ah, n'est-ce pas la direction d'optimisation que nous attendions depuis longtemps ? Il y a trois ans, quelqu'un disait que le zkML allait tout changer, et maintenant nous sommes bloqués à ce stade, mais enfin, quelqu'un a bien traité le witness. Pour être honnête, voir des projets vraiment travailler sur cette partie de prétraitement me rend assez excité, même si mes Holdings ont perdu énormément cette année... Mais cette percée en infrastructure, c'est le genre de chose qui peut renverser la situation dans trois ans, tu comprends ?
Voir l'originalRépondre0
SellLowExpert
· Il y a 18h
Ah, enfin quelqu'un optimise ce point problématique, le problème de redondance des données traîne là depuis trop longtemps.
Voir l'originalRépondre0
MerkleDreamer
· Il y a 18h
Eh bien, c'est ça que je voulais voir comme approche d'optimisation, le projet zkML précédent a échoué directement à cause d'une preuve trop lourde.
Voir l'originalRépondre0
LeekCutter
· Il y a 19h
Haha, enfin quelqu'un qui réfléchit à ça, prouver que l'expansion a toujours été un problème tenace.
L'optimisation de witness est vraiment géniale, les coûts off-chain peuvent être réduits autant que possible.
Si cette chose peut vraiment être compressée, la probabilité de mise en œuvre de zkML a considérablement augmenté.
Ça a l'air simple, mais en réalité, il y aura sûrement des pièges.
Comment gérer les détails du prétraitement, je veux voir s'il y a des pièges.
L'apprentissage automatique à zéro connaissance (zkML) fait face à un défi clé dans son application : les données d'entrée entraînent souvent une expansion significative de l'échelle des preuves, ce qui affecte directement l'efficacité et l'évolutivité du système. Certains projets ont trouvé des solutions en optimisant le processus de génération de témoins - en effectuant un prétraitement intelligent avant la génération de preuves, réduisant efficacement les données redondantes et compressant ainsi considérablement le volume de la preuve finale. Cette approche est d'une grande importance pour améliorer les performances des preuves à zéro connaissance dans des applications pratiques, en particulier dans des scénarios sensibles aux coûts sur la chaîne.