Après deux ans, V a de nouveau publié un tweet. Je vais également commenter en suivant le rapport de recherche d’il y a deux ans, la date est exactement la même : 10 février. (Lecture complémentaire : ABCDE : une analyse du marché primaire de l’IA + Crypto)
Il y a deux ans, V avait déjà exprimé de manière implicite qu’il n’était pas très optimiste concernant notre tendance à croire que Crypto Helps AI, à l’époque. Les trois axes populaires dans la communauté étaient la tokenisation de la puissance de calcul, la tokenisation des données et la tokenisation des modèles. Mon rapport de l’époque portait principalement sur ces trois axes, observant certains phénomènes et soulevant des questions dans le marché primaire. Selon V, il privilégie toujours l’idée que l’IA aide la crypto.
Voici quelques exemples qu’il a donnés à l’époque :
L’IA en tant que participant dans le jeu ;
L’IA en tant qu’interface de jeu ;
L’IA en tant que règle du jeu ;
L’IA en tant qu’objectif du jeu ;
Au cours des deux dernières années, nous avons tenté de nombreuses approches pour Crypto Helps AI, mais les résultats ont été faibles. Beaucoup de projets et de secteurs se résumaient à émettre un jeton sans véritable PMF commercial, ce que j’appelle l’illusion de la tokenisation.
Tokenisation de la puissance de calcul - La plupart ne peuvent pas fournir un SLA commercial, sont instables, se déconnectent fréquemment. Ils ne peuvent traiter que des tâches d’inférence de modèles simples ou moyens, principalement pour le marché de l’edge, avec des revenus non liés aux jetons…
Tokenisation des données - La friction du côté de l’offre (les petits investisseurs) est élevée, leur volonté faible, l’incertitude grande. Du côté de la demande (entreprises), ce qui est recherché, c’est des données structurées, dépendant du contexte, avec des fournisseurs de données professionnels de confiance et responsables légalement. Les projets Web3 DAO ont du mal à fournir cela.
Tokenisation des modèles - Un modèle est un actif non rare, facilement copiable, ajustable rapidement, et qui se dévalue vite. Ce n’est pas un actif final. Hugging Face est une plateforme de collaboration et de diffusion, plus proche de GitHub pour le ML que d’un App Store pour modèles. Les tentatives de “décentraliser Hugging Face” pour tokeniser les modèles ont généralement échoué.
De plus, ces deux dernières années, nous avons expérimenté diverses “preuves vérifiables” (verifiable proofs), mais c’est souvent comme chercher un clou avec un marteau. De ZKML à OPML, en passant par la théorie du jeu, jusqu’à EigenLayer qui a transformé sa narration de Restaking en Verifiable AI.
Mais cela ressemble à ce qui se passe dans le secteur du Restaking : peu d’AVS sont prêts à payer pour une sécurité vérifiable continue.
De même, la preuve vérifiable concerne principalement la validation de “choses que personne n’a vraiment besoin de faire vérifier”. La menace du côté de la demande est très floue — qui veut-on vraiment défendre ?
Les erreurs de sortie de l’IA (problèmes de capacité du modèle) sont beaucoup plus fréquentes que la falsification malveillante des sorties (problèmes d’attaque). Récemment, les incidents de sécurité sur OpenClaw et Moltbook l’ont montré. Les vrais problèmes viennent de :
Une conception stratégique erronée ;
Des permissions excessives ;
Des limites mal définies ;
Des interactions inattendues entre outils ;
…
Il n’existe presque pas de “modèles falsifiés” ou de “processus d’inférence modifié malicieusement” — ce ne sont que des idées imaginaires.
L’année dernière, j’avais publié cette image, je ne sais pas si certains s’en souviennent.
Les idées proposées par V cette fois-ci sont clairement plus matures qu’il y a deux ans, notamment grâce à nos progrès dans la confidentialité, X402, ERC8004, les marchés prédictifs, etc.
On peut voir qu’il a divisé cela en quatre quadrants, dont la moitié concerne AI Helps Crypto, et l’autre moitié Crypto Helps AI, ce qui montre une évolution par rapport à la tendance initiale il y a deux ans.
En haut à gauche et en bas à gauche - Utiliser la décentralisation et la transparence d’Ethereum pour résoudre les problèmes de confiance et de collaboration économique de l’IA :
Faciliter une interaction IA sans confiance et privée (infrastructure + survie) : utiliser ZK, FHE et autres technologies pour garantir la confidentialité et la vérifiabilité des interactions IA (je ne sais pas si cela inclut la vérifiabilité de l’inférence mentionnée plus tôt).
Ethereum comme couche économique pour l’IA (infrastructure + prospérité) : permettre aux agents IA d’effectuer des paiements économiques via Ethereum, de recruter d’autres robots, de déposer des garanties ou d’établir un système de crédibilité, afin de construire une architecture IA décentralisée plutôt que dépendante d’une plateforme monopolistique.
En haut à droite et en bas à droite - Utiliser l’intelligence de l’IA pour optimiser l’expérience utilisateur, l’efficacité et la gouvernance dans l’écosystème crypto :
La vision des cypherpunks avec des LLM locaux (impact + survie) : l’IA comme “bouclier” et interface pour l’utilisateur. Par exemple, un LLM local peut auditer automatiquement des contrats intelligents, vérifier des transactions, réduire la dépendance aux interfaces centralisées, et garantir la souveraineté numérique individuelle.
Rendre de meilleurs marchés et une gouvernance efficace une réalité (impact + prospérité) : faire participer profondément l’IA aux marchés prédictifs et à la gouvernance DAO. L’IA peut agir comme un participant efficace, traitant massivement l’information pour amplifier le jugement humain, résoudre les problèmes liés à la surcharge d’informations, aux coûts décisionnels élevés, à l’indifférence au vote, etc.
Avant, nous voulions à tout prix faire que Crypto Help AI, mais V a adopté une position opposée. Aujourd’hui, nous nous rencontrons enfin au milieu, mais cela semble plus lié à la tokenisation de divers projets ou à des Layer1 AI, sans grand rapport avec cela. J’espère qu’après deux ans, en relisant ce post, nous découvrirons de nouvelles directions et surprises.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Du marché primaire à Crypto × AI : une expérience d'illusion de tokenisation
Auteur : Lao Bai
Après deux ans, V a de nouveau publié un tweet. Je vais également commenter en suivant le rapport de recherche d’il y a deux ans, la date est exactement la même : 10 février. (Lecture complémentaire : ABCDE : une analyse du marché primaire de l’IA + Crypto)
Il y a deux ans, V avait déjà exprimé de manière implicite qu’il n’était pas très optimiste concernant notre tendance à croire que Crypto Helps AI, à l’époque. Les trois axes populaires dans la communauté étaient la tokenisation de la puissance de calcul, la tokenisation des données et la tokenisation des modèles. Mon rapport de l’époque portait principalement sur ces trois axes, observant certains phénomènes et soulevant des questions dans le marché primaire. Selon V, il privilégie toujours l’idée que l’IA aide la crypto.
Voici quelques exemples qu’il a donnés à l’époque :
L’IA en tant que participant dans le jeu ;
L’IA en tant qu’interface de jeu ;
L’IA en tant que règle du jeu ;
L’IA en tant qu’objectif du jeu ;
Au cours des deux dernières années, nous avons tenté de nombreuses approches pour Crypto Helps AI, mais les résultats ont été faibles. Beaucoup de projets et de secteurs se résumaient à émettre un jeton sans véritable PMF commercial, ce que j’appelle l’illusion de la tokenisation.
Tokenisation de la puissance de calcul - La plupart ne peuvent pas fournir un SLA commercial, sont instables, se déconnectent fréquemment. Ils ne peuvent traiter que des tâches d’inférence de modèles simples ou moyens, principalement pour le marché de l’edge, avec des revenus non liés aux jetons…
Tokenisation des données - La friction du côté de l’offre (les petits investisseurs) est élevée, leur volonté faible, l’incertitude grande. Du côté de la demande (entreprises), ce qui est recherché, c’est des données structurées, dépendant du contexte, avec des fournisseurs de données professionnels de confiance et responsables légalement. Les projets Web3 DAO ont du mal à fournir cela.
Tokenisation des modèles - Un modèle est un actif non rare, facilement copiable, ajustable rapidement, et qui se dévalue vite. Ce n’est pas un actif final. Hugging Face est une plateforme de collaboration et de diffusion, plus proche de GitHub pour le ML que d’un App Store pour modèles. Les tentatives de “décentraliser Hugging Face” pour tokeniser les modèles ont généralement échoué.
De plus, ces deux dernières années, nous avons expérimenté diverses “preuves vérifiables” (verifiable proofs), mais c’est souvent comme chercher un clou avec un marteau. De ZKML à OPML, en passant par la théorie du jeu, jusqu’à EigenLayer qui a transformé sa narration de Restaking en Verifiable AI.
Mais cela ressemble à ce qui se passe dans le secteur du Restaking : peu d’AVS sont prêts à payer pour une sécurité vérifiable continue.
De même, la preuve vérifiable concerne principalement la validation de “choses que personne n’a vraiment besoin de faire vérifier”. La menace du côté de la demande est très floue — qui veut-on vraiment défendre ?
Les erreurs de sortie de l’IA (problèmes de capacité du modèle) sont beaucoup plus fréquentes que la falsification malveillante des sorties (problèmes d’attaque). Récemment, les incidents de sécurité sur OpenClaw et Moltbook l’ont montré. Les vrais problèmes viennent de :
Une conception stratégique erronée ;
Des permissions excessives ;
Des limites mal définies ;
Des interactions inattendues entre outils ;
…
Il n’existe presque pas de “modèles falsifiés” ou de “processus d’inférence modifié malicieusement” — ce ne sont que des idées imaginaires.
L’année dernière, j’avais publié cette image, je ne sais pas si certains s’en souviennent.
Les idées proposées par V cette fois-ci sont clairement plus matures qu’il y a deux ans, notamment grâce à nos progrès dans la confidentialité, X402, ERC8004, les marchés prédictifs, etc.
On peut voir qu’il a divisé cela en quatre quadrants, dont la moitié concerne AI Helps Crypto, et l’autre moitié Crypto Helps AI, ce qui montre une évolution par rapport à la tendance initiale il y a deux ans.
En haut à gauche et en bas à gauche - Utiliser la décentralisation et la transparence d’Ethereum pour résoudre les problèmes de confiance et de collaboration économique de l’IA :
Faciliter une interaction IA sans confiance et privée (infrastructure + survie) : utiliser ZK, FHE et autres technologies pour garantir la confidentialité et la vérifiabilité des interactions IA (je ne sais pas si cela inclut la vérifiabilité de l’inférence mentionnée plus tôt).
Ethereum comme couche économique pour l’IA (infrastructure + prospérité) : permettre aux agents IA d’effectuer des paiements économiques via Ethereum, de recruter d’autres robots, de déposer des garanties ou d’établir un système de crédibilité, afin de construire une architecture IA décentralisée plutôt que dépendante d’une plateforme monopolistique.
En haut à droite et en bas à droite - Utiliser l’intelligence de l’IA pour optimiser l’expérience utilisateur, l’efficacité et la gouvernance dans l’écosystème crypto :
La vision des cypherpunks avec des LLM locaux (impact + survie) : l’IA comme “bouclier” et interface pour l’utilisateur. Par exemple, un LLM local peut auditer automatiquement des contrats intelligents, vérifier des transactions, réduire la dépendance aux interfaces centralisées, et garantir la souveraineté numérique individuelle.
Rendre de meilleurs marchés et une gouvernance efficace une réalité (impact + prospérité) : faire participer profondément l’IA aux marchés prédictifs et à la gouvernance DAO. L’IA peut agir comme un participant efficace, traitant massivement l’information pour amplifier le jugement humain, résoudre les problèmes liés à la surcharge d’informations, aux coûts décisionnels élevés, à l’indifférence au vote, etc.
Avant, nous voulions à tout prix faire que Crypto Help AI, mais V a adopté une position opposée. Aujourd’hui, nous nous rencontrons enfin au milieu, mais cela semble plus lié à la tokenisation de divers projets ou à des Layer1 AI, sans grand rapport avec cela. J’espère qu’après deux ans, en relisant ce post, nous découvrirons de nouvelles directions et surprises.