Auteur original : Cuy Sheffield, Vice-président de Visa et responsable des activités cryptographiques
Traduction originale : Saoirse, Foresight News
Alors que la cryptomonnaie et l’IA progressent vers la maturité, les deux domaines ont vu leur transformation la plus importante ne plus être « théoriquement possible », mais « réalisable de manière fiable dans la pratique ». Actuellement, ces deux technologies ont franchi des seuils critiques, avec des performances nettement améliorées, mais leur adoption réelle reste inégale. Et le développement clé en 2026 découle précisément de cet écart entre « performance et adoption ».
Voici quelques thèmes centraux que je suis depuis longtemps, ainsi que mes réflexions préliminaires sur l’orientation de ces technologies, les domaines de valorisation, et même « pourquoi le gagnant final pourrait être radicalement différent de l’avant-garde du secteur ».
Thème 1 : La cryptomonnaie passe d’un actif spéculatif à une technologie de qualité
La première décennie du développement de la cryptomonnaie a été caractérisée par « l’avantage spéculatif » — son marché étant mondial, continu et hautement ouvert, avec une volatilité extrême qui rend le trading de cryptomonnaies plus dynamique et attractif que les marchés financiers traditionnels.
Mais en même temps, sa technologie sous-jacente n’était pas prête pour une adoption grand public : au début, la vitesse des blockchains était lente, les coûts élevés et la stabilité insuffisante. En dehors des scénarios de spéculation, la cryptomonnaie n’a presque jamais surpassé les systèmes traditionnels en termes de coûts, de vitesse ou de commodité.
Aujourd’hui, cet déséquilibre commence à s’inverser. La technologie blockchain est devenue plus rapide, plus économique, plus fiable, et les cas d’usage les plus attractifs de la cryptomonnaie ne sont plus la spéculation, mais l’infrastructure — notamment dans les domaines du règlement et du paiement. À mesure que la cryptomonnaie devient une technologie plus mature, le rôle central de la spéculation s’affaiblira : elle ne disparaîtra pas complètement, mais ne sera plus la principale source de valeur.
Thème 2 : La stablecoin est le résultat clair de la « praticité pure » de la cryptomonnaie
Les stablecoins diffèrent du récit traditionnel autour des cryptomonnaies, leur succès reposant sur des critères concrets et objectifs : dans certains scénarios, ils sont plus rapides, moins coûteux, et plus étendus que les moyens de paiement traditionnels, tout en pouvant s’intégrer de manière transparente aux systèmes logiciels modernes.
Les stablecoins n’exigent pas que les utilisateurs considèrent la cryptomonnaie comme une « idéologie » à croire ; leur application se produit souvent « implicitement » dans les produits et processus existants — ce qui permet enfin aux institutions et entreprises qui considéraient auparavant l’écosystème crypto comme « trop volatil, pas assez transparent » de comprendre clairement leur valeur.
On peut dire que les stablecoins aident la cryptomonnaie à se recentrer sur la « praticité » plutôt que la « spéculation », établissant ainsi une norme claire pour la « réussite concrète » de leur adoption.
Thème 3 : Quand la cryptomonnaie devient une infrastructure, la « capacité de distribution » prime sur la « nouveauté technologique »
Autrefois, lorsque la cryptomonnaie jouait principalement le rôle d’« outil spéculatif », sa « distribution » était intrinsèque — de nouveaux tokens pouvaient accumuler naturellement de la liquidité et de l’attention simplement par leur existence.
Mais lorsque la cryptomonnaie devient une infrastructure, ses cas d’usage évoluent du « marché » vers le « produit » : elle est intégrée dans les processus de paiement, les plateformes et les systèmes d’entreprise, souvent sans que l’utilisateur final en ait conscience.
Ce changement profite énormément à deux types d’acteurs : d’une part, les entreprises disposant déjà de canaux de distribution et de relations clients fiables ; d’autre part, les institutions disposant de licences réglementaires, de systèmes de conformité et d’infrastructures de gestion des risques. Se reposer uniquement sur la « nouveauté de protocole » ne suffit plus pour faire massivement adopter la cryptomonnaie.
Thème 4 : Les agents IA ont une valeur pratique, leur impact dépasse le domaine du codage
L’utilité des agents IA devient de plus en plus évidente, mais leur rôle est souvent mal compris : les agents les plus performants ne sont pas des « décideurs autonomes », mais des « outils pour réduire les coûts de coordination dans les workflows ».
Historiquement, cela s’est manifesté de façon claire dans le développement logiciel — les outils d’agents accélèrent la programmation, le débogage, la refactorisation et la configuration des environnements. Mais ces dernières années, cette « valeur d’outil » s’étend à de nombreux autres domaines.
Prenons l’exemple d’outils comme Claude Code : même s’ils sont positionnés comme « outils pour développeurs », leur adoption rapide reflète une tendance plus profonde : les systèmes d’agents deviennent « interfaces pour le travail de connaissance », et pas seulement dans la programmation. Les utilisateurs commencent à appliquer « workflows pilotés par agents » dans la recherche, l’analyse, la rédaction, la planification, le traitement de données et l’exploitation — des tâches plus « professionnelles générales » que la programmation traditionnelle.
Ce qui est vraiment crucial, ce n’est pas « la programmation en soi », mais le modèle central derrière :
Les utilisateurs délèguent « l’intention » plutôt que « les étapes spécifiques » ;
Les agents gèrent le « contexte » entre fichiers, outils et tâches ;
Le mode de travail évolue d’un « processus linéaire » à un « dialogue itératif ».
Dans tous les travaux de connaissance, les agents excellent à collecter le contexte, exécuter des tâches limitées, réduire les transitions, et accélérer l’itération, mais ils ont encore des limites en matière de « jugement ouvert », de « responsabilité » et de « correction d’erreurs ».
Ainsi, la majorité des agents utilisés en production doivent encore « limiter leur champ d’action, accepter la supervision, s’intégrer dans un système », plutôt que fonctionner totalement de manière autonome. La véritable valeur des agents réside dans la « reconstruction du workflow de connaissance », et non dans le « remplacement de la main-d’œuvre » ou la « réalisation d’une autonomie totale ».
Thème 5 : Le goulot d’étranglement de l’IA n’est plus le « niveau d’intelligence », mais la « confiance »
Le niveau d’intelligence des modèles IA a connu une croissance rapide, mais aujourd’hui, la limite n’est plus « la fluidité du langage ou la capacité de raisonnement », mais « la fiabilité dans un système réel ».
Les environnements de production tolèrent zéro problème sur trois points : 1) les hallucinations de l’IA (fournir de fausses informations), 2) l’incohérence des résultats, 3) l’opacité des modes de défaillance. Lorsqu’il s’agit de service client, de transactions financières ou de conformité, des résultats « globalement corrects » ne suffisent plus.
La « confiance » doit reposer sur quatre bases fondamentales : 1) la traçabilité des résultats, 2) la capacité de mémoire, 3) la vérifiabilité, 4) la capacité à exposer activement « l’incertitude ». Avant que ces capacités ne soient suffisamment matures, l’autonomie de l’IA doit être limitée.
Thème 6 : L’ingénierie système détermine si l’IA peut réellement s’intégrer dans la production
Un produit IA réussi considère le « modèle » comme un « composant » plutôt qu’un « produit fini » — sa fiabilité dépend de « la conception architecturale », et non de « l’optimisation des prompts ».
Cette « conception architecturale » inclut la gestion d’état, le contrôle de flux, les systèmes d’évaluation et de surveillance, ainsi que la gestion des défaillances et la récupération. C’est pourquoi le développement de l’IA se rapproche de plus en plus de « l’ingénierie logicielle traditionnelle », plutôt que de la « recherche théorique de pointe ».
La valeur à long terme se concentre sur deux acteurs : d’une part, les constructeurs de systèmes ; d’autre part, les plateformes contrôlant les workflows et la distribution.
Avec l’expansion des outils d’agents dans la recherche, la rédaction, l’analyse et l’exploitation, l’« ingénierie système » deviendra encore plus cruciale : le travail de connaissance étant souvent complexe, dépendant de l’état et fortement contextuel, des agents capables de « gérer de manière fiable la mémoire, les outils et les processus d’itération » seront plus précieux que ceux qui se contentent de générer des résultats.
Thème 7 : La contradiction entre modèles ouverts et contrôle centralisé soulève des enjeux de gouvernance non résolus
À mesure que les capacités des systèmes IA s’améliorent et s’intègrent davantage dans l’économie, la question de « qui possède et contrôle le modèle IA le plus puissant » devient un conflit central.
D’un côté, la recherche en IA de pointe reste « intensive en capital », et sous l’effet de « l’accès à la puissance de calcul, des politiques réglementaires et de la géopolitique », la concentration s’accroît ; de l’autre, les modèles et outils open source, grâce à des « expérimentations étendues et un déploiement facilité », continuent d’évoluer.
Ce « paradoxe de la coexistence du centralisé et de l’ouvert » soulève une série de questions non résolues : risques de dépendance, auditabilité, transparence, pouvoir de négociation à long terme, et contrôle des infrastructures clés. La tendance la plus probable est un « modèle hybride » — les modèles de pointe stimuleront les avancées technologiques, tandis que des systèmes ouverts ou semi-ouverts intégreront ces capacités dans des « logiciels largement distribués ».
Thème 8 : La monnaie programmable favorise l’émergence de nouveaux flux de paiement par agents
Lorsque les systèmes IA interviennent dans les workflows, leurs besoins en « interactions économiques » augmentent — par exemple pour payer des services, invoquer des API, rémunérer d’autres agents, ou régler des « frais d’interaction basés sur l’usage ».
Ce besoin remet en lumière l’intérêt des « stablecoins » : considérés comme une « monnaie native pour les machines », ils sont programmables, vérifiables, et peuvent transférer sans intervention humaine.
Prenons l’exemple de protocoles comme x402 : même s’ils en sont encore à une phase expérimentale, leur orientation est claire : les flux de paiement seront gérés sous forme « d’API », plutôt que par de simples « pages de paiement » — permettant aux agents logiciels d’effectuer des « transactions continues et précises ».
Ce domaine reste encore immature : faibles volumes, expérience utilisateur rudimentaire, sécurité et gestion des permissions en cours d’amélioration. Mais l’innovation infrastructurelle commence souvent par ces « explorations précoces ».
Ce qui est important, ce n’est pas « pour l’autonomie en soi », mais « quand un logiciel peut réaliser des transactions par programmation, de nouvelles formes d’économie deviennent possibles ».
Conclusion
Que ce soit la cryptomonnaie ou l’intelligence artificielle, les premières phases de développement privilégient souvent « des concepts accrocheurs » et « la nouveauté technologique » ; mais dans la prochaine étape, « la fiabilité », « la gouvernance » et « la capacité de distribution » deviendront des dimensions de compétition plus cruciales.
Aujourd’hui, la technologie elle-même n’est plus le principal frein : « l’intégration dans des systèmes concrets » est la clé.
À mon avis, la caractéristique emblématique de 2026 ne sera pas « une avancée technologique révolutionnaire », mais « une accumulation progressive d’infrastructures » — ces infrastructures, tout en fonctionnant en silence, reconfigurent discrètement « la circulation de la valeur » et « les modes de travail ».
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Responsable de Visa pour la cryptographie : les huit grandes orientations de l'évolution de la crypto et de l'IA d'ici 2026
null
Auteur original : Cuy Sheffield, Vice-président de Visa et responsable des activités cryptographiques
Traduction originale : Saoirse, Foresight News
Alors que la cryptomonnaie et l’IA progressent vers la maturité, les deux domaines ont vu leur transformation la plus importante ne plus être « théoriquement possible », mais « réalisable de manière fiable dans la pratique ». Actuellement, ces deux technologies ont franchi des seuils critiques, avec des performances nettement améliorées, mais leur adoption réelle reste inégale. Et le développement clé en 2026 découle précisément de cet écart entre « performance et adoption ».
Voici quelques thèmes centraux que je suis depuis longtemps, ainsi que mes réflexions préliminaires sur l’orientation de ces technologies, les domaines de valorisation, et même « pourquoi le gagnant final pourrait être radicalement différent de l’avant-garde du secteur ».
Thème 1 : La cryptomonnaie passe d’un actif spéculatif à une technologie de qualité
La première décennie du développement de la cryptomonnaie a été caractérisée par « l’avantage spéculatif » — son marché étant mondial, continu et hautement ouvert, avec une volatilité extrême qui rend le trading de cryptomonnaies plus dynamique et attractif que les marchés financiers traditionnels.
Mais en même temps, sa technologie sous-jacente n’était pas prête pour une adoption grand public : au début, la vitesse des blockchains était lente, les coûts élevés et la stabilité insuffisante. En dehors des scénarios de spéculation, la cryptomonnaie n’a presque jamais surpassé les systèmes traditionnels en termes de coûts, de vitesse ou de commodité.
Aujourd’hui, cet déséquilibre commence à s’inverser. La technologie blockchain est devenue plus rapide, plus économique, plus fiable, et les cas d’usage les plus attractifs de la cryptomonnaie ne sont plus la spéculation, mais l’infrastructure — notamment dans les domaines du règlement et du paiement. À mesure que la cryptomonnaie devient une technologie plus mature, le rôle central de la spéculation s’affaiblira : elle ne disparaîtra pas complètement, mais ne sera plus la principale source de valeur.
Thème 2 : La stablecoin est le résultat clair de la « praticité pure » de la cryptomonnaie
Les stablecoins diffèrent du récit traditionnel autour des cryptomonnaies, leur succès reposant sur des critères concrets et objectifs : dans certains scénarios, ils sont plus rapides, moins coûteux, et plus étendus que les moyens de paiement traditionnels, tout en pouvant s’intégrer de manière transparente aux systèmes logiciels modernes.
Les stablecoins n’exigent pas que les utilisateurs considèrent la cryptomonnaie comme une « idéologie » à croire ; leur application se produit souvent « implicitement » dans les produits et processus existants — ce qui permet enfin aux institutions et entreprises qui considéraient auparavant l’écosystème crypto comme « trop volatil, pas assez transparent » de comprendre clairement leur valeur.
On peut dire que les stablecoins aident la cryptomonnaie à se recentrer sur la « praticité » plutôt que la « spéculation », établissant ainsi une norme claire pour la « réussite concrète » de leur adoption.
Thème 3 : Quand la cryptomonnaie devient une infrastructure, la « capacité de distribution » prime sur la « nouveauté technologique »
Autrefois, lorsque la cryptomonnaie jouait principalement le rôle d’« outil spéculatif », sa « distribution » était intrinsèque — de nouveaux tokens pouvaient accumuler naturellement de la liquidité et de l’attention simplement par leur existence.
Mais lorsque la cryptomonnaie devient une infrastructure, ses cas d’usage évoluent du « marché » vers le « produit » : elle est intégrée dans les processus de paiement, les plateformes et les systèmes d’entreprise, souvent sans que l’utilisateur final en ait conscience.
Ce changement profite énormément à deux types d’acteurs : d’une part, les entreprises disposant déjà de canaux de distribution et de relations clients fiables ; d’autre part, les institutions disposant de licences réglementaires, de systèmes de conformité et d’infrastructures de gestion des risques. Se reposer uniquement sur la « nouveauté de protocole » ne suffit plus pour faire massivement adopter la cryptomonnaie.
Thème 4 : Les agents IA ont une valeur pratique, leur impact dépasse le domaine du codage
L’utilité des agents IA devient de plus en plus évidente, mais leur rôle est souvent mal compris : les agents les plus performants ne sont pas des « décideurs autonomes », mais des « outils pour réduire les coûts de coordination dans les workflows ».
Historiquement, cela s’est manifesté de façon claire dans le développement logiciel — les outils d’agents accélèrent la programmation, le débogage, la refactorisation et la configuration des environnements. Mais ces dernières années, cette « valeur d’outil » s’étend à de nombreux autres domaines.
Prenons l’exemple d’outils comme Claude Code : même s’ils sont positionnés comme « outils pour développeurs », leur adoption rapide reflète une tendance plus profonde : les systèmes d’agents deviennent « interfaces pour le travail de connaissance », et pas seulement dans la programmation. Les utilisateurs commencent à appliquer « workflows pilotés par agents » dans la recherche, l’analyse, la rédaction, la planification, le traitement de données et l’exploitation — des tâches plus « professionnelles générales » que la programmation traditionnelle.
Ce qui est vraiment crucial, ce n’est pas « la programmation en soi », mais le modèle central derrière :
Dans tous les travaux de connaissance, les agents excellent à collecter le contexte, exécuter des tâches limitées, réduire les transitions, et accélérer l’itération, mais ils ont encore des limites en matière de « jugement ouvert », de « responsabilité » et de « correction d’erreurs ».
Ainsi, la majorité des agents utilisés en production doivent encore « limiter leur champ d’action, accepter la supervision, s’intégrer dans un système », plutôt que fonctionner totalement de manière autonome. La véritable valeur des agents réside dans la « reconstruction du workflow de connaissance », et non dans le « remplacement de la main-d’œuvre » ou la « réalisation d’une autonomie totale ».
Thème 5 : Le goulot d’étranglement de l’IA n’est plus le « niveau d’intelligence », mais la « confiance »
Le niveau d’intelligence des modèles IA a connu une croissance rapide, mais aujourd’hui, la limite n’est plus « la fluidité du langage ou la capacité de raisonnement », mais « la fiabilité dans un système réel ».
Les environnements de production tolèrent zéro problème sur trois points : 1) les hallucinations de l’IA (fournir de fausses informations), 2) l’incohérence des résultats, 3) l’opacité des modes de défaillance. Lorsqu’il s’agit de service client, de transactions financières ou de conformité, des résultats « globalement corrects » ne suffisent plus.
La « confiance » doit reposer sur quatre bases fondamentales : 1) la traçabilité des résultats, 2) la capacité de mémoire, 3) la vérifiabilité, 4) la capacité à exposer activement « l’incertitude ». Avant que ces capacités ne soient suffisamment matures, l’autonomie de l’IA doit être limitée.
Thème 6 : L’ingénierie système détermine si l’IA peut réellement s’intégrer dans la production
Un produit IA réussi considère le « modèle » comme un « composant » plutôt qu’un « produit fini » — sa fiabilité dépend de « la conception architecturale », et non de « l’optimisation des prompts ».
Cette « conception architecturale » inclut la gestion d’état, le contrôle de flux, les systèmes d’évaluation et de surveillance, ainsi que la gestion des défaillances et la récupération. C’est pourquoi le développement de l’IA se rapproche de plus en plus de « l’ingénierie logicielle traditionnelle », plutôt que de la « recherche théorique de pointe ».
La valeur à long terme se concentre sur deux acteurs : d’une part, les constructeurs de systèmes ; d’autre part, les plateformes contrôlant les workflows et la distribution.
Avec l’expansion des outils d’agents dans la recherche, la rédaction, l’analyse et l’exploitation, l’« ingénierie système » deviendra encore plus cruciale : le travail de connaissance étant souvent complexe, dépendant de l’état et fortement contextuel, des agents capables de « gérer de manière fiable la mémoire, les outils et les processus d’itération » seront plus précieux que ceux qui se contentent de générer des résultats.
Thème 7 : La contradiction entre modèles ouverts et contrôle centralisé soulève des enjeux de gouvernance non résolus
À mesure que les capacités des systèmes IA s’améliorent et s’intègrent davantage dans l’économie, la question de « qui possède et contrôle le modèle IA le plus puissant » devient un conflit central.
D’un côté, la recherche en IA de pointe reste « intensive en capital », et sous l’effet de « l’accès à la puissance de calcul, des politiques réglementaires et de la géopolitique », la concentration s’accroît ; de l’autre, les modèles et outils open source, grâce à des « expérimentations étendues et un déploiement facilité », continuent d’évoluer.
Ce « paradoxe de la coexistence du centralisé et de l’ouvert » soulève une série de questions non résolues : risques de dépendance, auditabilité, transparence, pouvoir de négociation à long terme, et contrôle des infrastructures clés. La tendance la plus probable est un « modèle hybride » — les modèles de pointe stimuleront les avancées technologiques, tandis que des systèmes ouverts ou semi-ouverts intégreront ces capacités dans des « logiciels largement distribués ».
Thème 8 : La monnaie programmable favorise l’émergence de nouveaux flux de paiement par agents
Lorsque les systèmes IA interviennent dans les workflows, leurs besoins en « interactions économiques » augmentent — par exemple pour payer des services, invoquer des API, rémunérer d’autres agents, ou régler des « frais d’interaction basés sur l’usage ».
Ce besoin remet en lumière l’intérêt des « stablecoins » : considérés comme une « monnaie native pour les machines », ils sont programmables, vérifiables, et peuvent transférer sans intervention humaine.
Prenons l’exemple de protocoles comme x402 : même s’ils en sont encore à une phase expérimentale, leur orientation est claire : les flux de paiement seront gérés sous forme « d’API », plutôt que par de simples « pages de paiement » — permettant aux agents logiciels d’effectuer des « transactions continues et précises ».
Ce domaine reste encore immature : faibles volumes, expérience utilisateur rudimentaire, sécurité et gestion des permissions en cours d’amélioration. Mais l’innovation infrastructurelle commence souvent par ces « explorations précoces ».
Ce qui est important, ce n’est pas « pour l’autonomie en soi », mais « quand un logiciel peut réaliser des transactions par programmation, de nouvelles formes d’économie deviennent possibles ».
Conclusion
Que ce soit la cryptomonnaie ou l’intelligence artificielle, les premières phases de développement privilégient souvent « des concepts accrocheurs » et « la nouveauté technologique » ; mais dans la prochaine étape, « la fiabilité », « la gouvernance » et « la capacité de distribution » deviendront des dimensions de compétition plus cruciales.
Aujourd’hui, la technologie elle-même n’est plus le principal frein : « l’intégration dans des systèmes concrets » est la clé.
À mon avis, la caractéristique emblématique de 2026 ne sera pas « une avancée technologique révolutionnaire », mais « une accumulation progressive d’infrastructures » — ces infrastructures, tout en fonctionnant en silence, reconfigurent discrètement « la circulation de la valeur » et « les modes de travail ».