Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
À l'ère de l'IA, la « puissance de calcul partagée » est le nouveau vélo jaune des jeunes développeurs.
Source : Geek Park
Rédigé par : Xu Shan
« Le coût des tokens est en chute libre. »
Placée il y a deux ans, cette phrase aurait rendu chaque entrepreneur en IA surexcité. De 2023 à 2025, les coûts d’inférence de l’IA ont baissé de 99,7 %. À titre de repère, lorsque GPT-4 a été publié, le coût par million de tokens était de 37,5 dollars ; en 2025, ce chiffre est déjà tombé à 0,14 dollar. Dans cette tendance, le coût des capacités de calcul ne devrait donc pas poser de problème aux entrepreneurs, n’est-ce pas ?
Mais la réalité est exactement l’inverse.
Sur la même période, les dépenses mondiales de cloud pour l’IA des entreprises ont explosé, passant de 11,5 milliards de dollars à 37 milliards de dollars, soit un triplement. Depuis l’entrée dans l’ère A2A, des dizaines d’agents, en interaction répétée, ont fait exploser le nombre d’appels de tokens de manière exponentielle. Résultat : même si le prix unitaire des tokens est devenu moins cher, la quantité de tokens consommée par chaque tâche a, elle, grimpé de façon folle.
Il est évident que les capacités de calcul sont en train de devenir la ressource la plus étrange de cette époque. Elles deviennent de plus en plus abordables, mais l’argent que vous y consacrez ne fera qu’augmenter.
Pour les géants, ce problème peut être résolu en construisant leurs propres centres de calcul. Mais pour la plupart des startups, elles n’ont pas d’autre choix que de se placer sur le marché public des capacités de calcul, d’accepter la tarification des fournisseurs de cloud, et de regarder la facture grimper mois après mois, sans aucun pouvoir de négociation.
Ce que Pu Zhi, fondateur de Comji Technology, voit, c’est justement l’opportunité née de ce décalage du marché.
À ses yeux, la solution pour faire baisser les coûts de calcul n’est pas seulement d’attendre que les coûts diminuent naturellement ; c’est aussi d’utiliser les capacités de calcul d’une autre manière, ce qui peut faire démarrer une baisse des coûts de calcul. Faire des capacités de calcul, comme l’électricité : à la demande, sur appel, facturées selon l’usage, et réactiver les vastes ressources de calcul gaspillées et inutilisées.
Récemment, Comji Technology a finalisé un tour de financement Pre-A ; la valorisation post-investissement s’élève à 350 millions de yuans RMB, et la société prévoit de lancer prochainement un tour de série A. En 2025, année où la filière des capacités de calcul subit une pression généralisée, cette entreprise technologique qui résout des problèmes d’orchestration des ressources via l’intelligence artificielle a discrètement atteint plusieurs dizaines de millions de yuans de chiffre d’affaires, avec un taux de rétention des clients proche de 100 %.
Comji Technology transforme l’orchestration des capacités de calcul en une activité réellement rentable.
Pu Zhi, fondateur de Comji Technology — Source de l’image : Comji Technology
01 Quand les entreprises d’IA explosent, cette facture des coûts de calcul trouve une nouvelle solution
À la veille du lancement du nouveau produit, l’équipe de Remy n’a presque pas dormi, prête à faire face à toute situation imprévue.
Mais lorsque le site de l’entreprise a attiré 500k utilisateurs en 48 heures, pour une nouvelle entreprise d’IA venant de passer de la phase de test interne à la phase publique, ils devaient, dans un laps de temps très court, étendre l’ensemble de l’infrastructure de plusieurs dizaines de fois. Même s’ils s’y étaient préparés, avant le lancement, Remy avait testé à l’avance plusieurs plateformes de services cloud, dont Ucloud, Alibaba Cloud, Huawei Cloud, etc. Mais lorsque le flot de trafic s’est abattu réellement, leur solution finale venait… de Comji Technology.
En termes simples, ce que fait Comji Technology consiste à mobiliser des capacités de calcul inoccupées, puis à les allouer à la demande à des entreprises d’IA ayant des besoins flexibles. Qu’il s’agisse de machines en veille dans une salle de jeux vidéo la nuit, ou encore des 4090 chez des utilisateurs individuels, ou bien de ressources disponibles dans de petites salles serveurs, toutes peuvent faire partie du pool de capacités de calcul mobilisables par Comji Technology. Si les clients ne suffisent pas, on peut appeler immédiatement davantage depuis le pool de capacités de calcul : à chaque fois qu’on en a besoin, on les prend.
Durant ces 48 heures, Comji Technology a d’urgence fourni à Remy près de 1900 cartes GPU. À chaque fois qu’un utilisateur lançait une requête, un nouvel ordre apparaissait ; une fois le calcul de l’utilisateur terminé, la commande se fermait immédiatement. Ce jour-là, la plateforme a traité plus d’un million de commandes.
« Aux moments de pointe, pour un fournisseur de services de calcul “standard”, ouvrir temporairement 20 cartes est déjà difficile ; dans la plupart des cas, l’entreprise doit attendre. Mais attendre signifie aussi une perte de trafic, ce que les entreprises ne veulent absolument pas voir. » Pu Zhi a expliqué qu’après cela, la grande majorité des capacités de calcul utilisées par Remy provenait de Comji Technology.
Les besoins de Remy en matière de capacités de calcul sont en réalité assez simples : à chaque pic de trafic, il faut pouvoir répondre rapidement aux clics des utilisateurs ; les appels de capacités de calcul doivent être rapides et opportuns, et le coût doit être bas. Ce sont là les besoins les plus fondamentaux en capacités de calcul pour une startup d’IA qui débute.
En revanche, il existe un type de clients d’applications d’IA qui fait face à des besoins en capacités de calcul plus rares, mais aussi plus concrets.
Pendant le Nouvel An lunaire de l’an dernier, une société qui faisait de l’IA de “changement de tenue et photo” dans un site touristique s’est adressée à Comji Technology. Ils ne n’ignoraient pas à quel moment les pics de trafic se produiraient, mais restait très difficile de calculer correctement le coût de leurs capacités de calcul.
Leurs appareils d’IA étaient davantage installés dans le parc : dès que venaient les jours fériés, tout était bondé, et la demande en capacités de calcul montait en flèche. Mais une fois les vacances terminées, la demande en capacités de calcul retombait presque à zéro. « Le Nouvel An lunaire est le plus gros pic de toute l’année. Pendant le reste de l’année, il n’y a pas grand monde dans le site touristique », ont-ils dit à Pu Zhi.
Ce type de fluctuation des capacités de calcul signifie que si l’on choisit de louer les capacités selon le pic, c’est comme brûler de l’argent pendant 90 % du temps ; si l’on loue selon la moyenne, alors pendant le Nouvel An lunaire la demande va forcément s’effondrer, ce qui nuit à l’expérience utilisateur. « Une telle fluctuation de la demande est relativement difficile à couvrir avec les solutions de capacités de calcul traditionnelles. Parce que ces extrêmes — l’écart entre le pic et le creux — ne sont tout simplement pas couverts par la logique de tarification des produits standards », a déclaré Pu Zhi.
Mais ce type de scénario est justement parfaitement adapté à l’utilisation de la plateforme de partage de capacités de calcul de Comji Technology.
Ce mois-là, les nœuds de service ont remplacé 1963 ordinateurs personnels ; tout au long des vacances du Nouvel An lunaire, aucun problème de stabilité n’est apparu une seule fois. « Par rapport à ce qu’ils auraient fait s’ils déployaient leurs capacités selon le pic, on leur a fait économiser près de 70 % des coûts », a ajouté Pu Zhi.
Une demande fluctuante de ce genre ne se retrouve pas seulement dans quelques scénarios “verticaux” de niche ; elle est aussi fréquente pour de nombreuses nouvelles entreprises d’IA.
Liblib est l’une des plateformes chinoises de génération d’images par IA ayant la plus grande base d’utilisateurs. Elles louaient auparavant de grandes quantités de cartes GPU via les plateformes des fournisseurs de cloud. Mais en y regardant de plus près, elles ont découvert que, calculées en moyenne, le taux d’utilisation global de ces GPU n’était que de 45 %.
Cela signifie qu’environ plus de la moitié des cartes brûlent de l’argent sans raison chaque jour.
D’après Pu Zhi, en réalité, des entreprises comme liblib ne sont pas rares ; presque tous les outils d’applications d’IA dont les utilisateurs principaux sont des salariés vont rencontrer ce problème. En journée, les utilisateurs sont denses ; la nuit, le nombre d’utilisateurs chute fortement. Si l’on dimensionne le calcul selon le pic, la nuit le taux d’utilisation reste élevé, mais avec une location selon la moyenne, il est difficile de satisfaire tous les utilisateurs en journée.
La filière IA a l’air animée, mais ce qui bloque la croissance de l’entreprise — la ligne de vie — peut être précisément cette facture des coûts de capacités de calcul. De nombreuses entreprises ont des attentes trop élevées concernant les capacités de calcul : les coûts de calcul finissent par assécher le cash-flow. D’autres entreprises surestiment trop peu les capacités : au pic d’utilisation, le service s’effondre, et quand l’utilisateur s’en va, il ne revient pas.
« Le trafic des applications d’IA est naturellement fluctuant. La logique de tarification du marché des capacités de calcul a été conçue pour une demande stable, et la manière de répartir les coûts de calcul reste encore assez traditionnelle » a déclaré Pu Zhi. Voilà pourquoi, lorsqu’une entreprise d’IA explose vraiment, cette facture des coûts de calcul a besoin d’un nouvel algorithme.
Auparavant, les modes de service traditionnels des capacités de calcul reposaient principalement sur des contrats à long terme. Les entreprises louent pour un an : qu’elles l’utilisent ou non, elles doivent payer à l’avance les frais de capacité de calcul. Le coût des capacités inoccupées est principalement supporté par l’entreprise elle-même. Et ce que fait Comji Technology, c’est en réalité déplacer ce coût vers un autre endroit : ces personnes qui ont déjà des capacités de calcul inoccupées mais ne peuvent pas les exécuter à plein régime — des utilisateurs individuels, des cybercafés, etc. — ces capacités étaient déjà en train d’être gaspillées. En les orchestrant, on ne génère pas de nouveaux coûts de capacités de calcul, et on “réanime” des capacités de calcul déjà existantes et inutilisées.
« Les capacités de calcul ne sont pas faites pour être “le plus possible” » a déclaré Pu Zhi, « mais pour être fluides, appelables à tout moment — c’est ce qu’il faut. »
02 Cette affaire des capacités de calcul “élastiques” met à l’épreuve la capacité d’orchestration de l’énergie
Pour Pu Zhi, l’opportunité de faire cette activité d’orchestration des capacités de calcul venait en fait d’un coup du hasard.
En mai 2023, pendant les vacances, au moment où la vague IA venait de commencer à peine à naître, Pu Zhi a posté un message dans une communauté de fondateurs d’IA. Le contenu était simple : « J’ai une A100 ; plus la location est courte, plus c’est bon marché. Si vous avez besoin, venez me voir. »
À ce moment-là, ses attentes étaient en fait plutôt faibles, après tout, il n’avait qu’une seule carte graphique. Le résultat a été pourtant inattendu : au final, 30 personnes l’ont contacté pour s’enquérir, et toutes ont payé avec beaucoup d’entrain.
« Je choisis ceux qui payent vite. » À la fin, il a sélectionné 5 personnes pour ses services. Une carte, 5 clients : cela a validé un jugement qu’il avait mûri depuis longtemps, à savoir : le “calcul” devient nécessaire pour des gens ordinaires.
Mais il savait aussi clairement pourquoi cette affaire n’avait pris naissance à ce moment-là : ce n’était pas parce qu’il avait eu de la chance, mais parce qu’avant, il n’y avait tout simplement aucune condition pour faire cela.
Après tout, dès 1999, quelqu’un avait déjà proposé le partage de capacités de calcul, en construisant une plateforme BOINC, où des dizaines de milliers de personnes contribuaient des capacités de calcul. Mais à l’époque, il s’agissait d’une plateforme de calcul scientifique à but non lucratif, permettant à chacun de l’utiliser gratuitement. Plus tard, lorsque le Bitcoin a explosé, certaines personnes ont aussi envisagé d’orchestrer des capacités de calcul inutilisées en profitant de la frénésie minière. Mais ce n’était pas légal.
L’idée est restée là, mais le “sol” manquait.
Après tout, les utilisateurs ordinaires capables d’avoir de véritables GPU hautes performances, ce sont surtout les générations nées dans les années 90 et 00. Avant cela, très peu de configurations d’ordinateurs personnels incluaient un 4090. Et pour faire fonctionner en toute sécurité, sur ordinateur personnel, des environnements virtuels Linux via WSL1.0.0, il a fallu attendre la mise à jour officielle en 2022. Pour ne rien dire du fait que l’appel à distance repose sur des équipements personnels répartis partout, permettant de les faire traverser par l’intranet — ce type de technique n’a vraiment été mûr autour de 2021.
Côté offre, côté demande, et conditions techniques : ces trois éléments réunis ont rendu possible aujourd’hui cette activité.
Mais Pu Zhi pense que le signal qui lui a fait vraiment dire « le moment est venu » n’était ni DeepSeek, ni une machine intégrée, mais les scénarios de consommation de l’IA, qui s’infiltrent en passant des outils de niche vers le divertissement du quotidien des gens ordinaires.
« Dès que ce processus s’accélère, la demande en capacités de calcul ne sera plus une question d’achat par quelques grandes entreprises ; il faudra la gérer comme l’électricité, à grande échelle, en la répartissant et en la distribuant de manière transnœuds », a déclaré Pu Zhi.
C’est aussi la raison pour laquelle Comji Technology avance en parallèle vers des discussions de coopération avec les centres nationaux de capacités de calcul. À l’heure actuelle, ils ont déjà participé à la construction des plateformes provinciales d’orchestration des capacités de calcul à Jing-Jin-Ji, dans le delta du Yangtsé, à Shenzhen et dans la province du Qinghai. Les systèmes d’orchestration construits localement impliquent aussi, techniquement, la participation de Comji.
Cependant, « l’orchestration des capacités de calcul » est bien plus difficile que ce qu’elle ne paraît.
L’orchestration des capacités de calcul et la gestion des capacités de calcul ne sont pas la même chose. Pu Zhi a fait une distinction entre les deux : les grandes entreprises font de la gestion — elles intègrent une multitude de machines dans un même système, savent qui utilise, qui reste inactif, mais il est difficile de réaliser une répartition dynamique à travers plusieurs zones géographiques et types d’équipements.
L’orchestration des capacités de calcul est une autre affaire : elle doit prendre ce pic de demande de cet endroit et le combler avec des capacités de calcul inoccupées provenant d’ailleurs. En ingénierie informatique, il n’existe en réalité pas de solution “prête”. Au contraire, c’est un vieux problème du domaine de l’énergie : le terme « combler les creux en coupant les pics » est, à l’origine, un vocabulaire du système électrique.
Le diplôme de licence de Pu Zhi portait sur l’ingénierie des environnements et l’application énergétique à l’Université Tsinghua ; son directeur de thèse était un académicien dans le domaine de l’énergie. Il a transposé les algorithmes d’orchestration de l’énergie, pour résoudre le même problème — mais dans la version des capacités de calcul — et c’est aussi la barrière la plus centrale de Comji.
Bien sûr, sur le plan de l’industrialisation, ce système d’orchestration transrégional rencontrera aussi de nombreux problèmes. Par exemple, les ordinateurs personnels connectés au pool d’orchestration peuvent à tout moment être « pris en charge » ; si l’utilisateur lance un jeu, cette machine doit quitter. Mais les clients en aval exigent que le service ne s’arrête pas.
Pu Zhi a choisi une stratégie de “redondance à chaud plus prédiction” : préparer à l’avance des nœuds de rechange redondants pour chaque tâche, puis utiliser des données historiques accumulées pour prédire les comportements en ligne de chaque fournisseur, afin d’ajuster dynamiquement le ratio de sauvegarde. Plus il y a de données, plus la redondance est précise, donc moins les coûts sont élevés. « À l’origine, je devais te faire préparer deux machines. Mais avec l’usage, je n’ai plus besoin de n’en préparer qu’une. » La couche de transmission réseau n’est pas stable non plus ; la réponse de Comji est de connecter en même temps trois grands fournisseurs de cloud, et Pu Zhi a mentionné : « Ce n’est pas possible qu’ils tombent tous en panne en même temps. »
Alors, pourquoi les fournisseurs de cloud ne font-ils pas des capacités de calcul élastiques ?
L’explication donnée par Pu Zhi est que les grandes entreprises l’ont vu, mais que leurs capacités de calcul élastiques diffèrent sur le positionnement produit et la stratégie de tarification ; l’avantage de Comji, lui, est le prix et l’efficacité d’orchestration.
La contradiction centrale des capacités de calcul élastiques réside dans le fait que vous devez préparer à l’avance des capacités « appelables à tout moment », mais que ces capacités, lorsqu’elles ne sont pas utilisées, sont uniquement un coût d’inactivité. En général, l’extension élastique des fournisseurs de capacité de calcul se situe à environ 5 fois le prix habituel, ou bien on fait signer au client un contrat long d’un an, où le client assume le risque de l’inactivité des capacités.
Si Comji peut fournir une vraie élasticité, c’est parce que les ressources qu’elle utilise sont justement des ressources inoccupées : elles n’ont pas été achetées en amont pour comprimer les coûts. Elles sont déjà là, inactives. C’est pourquoi Comji peut offrir des prix encore plus compétitifs.
D’après l’analyse de Pu Zhi, sur l’ensemble du marché, 80 % des demandes en capacités de calcul passent par les offres “packagées” en location long terme des grandes entreprises ; le reste, soit 20 %, concerne des besoins élastiques. Pu Zhi ne prévoit pas de s’arracher les 80 % ; il se concentre davantage sur les 20 % du marché. Et à mesure que les applications d’IA continuent de croître, l’espace de marché des 20 % ne fera que s’élargir. « Chez les autres, plus on loue longtemps, moins c’est cher ; chez moi, plus on loue court, plus c’est cher. » a-t-il ajouté. Aujourd’hui, la plateforme de partage de capacités de calcul de Comji Technology « suanli.cn » permet aux consommateurs ordinaires de louer les capacités concernées au milliseconde près.
Photo de groupe de l’équipe de Comji Technology — Source de l’image : Comji Technology
Ce type de modèle économique de partage a en réalité déjà été validé depuis longtemps dans d’autres secteurs.
Pu Zhi compare la nature de cette affaire à Airbnb : quand une grande ville organise un salon d’envergure, tous les hôtels autour affichent complet ; Airbnb met alors en relation des résidents qui ont des chambres inoccupées et des participants qui n’ont nulle part où loger. L’histoire “version capacités de calcul” suit aussi un chemin similaire : au moment des sorties de versions des applications d’IA et des pics de trafic, il faut beaucoup de capacités de calcul ; en temps normal, la demande est très loin d’atteindre ce niveau. De l’autre côté, les capacités de calcul des utilisateurs individuels, des cybercafés et des petites salles serveurs sont, la nuit et les jours ouvrés, largement inoccupées. Mettre les deux côtés en lien, c’est exactement ce que fait Comji.
La différence, c’est que ce n’est pas des chambres — c’est des capacités de calcul.
03 Orchestration de l’énergie des capacités de calcul : le « logiciel définit l’infrastructure » à l’ère de l’IA
Ce chemin a aussi été emprunté à l’étranger. Par exemple, RunPod fournit également des services d’inférence élastique via des capacités de calcul dispersées ; en 2024, la société a levé 20 millions de dollars en seed round, mené conjointement par Intel Capital et Dell Technologies Capital. Parmi les clients, on compte Cursor, OpenAI et Perplexity.
Mais, aux yeux de Pu Zhi, faire cette affaire aux États-Unis et la faire en Chine, ce sont deux choses entièrement différentes.
AWS, dès sa création, fournit des capacités de calcul élastiques. Il a promis dès le départ l’utilisation à la demande, et a servi le marché mature avec des services élastiques à prix élevé. En revanche, les fournisseurs de cloud en Chine privilégient davantage le modèle de location longue durée, et les politiques d’incitation s’y orientent aussi ; ils ne mettent pas trop l’accent sur les services élastiques, et l’intention de payer pour des capacités élastiques est aussi bien plus faible qu’aux États-Unis. Ainsi, si l’on transpose la logique de RunPod en Chine, la tarification ne fonctionnera pas.
Cependant, Pu Zhi pense que l’orchestration des capacités de calcul n’est pas un métier qui se résume à louer de la capacité de calcul. « Partager les capacités de calcul peut être juste une étape pour ouvrir une porte. » dit-il, sans hésitation. Selon son analyse, il y a une fenêtre de deux à trois ans pour cette affaire : tant que l’offre et la demande de capacités de calcul restent décalées, ce “creux” existe, mais il ne durera pas éternellement.
Cette lucidité est rare chez les entrepreneurs. Et c’est précisément pour cela qu’il a commencé très tôt à se poser une question plus fondamentale : d’où va naître la prochaine application d’IA qui explose vraiment ? Ce jugement déterminera directement l’orientation des besoins en capacités de calcul. À ce sujet, Pu Zhi a deux jugements tournés vers l’avenir.
Le premier : d’après lui, les super-applications chinoises ne vont pas naître des outils de productivité sur PC. La direction avec de vraies chances, c’est : d’un côté les réseaux sociaux et le divertissement sur mobile ; de l’autre, des matériels transfrontaliers liés à la chaîne d’approvisionnement ; et enfin, des applications d’IA pouvant s’intégrer dans des scénarios de vie réels.
Internet en Chine n’a jamais connu une époque profondément ancrée d’outils de productivité sur PC. Les utilisateurs sont passés directement de l’ère des téléphones à fonctions aux réseaux mobiles. Les documents d’IA, les présentations IA, les assistants de code IA qui ont émergé aux États-Unis reposent en arrière-plan sur des dizaines de millions d’habitudes de travail sur PC et sur une population d’utilisateurs prête à payer pour des outils SaaS — alors qu’en Chine, ce n’est pas pareil. « Est-ce que toute la Chine a plus de 100 millions de personnes qui ont besoin d’écrire dans Word ? Je pense que non. » Le problème, c’est aussi que même s’il existe une demande, les grandes entreprises vont rapidement transformer ces fonctions en plugins gratuits.
Au contraire, c’est dans les scénarios de réseaux sociaux et de divertissement qu’il a vu une forte croissance. Il a discuté avec de nombreux acteurs qui produisent des courts drames et des contenus cinéma/vidéo. Il leur a demandé pourquoi ils s’embrassaient si activement l’IA ; leurs retours lui ont donné une idée nouvelle : « Je n’ai plus rien à perdre. Personne ne regarde plus les films et les séries télé. On est presque morts. » Ces personnes font partie des plus enclines à adopter l’IA sur le marché chinois ; ce n’est pas parce qu’elles comprennent le mieux la technique, mais parce qu’elles n’ont plus de marge de manœuvre. « Maintenant, il n’y a plus personne qui regarde la télévision, les films. »
Quant au développement du matériel d’IA, il a aussi une autre perspective.
Ces dernières années, l’idée dominante du matériel d’IA a été « connecter tout le monde à une boîte de dialogue » : en gros, équiper chaque appareil d’une fenêtre de conversation. Pu Zhi pense que cette direction n’est pas la bonne. « Les consommateurs n’ont pas besoin d’un réfrigérateur qui sait écrire de la poésie. »
Le matériel d’IA réellement vivant, c’est celui qui entre dans des scénarios à haute fréquence que les utilisateurs ont déjà. L’IA accomplit alors ses fonctions silencieusement en arrière-plan, au lieu de forcer l’utilisateur à s’asseoir et à lui parler spécialement.
Un peu comme une caméra pour animaux : elle devrait pouvoir identifier automatiquement si le chat est malade ; ou comme une caméra dans un site touristique : elle accomplit automatiquement la prise de vue avec changement de tenue. L’utilisateur n’a rien à changer — l’IA fait son travail discrètement. « Si ce type de matériel peut adopter des modèles open source et être déployé, alors au moment où le trafic explose, cela deviendra aussi un client des capacités de calcul élastiques. » Pu Zhi estime que c’est aussi l’un des points de croissance futurs de Comji Technology.
Le deuxième jugement de Pu Zhi est plus caché, déjà formulé à la fin 2024, mais il a attendu cette année pour trouver une opportunité de le valider.
Selon lui, le fait que les gens s’adressent directement à l’IA pour dialoguer est lui-même une forme de gaspillage d’efficacité. La vitesse d’entrée et de sortie d’information chez l’humain a une limite : on ne peut poser qu’une question à la fois, puis attendre l’apparition de la réponse avant d’en poser une autre. Mais l’IA peut traiter des dizaines de milliers de threads en parallèle, et réaliser le transfert d’informations entre machines en l’espace de millisecondes. « Utiliser l’humain pour piloter l’IA, c’est utiliser le maillon le plus lent, ce qui ralentit tout le système. »
Ce qui devrait vraiment se produire, c’est une collaboration directe entre IA et IA : A2A. Une tâche est émise, et une série d’exécutions en chaîne d’IA s’enclenche ; l’humain n’a besoin de définir l’objectif, sans participer à chacune des étapes intermédiaires. C’est aussi pourquoi OpenClaw est aujourd’hui autant prisé. Et c’est aussi la raison pour laquelle Pu Zhi estime qu’OpenClaw est réellement important : ce n’est pas juste le produit en lui-même, mais le fait qu’il prouve une chose — entre IA, on peut former soi-même une communauté ; avec l’A2A, il y a des gens qui paient. Ce sens de développement est faisable.
Dès que le modèle A2A devient dominant, la consommation de capacités de calcul sera plusieurs fois, voire plusieurs dizaines de fois, celle d’aujourd’hui. Sur le GTC 2026, Huang Renxun a dit que, à cause de l’explosion de l’IA agentique et des capacités d’inférence, la quantité de calcul requise aujourd’hui est au moins 100 fois supérieure aux prévisions de l’an dernier, et ce n’est que le début. À ce moment-là, les capacités de calcul deviendront vraiment comme l’électricité : la question ne sera plus de savoir combien de cartes vous devez stocker, mais si tout le réseau de « réseau électrique des capacités de calcul » peut être distribué à la demande. La gestion des ressources de capacité de calcul arrive dans le domaine de l’orchestration.
Quand A2A arrive vraiment, les capacités de calcul deviendront, comme l’électricité, une infrastructure derrière chaque personne, chaque tâche, chaque nœud d’IA. À ce moment-là, qui pourra orchestrer précisément les capacités de calcul en tenant compte des régions, des équipements et des périodes — c’est celui qui maîtrisera la véritable capacité d’exploitation de ce réseau.
D’après Pu Zhi, ce que fait aujourd’hui Comji Technology, c’est se préparer à ce moment-là : utiliser cette fenêtre de deux à trois ans pour construire la capacité d’orchestration, le réseau des nœuds et les relations avec les clients. Quand la demande A2A explosera vraiment, ce système sera la véritable douve de Comji Technology.
Il a récemment envoyé une phrase à l’intérieur de l’entreprise. Vers la fin de l’entretien, il l’a répétée :
« Même ainsi, tout cela ne fait que commencer. »
Dans le contexte des capacités de calcul élastiques, cette phrase est peut-être juste une appréciation optimiste du marché par un entrepreneur. Mais dans le contexte A2A, le « commencement » dont il parle n’est peut-être pas le début de cette affaire, mais plutôt le moment où le concept selon lequel les capacités de calcul deviennent une infrastructure entre dans sa phase de véritable commencement.