$DOCN PDG lors de la conférence sur les résultats d’aujourd’hui :
« Nous avons réalisé une augmentation de 100 % du débit et une réduction d’environ 50 % du coût par jeton pour Character AI sur notre cloud d’inférence en production alimenté par $AMD GPU Instinct. Ce n’était pas un benchmark en laboratoire. C’était du trafic en production en direct servant des dizaines de millions d’utilisateurs, prouvant que nous pouvons exécuter des inférences à grande échelle pour les principales entreprises d’IA avec une plateforme conçue pour l’inférence en priorité pour les charges de travail du monde réel. »
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
$DOCN PDG lors de la conférence sur les résultats d’aujourd’hui :
« Nous avons réalisé une augmentation de 100 % du débit et une réduction d’environ 50 % du coût par jeton pour Character AI sur notre cloud d’inférence en production alimenté par $AMD GPU Instinct.
Ce n’était pas un benchmark en laboratoire. C’était du trafic en production en direct servant des dizaines de millions d’utilisateurs, prouvant que nous pouvons exécuter des inférences à grande échelle pour les principales entreprises d’IA avec une plateforme conçue pour l’inférence en priorité pour les charges de travail du monde réel. »