Google a annoncé que la fonctionnalité de traduction instantanée de l’intelligence artificielle Gemini s’étendait de la plateforme Android à iOS, et ce, simultanément sur plusieurs marchés, dont le Royaume-Uni, le Japon, Taïwan et l’Allemagne. Cette mise à jour vise à offrir un service de traduction vocale instantanée avec une meilleure compréhension du contexte et un ton plus naturel grâce à des appareils mobiles et des dispositifs portables, la principale innovation étant que l’application peut être utilisée avec des écouteurs Bluetooth de n’importe quelle marque, sans se limiter aux spécifications d’Apple.
L’application de traduction instantanée iOS peut être utilisée avec des écouteurs Bluetooth de n’importe quelle marque.
Auparavant, les fonctionnalités de traduction instantanée de certaines marques étaient souvent limitées à un matériel exclusif. La fonction « traduction instantanée par écouteurs » lancée par Google adopte une architecture ouverte, permettant aux utilisateurs de télécharger l’application Google Traduction sur leur iPhone ou iPad et d’utiliser n’importe quel écouteur Bluetooth sans fil. Cette nouvelle fonctionnalité peut être utilisée sur différents appareils, permettant aux utilisateurs iOS d’obtenir des informations instantanées en déplacement. La technologie sous-jacente est propulsée par le modèle Gemini 3.1 Flash Live, mettant l’accent sur un traitement audio à faible latence, et prend en charge plus de 70 langues, renforçant ainsi la valeur pratique de cet outil dans les contextes de commerce international et de voyages personnels.
L’intelligence artificielle optimise la naturalité de la traduction vocale.
Comparé à la traduction littérale traditionnelle, l’outil de traduction intégrant la technologie Gemini met davantage l’accent sur l’analyse sémantique et la préservation des émotions. Le système, lorsqu’il traite la voix, ne se contente pas de traduire les mots, mais essaie également de simuler le ton, l’accent et le rythme du locuteur original, réduisant ainsi la sensation d’éloignement causée par une voix mécanique. Lors de la gestion des idiomes ou des expressions familières, l’intelligence artificielle peut fournir des suggestions de traduction plus précises en fonction du contexte, traduisant les expressions idiomatiques anglaises en termes ayant un sens culturel local.
Mise à jour synchronisée de la traduction vocale dans Google Meet.
La fonctionnalité de traduction vocale a été officiellement lancée pour les utilisateurs de Google Workspace et les comptes personnels du programme Google AI. Elle ajoute en temps réel un doublage audio à la voix du locuteur. Ainsi, les participants peuvent entendre la traduction dans leur langue maternelle tout en comprenant le contexte émotionnel du locuteur. Actuellement, elle prend en charge la traduction bidirectionnelle entre l’anglais et plusieurs langues, dont l’espagnol, le français, l’allemand, le portugais et l’italien.
Fonctionnalités multimodales pour une perception environnementale.
En plus de la communication vocale, Google a également renforcé le champ d’application de l’intelligence artificielle multimodale. Grâce à la fonctionnalité « recherche instantanée » et à l’appareil photo Google Lens, les utilisateurs peuvent directement cibler des panneaux de signalisation, des menus ou des manuels pour effectuer des traductions instantanées et engager des conversations détaillées avec Gemini. En matière d’apprentissage des langues, l’application Google Traduction a élargi ses fonctionnalités de pratique orale, en lançant un mécanisme de retour amélioré dans 20 pays, dont Taïwan, la Suède et l’Inde. Ce système peut fournir des suggestions concrètes sur la prononciation orale des utilisateurs et les aider à atteindre leurs objectifs d’apprentissage linguistique en suivant les progrès (comme le nombre de jours de pratique consécutifs), améliorant ainsi l’expérience d’apprentissage personnalisée.
Lancement d’une paire de lunettes intelligentes à porter au second semestre.
Google collaborera avec des fabricants tels que Samsung et Warby Parker, avec l’intention de lancer au plus tôt au second semestre 2026 des lunettes intelligentes dotées de fonctionnalités d’intelligence artificielle. L’une des applications clés de ce produit est la technologie d’affichage intégrée aux lentilles, qui peut fournir des « sous-titres instantanés » dans le champ de vision de l’utilisateur, projetant directement le texte traduit dans le contexte réel. Le développement de ce type de dispositif portable symbolise l’évolution de la technologie de traduction, passant d’un simple affichage sur écran à un service de perception environnementale intégrant la vision et l’audition. Actuellement, cette série de fonctionnalités est en phase de test et de déploiement progressif, et des optimisations du modèle seront effectuées en fonction des retours des utilisateurs de chaque pays.
Cet article sur l’annonce par Google de l’extension de la fonctionnalité de traduction instantanée de Gemini à iOS est apparu pour la première fois dans le média chaîne ABMedia.