La société de navigateur leader, Opera, déclare qu'elle ajoute un support expérimental pour 150 LLM locaux (Large Language Model) variants provenant d'environ 50 familles de modèles à son navigateur Opera One dans le flux développeur.
Les LLM tels que GPT (Generative Pre-trained Transformer) développés par OpenAI, sont des systèmes d'intelligence artificielle avancés formés sur de grandes quantités de données textuelles pour comprendre et générer du texte semblable à celui des humains. Ils sont utilisés pour diverses tâches de traitement du langage naturel, y compris la génération de texte, la traduction et le résumé.
Selon Opera, c'est la première fois que les LLM locaux peuvent être facilement accessibles et gérés depuis un navigateur majeur grâce à une fonctionnalité intégrée. Les modèles d'IA locaux sont un ajout complémentaire au service Aria AI en ligne d'Opera. Parmi les LLM locaux pris en charge, on trouve :
* Llama de Meta
Vicuna
Gemma de Google
Mixtral de Mistral AI
« Introduire les LLM locaux de cette manière permet à Opera de commencer à explorer des façons de créer des expériences et de savoir-faire dans l'espace IA local en pleine émergence », a déclaré Krystian Kolondra, EVP Navigateurs et Jeux chez Opera.
L'utilisation de modèles de langage locaux signifie que les données des utilisateurs sont conservées localement sur leur appareil, leur permettant d'utiliser l'IA générative sans avoir besoin d'envoyer des informations à un serveur, a déclaré Opera.
Parmi les problèmes émergents dans le discours sur l'intelligence artificielle, la confidentialité des données est une préoccupation, ce qui a conduit trois projets d'IA décentralisés de premier plan ; Fetch.ai, SingularityNET (SNET), et Ocean Protocol à décider de fusionner pour créer un écosystème d'IA décentralisé.
"À partir d'aujourd'hui, les utilisateurs d'Opera One Developer ont l'opportunité de sélectionner le modèle qu'ils souhaitent utiliser pour traiter leur saisie. Pour tester les modèles, ils doivent mettre à niveau vers la dernière version d'Opera Developer et suivre plusieurs étapes pour activer la nouvelle fonctionnalité," a déclaré Opera.
"Choisir un LLM local le téléchargera ensuite sur leur machine. Le LLM local, qui nécessite généralement entre 2 et 10 Go d'espace de stockage local par variante, sera ensuite utilisé à la place d'Aria, l'IA de navigateur native d'Opera, jusqu'à ce qu'un utilisateur commence une nouvelle conversation avec l'IA ou réactive Aria."
Suivez-nous sur Twitter pour les dernières publications et mises à jour
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
INTELLIGENCE ARTIFICIELLE | Le navigateur Opera intègre des modèles d'IA majeurs pour un téléchargement local et une utilisation hors ligne
La société de navigateur leader, Opera, déclare qu'elle ajoute un support expérimental pour 150 LLM locaux (Large Language Model) variants provenant d'environ 50 familles de modèles à son navigateur Opera One dans le flux développeur.
Les LLM tels que GPT (Generative Pre-trained Transformer) développés par OpenAI, sont des systèmes d'intelligence artificielle avancés formés sur de grandes quantités de données textuelles pour comprendre et générer du texte semblable à celui des humains. Ils sont utilisés pour diverses tâches de traitement du langage naturel, y compris la génération de texte, la traduction et le résumé.
Selon Opera, c'est la première fois que les LLM locaux peuvent être facilement accessibles et gérés depuis un navigateur majeur grâce à une fonctionnalité intégrée. Les modèles d'IA locaux sont un ajout complémentaire au service Aria AI en ligne d'Opera. Parmi les LLM locaux pris en charge, on trouve :
« Introduire les LLM locaux de cette manière permet à Opera de commencer à explorer des façons de créer des expériences et de savoir-faire dans l'espace IA local en pleine émergence », a déclaré Krystian Kolondra, EVP Navigateurs et Jeux chez Opera.
L'utilisation de modèles de langage locaux signifie que les données des utilisateurs sont conservées localement sur leur appareil, leur permettant d'utiliser l'IA générative sans avoir besoin d'envoyer des informations à un serveur, a déclaré Opera.
Parmi les problèmes émergents dans le discours sur l'intelligence artificielle, la confidentialité des données est une préoccupation, ce qui a conduit trois projets d'IA décentralisés de premier plan ; Fetch.ai, SingularityNET (SNET), et Ocean Protocol à décider de fusionner pour créer un écosystème d'IA décentralisé.
"À partir d'aujourd'hui, les utilisateurs d'Opera One Developer ont l'opportunité de sélectionner le modèle qu'ils souhaitent utiliser pour traiter leur saisie. Pour tester les modèles, ils doivent mettre à niveau vers la dernière version d'Opera Developer et suivre plusieurs étapes pour activer la nouvelle fonctionnalité," a déclaré Opera.
"Choisir un LLM local le téléchargera ensuite sur leur machine. Le LLM local, qui nécessite généralement entre 2 et 10 Go d'espace de stockage local par variante, sera ensuite utilisé à la place d'Aria, l'IA de navigateur native d'Opera, jusqu'à ce qu'un utilisateur commence une nouvelle conversation avec l'IA ou réactive Aria."
Suivez-nous sur Twitter pour les dernières publications et mises à jour