A empresa de navegadores líder, Opera, afirma que está adicionando suporte experimental para 150 LLM locais (Modelos de Linguagem de Grande Escala) variantes de aproximadamente 50 famílias de modelos ao seu navegador Opera One na versão para desenvolvedores.
Os LLMs, como o GPT (Transformador Pré-treinado Generativo) desenvolvidos pela OpenAI, são sistemas avançados de inteligência artificial treinados em grandes quantidades de dados textuais para entender e gerar texto semelhante ao humano. Eles são utilizados para várias tarefas de processamento de linguagem natural, incluindo geração de texto, tradução e sumarização.
De acordo com a Opera, esta é a primeira vez que os LLMs locais podem ser facilmente acedidos e geridos a partir de um navegador importante através de uma funcionalidade integrada. Os modelos de IA locais são uma adição complementar ao serviço Aria AI online da Opera. Entre os LLMs locais suportados estão:
* Llama da Meta
Vicuna
Gemma do Google
Mixtral da Mistral AI
"A introdução de LLMs locais desta forma permite à Opera começar a explorar maneiras de construir experiências e know-how dentro do espaço de IA local em rápida emergência," disse Krystian Kolondra, EVP Browsers e Gaming na Opera.
Usar Modelos de Linguagem de Grande Escala Locais significa que os dados dos usuários são mantidos localmente no seu dispositivo, permitindo que utilizem IA generativa sem a necessidade de enviar informações para um servidor, disse a Opera.
Entre os problemas que emergem no discurso sobre inteligência artificial, preocupa a privacidade dos dados, que levou três projetos de IA descentralizada de destaque; Fetch.ai, SingularityNET (SNET), e Ocean Protocol a decidir unir-se para criar um ecossistema de IA descentralizada.
“A partir de hoje, os utilizadores do Opera One Developer têm a oportunidade de selecionar o modelo que desejam usar para processar a sua entrada. Para testar os modelos, têm de atualizar para a versão mais recente do Opera Developer e seguir vários passos para ativar a nova funcionalidade,” disse a Opera.
“Escolher um LLM local fará com que ele seja baixado para a máquina do utilizador. O LLM local, que tipicamente requer de 2 a 10 GB de espaço de armazenamento local por variante, será então utilizado em vez do Aria, a inteligência artificial nativa do navegador Opera, até que o utilizador inicie um novo chat com a IA ou reative o Aria.”
Siga-nos no Twitter para as últimas publicações e atualizações
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
INTELIGÊNCIA ARTIFICIAL | O navegador Opera integra principais modelos de IA para download local e uso offline
A empresa de navegadores líder, Opera, afirma que está adicionando suporte experimental para 150 LLM locais (Modelos de Linguagem de Grande Escala) variantes de aproximadamente 50 famílias de modelos ao seu navegador Opera One na versão para desenvolvedores.
Os LLMs, como o GPT (Transformador Pré-treinado Generativo) desenvolvidos pela OpenAI, são sistemas avançados de inteligência artificial treinados em grandes quantidades de dados textuais para entender e gerar texto semelhante ao humano. Eles são utilizados para várias tarefas de processamento de linguagem natural, incluindo geração de texto, tradução e sumarização.
De acordo com a Opera, esta é a primeira vez que os LLMs locais podem ser facilmente acedidos e geridos a partir de um navegador importante através de uma funcionalidade integrada. Os modelos de IA locais são uma adição complementar ao serviço Aria AI online da Opera. Entre os LLMs locais suportados estão:
"A introdução de LLMs locais desta forma permite à Opera começar a explorar maneiras de construir experiências e know-how dentro do espaço de IA local em rápida emergência," disse Krystian Kolondra, EVP Browsers e Gaming na Opera.
Usar Modelos de Linguagem de Grande Escala Locais significa que os dados dos usuários são mantidos localmente no seu dispositivo, permitindo que utilizem IA generativa sem a necessidade de enviar informações para um servidor, disse a Opera.
Entre os problemas que emergem no discurso sobre inteligência artificial, preocupa a privacidade dos dados, que levou três projetos de IA descentralizada de destaque; Fetch.ai, SingularityNET (SNET), e Ocean Protocol a decidir unir-se para criar um ecossistema de IA descentralizada.
“A partir de hoje, os utilizadores do Opera One Developer têm a oportunidade de selecionar o modelo que desejam usar para processar a sua entrada. Para testar os modelos, têm de atualizar para a versão mais recente do Opera Developer e seguir vários passos para ativar a nova funcionalidade,” disse a Opera.
“Escolher um LLM local fará com que ele seja baixado para a máquina do utilizador. O LLM local, que tipicamente requer de 2 a 10 GB de espaço de armazenamento local por variante, será então utilizado em vez do Aria, a inteligência artificial nativa do navegador Opera, até que o utilizador inicie um novo chat com a IA ou reative o Aria.”
Siga-nos no Twitter para as últimas publicações e atualizações