人工知能 | オペラブラウザが主要なAIモデルをローカルダウンロードおよびオフライン使用のために統合

robot
概要作成中

主要なブラウザ企業であるOperaは、約50のモデルファミリーから150のローカルLLM (Large Language Model)バリアントの実験的サポートをOpera Oneブラウザの開発者ストリームに追加すると述べています。

LLMは、OpenAIによって開発されたGPT (生成事前学習変換器)のように、大量のテキストデータで訓練された高度な人工知能システムで、人間のようなテキストを理解し生成することができます。テキスト生成、翻訳、要約など、さまざまな自然言語処理タスクに使用されます。

オペラによると、これは、主要なブラウザの組み込み機能を通じて、ローカルLLMに簡単にアクセスし管理できる初めての機会です。ローカルAIモデルは、オペラのオンラインAria AIサービスに対する補完的な追加です。サポートされているローカルLLMには、次のものが含まれます:

* メタのラマ

  • ビクーニャ
  • GoogleのGemma
  • Mistral AIのMixtral

*「このようにローカルLLMを紹介することで、Operaは急速に進化するローカルAI分野での体験やノウハウを構築する方法を探求し始めることができます。」*とOperaのブラウザおよびゲーム担当EVP、クリスティアン・コロンドラは述べました。

ローカル大規模言語モデルを使用することで、ユーザーのデータはデバイス上にローカルに保持され、情報をサーバーに送信する必要なく生成AIを使用できるとOperaは述べました。

人工知能の議論において浮上している問題の一つはデータプライバシーであり、Fetch.ai、SingularityNET (SNET)、およびOcean Protocolの3つの主要な分散型AIプロジェクトが合併して分散型AIエコシステムを作成することを決定しました。

「本日、Opera One Developerユーザーは、自分の入力を処理するために希望するモデルを選択する機会を得ています。モデルをテストするためには、最新のOpera Developerにアップグレードし、新機能を有効にするためのいくつかのステップに従う必要があります。」 とOperaは述べました。

「ローカルLLMを選択すると、それがユーザーのマシンにダウンロードされます。ローカルLLMは、通常、バリアントごとに2-10 GBのローカルストレージスペースを必要とし、ユーザーがAIとの新しいチャットを開始するか、Ariaを再度オンにするまで、OperaのネイティブブラウザAIであるAriaの代わりに使用されます。」

最新の投稿や更新についてはTwitterでフォローしてください

MAJOR-2.68%
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • 共有
コメント
0/400
コメントなし
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)