SenseTimeの「Shusheng Puyu」2.0大規模言語モデルはオープンソースです:200Kコンテキスト、一度に300,000文字の漢字を読むことができます

Bit Pakistan – SenseTimeとShanghai AI Labは本日、香港中文大学と復旦大学と共同で、新世代の大規模言語モデルScholar Puyu 2.0(InternLM2)をリリースしました。

報告によると、InternLM2は2兆6,000億トークンのコーパスでトレーニングされています。 第1世代の学者とPuyu(InternLM)の設定に続いて、InternLM2には7Bと20Bの2つのパラメータ仕様と、オープンソースであり続け、無料の商用ライセンスを提供する基本バージョンとダイアログバージョンが含まれています。 現在、Puyuの背後にあるデータクリーニングおよびフィルタリングテクノロジーは、3回の反復アップグレードを経ており、トレーニングデータの約60%のみを使用して、第2世代データで1Tトークンのトレーニングのパフォーマンスを達成できると主張しています。

報告によると、トレーニングウィンドウサイズの拡張と位置コーディングの改善により、InternLM2は200,000トークンのコンテキストをサポートし、一度に約300,000の漢字(約5〜600ページのドキュメント)の入力コンテンツを受け入れて処理することができます。 InternLM2は、20Bスケール半ばでChatGPTの全体的なパフォーマンスに近いです。

TOKEN-2.39%
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
  • ピン
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)