تقول شركة أوبرا، الرائدة في مجال المتصفحات، إنها تضيف دعمًا تجريبيًا لـ 150 نموذج LLM محلي (Large Language Model) من حوالي 50 عائلة من النماذج إلى متصفح أوبرا ون في تدفق المطور.
تعتبر نماذج LLMs مثل GPT ( Generative Pre-trained Transformer) التي طورتها OpenAI، أنظمة ذكاء اصطناعي متقدمة مدربة على كميات كبيرة من بيانات النص لفهم وتوليد نصوص تشبه النصوص البشرية. تُستخدم هذه النماذج لمهام معالجة اللغة الطبيعية المختلفة، بما في ذلك توليد النصوص، والترجمة، والتلخيص.
وفقًا لأوبرا، هذه هي المرة الأولى التي يمكن فيها الوصول إلى LLMs المحلية وإدارتها بسهولة من متصفح رئيسي من خلال ميزة مدمجة. تعتبر نماذج الذكاء الاصطناعي المحلية إضافة مجانية لخدمة أوبرا أريا AI عبر الإنترنت. من بين LLMs المحلية المدعومة هي:
! * لاما من Meta
فيكونا
جيمما من جوجل
ميكسترا من ميسترال إيه آي
"تقديم نماذج اللغة المحلية بهذه الطريقة يسمح لأوبرا ببدء استكشاف طرق لبناء تجارب ومعرفة ضمن مجال الذكاء الاصطناعي المحلي السريع النشوء"، قال كريستيان كولوندر، نائب الرئيس التنفيذي لمتصفحات وألعاب أوبرا.
استخدام نماذج اللغة الكبيرة المحلية يعني أن بيانات المستخدمين تُحتفظ محليًا على أجهزتهم، مما يسمح لهم باستخدام الذكاء الاصطناعي التوليدي دون الحاجة إلى إرسال المعلومات إلى خادم، حسبما قالت أوبرا.
من بين القضايا التي تظهر في discourse الذكاء الاصطناعي هي خصوصية البيانات، التي شهدت اندماج ثلاثة مشاريع رائدة في الذكاء الاصطناعي اللامركزي؛ Fetch.ai و SingularityNET (SNET) و Ocean Protocol لإنشاء نظام بيئي للذكاء الاصطناعي اللامركزي.
"اعتبارًا من اليوم، يحصل مستخدمو Opera One Developer على فرصة اختيار النموذج الذي يرغبون في استخدامه لمعالجة مدخلاتهم. لاختبار النماذج، عليهم الترقية إلى أحدث إصدار من Opera Developer واتباع عدة خطوات لتفعيل الميزة الجديدة،" قالت أوبرا.
"اختيار LLM محلي سيقوم بعد ذلك بتنزيله على جهازهم. سيتم استخدام LLM المحلي، الذي يتطلب عادةً 2-10 جيجابايت من مساحة التخزين المحلية لكل نوع، بدلاً من Aria، الذكاء الاصطناعي المدمج في متصفح Opera، حتى يبدأ المستخدم محادثة جديدة مع الذكاء الاصطناعي أو يقوم بتشغيل Aria مرة أخرى."
تابعونا على تويتر للحصول على أحدث المنشورات والتحديثات
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
الذكاء الاصطناعي | متصفح أوبرا يدمج نماذج الذكاء الاصطناعي الرئيسية للتنزيل المحلي والاستخدام دون اتصال
تقول شركة أوبرا، الرائدة في مجال المتصفحات، إنها تضيف دعمًا تجريبيًا لـ 150 نموذج LLM محلي (Large Language Model) من حوالي 50 عائلة من النماذج إلى متصفح أوبرا ون في تدفق المطور.
تعتبر نماذج LLMs مثل GPT ( Generative Pre-trained Transformer) التي طورتها OpenAI، أنظمة ذكاء اصطناعي متقدمة مدربة على كميات كبيرة من بيانات النص لفهم وتوليد نصوص تشبه النصوص البشرية. تُستخدم هذه النماذج لمهام معالجة اللغة الطبيعية المختلفة، بما في ذلك توليد النصوص، والترجمة، والتلخيص.
وفقًا لأوبرا، هذه هي المرة الأولى التي يمكن فيها الوصول إلى LLMs المحلية وإدارتها بسهولة من متصفح رئيسي من خلال ميزة مدمجة. تعتبر نماذج الذكاء الاصطناعي المحلية إضافة مجانية لخدمة أوبرا أريا AI عبر الإنترنت. من بين LLMs المحلية المدعومة هي:
! * لاما من Meta
"تقديم نماذج اللغة المحلية بهذه الطريقة يسمح لأوبرا ببدء استكشاف طرق لبناء تجارب ومعرفة ضمن مجال الذكاء الاصطناعي المحلي السريع النشوء"، قال كريستيان كولوندر، نائب الرئيس التنفيذي لمتصفحات وألعاب أوبرا.
استخدام نماذج اللغة الكبيرة المحلية يعني أن بيانات المستخدمين تُحتفظ محليًا على أجهزتهم، مما يسمح لهم باستخدام الذكاء الاصطناعي التوليدي دون الحاجة إلى إرسال المعلومات إلى خادم، حسبما قالت أوبرا.
من بين القضايا التي تظهر في discourse الذكاء الاصطناعي هي خصوصية البيانات، التي شهدت اندماج ثلاثة مشاريع رائدة في الذكاء الاصطناعي اللامركزي؛ Fetch.ai و SingularityNET (SNET) و Ocean Protocol لإنشاء نظام بيئي للذكاء الاصطناعي اللامركزي.
"اعتبارًا من اليوم، يحصل مستخدمو Opera One Developer على فرصة اختيار النموذج الذي يرغبون في استخدامه لمعالجة مدخلاتهم. لاختبار النماذج، عليهم الترقية إلى أحدث إصدار من Opera Developer واتباع عدة خطوات لتفعيل الميزة الجديدة،" قالت أوبرا.
"اختيار LLM محلي سيقوم بعد ذلك بتنزيله على جهازهم. سيتم استخدام LLM المحلي، الذي يتطلب عادةً 2-10 جيجابايت من مساحة التخزين المحلية لكل نوع، بدلاً من Aria، الذكاء الاصطناعي المدمج في متصفح Opera، حتى يبدأ المستخدم محادثة جديدة مع الذكاء الاصطناعي أو يقوم بتشغيل Aria مرة أخرى."
تابعونا على تويتر للحصول على أحدث المنشورات والتحديثات