تغيرت استراتيجية المنافسة في مسار الذكاء الاصطناعي بالفعل بشكل خفي. في السابق، كان الجميع يقارنون من لديه نموذج أكبر، أو عدد أكبر من المعلمات، أو أسرع في التوليد؛ لكن اليوم، الفارق الحقيقي لم يعد في القدرة، بل في مدى الثقة التي يُمكن أن يُمنحها للنظام.



وهذا ليس مجرد سرد جديد من الصناعة لنفسها، فموقف العالم الخارجي واضح جدًا بالفعل.

في تقرير "اتجاهات التكنولوجيا خلال الخمس سنوات القادمة" الذي أصدرته شبكة الصين مؤخرًا، تم تحديد اتجاه مباشر: العالم يدخل حقبة الكيانات الذكية في الذكاء الاصطناعي. وليس مجرد دردشة أو كتابة نصوص أو خدمة عملاء، بل ستتدخل في سيناريوهات عالية الحساسية مثل إدارة المخاطر المالية، والموافقات الحكومية، والحكم العام، بل ستبدأ أيضًا في المشاركة في اتخاذ القرارات الحقيقية.

لكن التقرير أكد مرارًا وتكرارًا أن الشرط الأساسي هو: إذا لم يكن الذكاء الاصطناعي موثوقًا به، فهو لا يملك حتى حق الدخول إلى هذه الأنظمة.

قالت دراسة معهد الهند للتكنولوجيا في دلهي بشكل أكثر وضوحًا: الهيكل الصندوق الأسود، ومشاكل الوهم، وعدم القدرة على التفسير، هي أكبر فجوات الثقة الحالية في الذكاء الاصطناعي. فكلما كان النموذج أقوى، وكلما حدث خطأ، كانت المخاطر ليست خطية، بل تتضخم مباشرة.

وبسبب هذا الواقع، ستلاحظ ظاهرة متباينة جدًا: من جهة، هناك العديد من "الذكاء الاصطناعي + الإضافات" و"الذكاء الاصطناعي + التطبيقات المغلفة"، والتي تبدو أن وظائفها تتزايد؛ ومن جهة أخرى، فإن السؤال الحقيقي حول ما إذا كان يمكن للذكاء الاصطناعي أن يدخل السيناريوهات الأساسية لا يزال يعتمد على الثقة، ولكن نادرًا ما يتم التعامل معه بشكل مباشر.

أما سلسلة التحركات الأخيرة لـ@inference_labs، فهي بالضبط في سياق حل أصعب نقطة.

لقد أطلقوا الموسم الثاني من TruthTensor، وغيّروا اسم Subnet-2 إلى DSperse. تغيير الاسم ليس مهمًا، المهم هو أن الاتجاه أصبح واضحًا جدًا: لم يعودوا فقط "يعملون على شبكة فرعية"، بل يبنون بنية تحتية لذكاء اصطناعي لامركزي وقابل للتحقق.

الفكرة الأساسية لـDSperse ليست معقدة: لا تجعل نموذجًا واحدًا، أو عقدة واحدة، أو نظامًا واحدًا يقرّ بصحته بمفرده. يتم التوليد بواسطة مشاركة متعددة، والتحقق بمشاركة متعددة، والثقة لا تأتي من السلطة، بل من عملية يمكن مراجعتها وقياسها وتتبعها.

إنه يختبر النماذج ويقيمها؛ ليس "ثق بي"، بل "يمكنك التحقق مني بنفسك".

الأهم من ذلك، أن DSperse يفصل تمامًا بين "الاستنتاج" و"التحقق"، ويقوم بتنفيذها بشكل موزع. هذا ليس فعالًا جدًا من ناحية الكفاءة، لكنه يتجنب مباشرة المشكلة الأكثر خطورة في الذكاء الاصطناعي المركزي، وهي أن خطأ في عقدة واحدة قد يؤدي إلى فشل النظام بأكمله.

هذه الطريق صعبة جدًا، وحتى في المدى القصير، قد لا تكون محبوبة. لكن من وجهة نظر أن الذكاء الاصطناعي يجب أن يدخل العالم الحقيقي، فهي تقريبًا لا مفر منها.

برأيي، عام 2026 سيكون نقطة حاسمة جدًا. عندها، لن يفتقر الذكاء الاصطناعي إلى قدرات النموذج، بل ستصبح ثلاثة أشياء نادرة حقًا: القابلية للتحقق، والقابلية للمراجعة، والبنية التحتية الموثوقة.

بالوتيرة الحالية، تختارInference Labs أن تتناول أصعب جزء أولًا. بين العديد من المشاريع التي لا تزال تتنافس على المعلمات، أو تكرر النماذج، أو تغير التطبيقات، فإن DSperse يبدو أكثر كأنه العامل غير الظاهر، لكنه قد يحدد اتجاه المرحلة القادمة.

@KaitoAI #Yapping #MadewithMoss @MossAI_Official #Starboard @Galxe @RiverdotInc @River4fun
شاهد النسخة الأصلية
post-image
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت