لماذا لا أعتبر @Kindred_AI مشروع ذكاء اصطناعي، بل أراه كنوع من «تجربة العلاقات»



لطالما لم أضع Kindred ضمن إطار مشاريع الذكاء الاصطناعي التقليدية. ليس لأنها لا تقوم بالذكاء الاصطناعي، بل لأنه إذا فهمت الأمر فقط من زاوية قدرات النموذج، والتحديثات الوظيفية، فسيكون النظر غير دقيق. الشيء الحقيقي الذي يهمني في Kindred، ليس «ما يمكنها فعله»، بل محاولتها جعل المستخدم والذكاء الاصطناعي يبنيان علاقة طويلة الأمد ومتواصلة.

قد يبدو هذا غامضًا، لكنه في الواقع يقوم بشيء محدد جدًا: اعتبار «العلاقة» ذاتها كمتغير أساسي للمنتج، وليس كميزة إضافية. معظم مشاريع الذكاء الاصطناعي تحل مشكلة الكفاءة، أو الحصول على المعلومات، وعند الانتهاء من الاستخدام، تنتهي العلاقة أيضًا.

أما Kindred فهي مختلفة قليلاً. فهي أشبه باختبار شيء — هل سيظل المستخدم يذكر، ويرد، ويتغير مع التفاعل، وهل سيكون مستعدًا للاستثمار وقتًا، وربما عاطفة، بشكل مستمر؟ هذا الأمر لا يمكن الإجابة عليه فقط من خلال معلمات النموذج أو قائمة الوظائف.

ولهذا السبب، أفضّل أن أعتبرها تجربة، وليس استنتاجًا نهائيًا. العلاقات بطبيعتها غير مستقرة، وليست خطية، ولا تصلح للتحقق من صحتها باستخدام بيانات قصيرة المدى. من هذا المنظور، فإن تركيز Kindred على المحتوى ومستوى الإدراك، بدلاً من مجرد دفع البيانات الإنتاجية، هو خيار جريء ومتسق منطقياً.

هل يمكن أن يكون هذا الأمر صحيحًا؟ من المبكر جدًا إصدار حكم الآن. لكن على الأقل، هو يطرح سؤالًا أصعب وأكثر قيمة من مجرد «هل يمكن للذكاء الاصطناعي أن يصبح أذكى؟». أما ما ستكون إجابته، فسأتابع المراقبة.
شاهد النسخة الأصلية
post-image
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت