إليك الأمر حول الذكاء الاصطناعي—إذا قدمت له مخرجاته الخاصة لفترة كافية، فإن كل شيء يتدهور. كل جيل يصبح أكثر فوضى، وتتراكم التشويهات، وفي النهاية يصبح لديك نموذج غير ذي فائدة أساسًا.
فكيف تكسر تلك الدورة؟ من خلال إبقاء البشر في الحلقة. هذه هي الفكرة الأساسية: يصبح المراجعون البشريون العمود الفقري لكل دورة تدريبية، وليس مجرد تفكير لاحق. عندما تربط تطوير النموذج بالحكم البشري الحقيقي بدلاً من السماح للخوارزميات بأكل ذيلها، فإنك تحافظ على الجودة فعليًا.
هل الأنظمة الموزعة التي تعمل بهذه الطريقة؟ هنا يصبح الأمر ممتعًا. أنت لست مركزًا حول نقطة عمياء واحدة، ولست محصورًا في مشاهدة الذكاء الاصطناعي يسمم نفسه تدريجيًا. بدلاً من ذلك، لديك نهج شبكة يبقى متجذرًا في الرقابة البشرية الفعلية.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تسجيلات الإعجاب 17
أعجبني
17
5
إعادة النشر
مشاركة
تعليق
0/400
CryptoFortuneTeller
· 01-09 09:18
هذه المنطق كان من المفترض أن يكون قد تم تعميمه منذ زمن، فالتكرار الذاتي للنموذج هو تلوث ذاتي... كان من المفترض أن يوضح أحد الأمر بوضوح.
شاهد النسخة الأصليةرد0
GweiWatcher
· 01-09 09:01
تخيل أن الذكاء الاصطناعي يأكل ذيله، هذا التشبيه رائع، لكن بصراحة، هل يمكن لنظام المراجعة اليدوية أن يتوسع؟
شاهد النسخة الأصليةرد0
TxFailed
· 01-06 13:51
نعم، هذا مجرد "مدخلات غير جيدة تخرج نتائج غير جيدة" مع خطوات إضافية، لكن نعم، الزاوية التي تعتمد على الإنسان في الحلقة فعلاً تصلح شيئًا حقيقيًا هنا. تعلمت ذلك بالطريقة الصعبة عندما تدهورت مخرجات النموذج على مدى ثلاث دورات تدريبية، لوول
شاهد النسخة الأصليةرد0
pumpamentalist
· 01-06 13:43
ما قلته صحيح، فالذكاء الاصطناعي الذي يأكل فضلاته في النهاية سيصاب بالإسهال. لا بد من الاعتماد على البشر للمراقبة، وإلا ستصبح النماذج أسوأ وأأسوأ.
شاهد النسخة الأصليةرد0
SelfRugger
· 01-06 13:34
ما قلته صحيح، الذكاء الاصطناعي الذي يأكل فضلاته في النهاية سينتهي به الأمر. لا بد من الاعتماد على الإنسان للمراقبة
إليك الأمر حول الذكاء الاصطناعي—إذا قدمت له مخرجاته الخاصة لفترة كافية، فإن كل شيء يتدهور. كل جيل يصبح أكثر فوضى، وتتراكم التشويهات، وفي النهاية يصبح لديك نموذج غير ذي فائدة أساسًا.
فكيف تكسر تلك الدورة؟ من خلال إبقاء البشر في الحلقة. هذه هي الفكرة الأساسية: يصبح المراجعون البشريون العمود الفقري لكل دورة تدريبية، وليس مجرد تفكير لاحق. عندما تربط تطوير النموذج بالحكم البشري الحقيقي بدلاً من السماح للخوارزميات بأكل ذيلها، فإنك تحافظ على الجودة فعليًا.
هل الأنظمة الموزعة التي تعمل بهذه الطريقة؟ هنا يصبح الأمر ممتعًا. أنت لست مركزًا حول نقطة عمياء واحدة، ولست محصورًا في مشاهدة الذكاء الاصطناعي يسمم نفسه تدريجيًا. بدلاً من ذلك، لديك نهج شبكة يبقى متجذرًا في الرقابة البشرية الفعلية.