Вот в чем дело с ИИ — если кормить его собственным выводом достаточно долго, все идет под откос. Каждое новое поколение становится все более запутанным, искажения накапливаются, и в итоге у вас получается модель, которая в основном бесполезна.



Так как же разорвать этот цикл? Держать людей в цепочке. Это основная идея: человеческие рецензенты становятся опорой каждой итерации обучения, а не второстепенным элементом. Когда вы связываете развитие модели с реальным человеческим суждением, а не позволяете алгоритмам глотать собственный хвост, вы фактически поддерживаете качество.

Распределенные системы, работающие таким образом? Вот где становится интересно. Вы не сосредоточены вокруг одной слепой зоны, и не заперты в ожидании, пока ИИ постепенно отравит сам себя. Вместо этого у вас есть сетевой подход, который остается основанным на реальном человеческом контроле.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 5
  • Репост
  • Поделиться
комментарий
0/400
CryptoFortuneTellervip
· 01-09 09:18
Эта логика на самом деле должна была стать широко распространенной давно, самопроизвольное циклирование модели — это самопорча... Уже давно нужно было кому-то ясно объяснить эту вещь
Посмотреть ОригиналОтветить0
GweiWatchervip
· 01-09 09:01
Метафора "AI кусает свой собственный хвост" отличная, но честно говоря, система ручной проверки сможет ли она масштабироваться...
Посмотреть ОригиналОтветить0
TxFailedvip
· 01-06 13:51
ngl это просто "мусор на входе — мусор на выходе" с дополнительными шагами, но да, идея с участием человека действительно решает какую-то реальную проблему. научился этому на собственном опыте, наблюдая, как качество моделей ухудшается за три цикла обучения lol
Посмотреть ОригиналОтветить0
pumpamentalistvip
· 01-06 13:43
Совершенно верно, если ИИ будет есть свою собственную грязь, рано или поздно у него начнется понос. Всё равно нужно полагаться на человека для контроля, иначе модель будет становиться всё хуже и хуже.
Посмотреть ОригиналОтветить0
SelfRuggervip
· 01-06 13:34
Совершенно верно, AI, который ест собственный кал, рано или поздно потерпит крах. Всё равно нужно полагаться на человека для контроля
Посмотреть ОригиналОтветить0
  • Закрепить