Автономные системы никогда не боятся ошибок, их настоящая проблема — это когда случается что-то, и никто не может ясно объяснить, почему они поступили именно так.



Люди могут принять ошибочные суждения, но очень трудно смириться с таким состоянием:
Результат уже достигнут, а путь принятия решения остается черным ящиком.

Многие ИИ застревают в сценариях высокого риска и не могут сделать шаг вперед, не потому что их возможности недостаточны, а потому что их логика принятия решений просто не поддается внешней проверке.

Выбор @inference_labs очень ясен:
Не тратить усилия на объяснение того, что «думает» модель, а сразу доказать, что ее поведение не выходит за рамки.

Соответствует ли поведение правилам, соблюдаются ли нормы, можно ли проследить процесс принятия решения.
В мире автономных систем это зачастую важнее, чем «объяснить все логично».
Посмотреть Оригинал
post-image
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить