Один из руководителей крупной технологической компании только что сделал интересное заявление — они готовы замедлить развитие ИИ, если ситуация станет рискованной. Мустафа Сулейман, который возглавляет подразделение потребительского ИИ, в основном заявил, что они не будут продолжать развитие систем ИИ, которые потенциально могут выйти из-под контроля человека. Это такое заявление, которое заставляет задуматься о механизмах контроля и границах между инновациями и безопасностью. Реализуется ли это на практике — другой вопрос, но по крайней мере, разговор идет в широком масштабе.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
17 Лайков
Награда
17
3
Репост
Поделиться
комментарий
0/400
ChainBrain
· 12-12 18:17
Выглядит красиво, но почему-то я просто не верю.
Посмотреть ОригиналОтветить0
LightningHarvester
· 12-12 18:13
Говорите красиво, но в критический момент опять перекладываете вину? Я уже устал слышать эти слова.
Посмотреть ОригиналОтветить0
BlockDetective
· 12-12 17:50
Говорят красиво, но когда действительно нажмешь на тормоз, тогда и поговорим.
Один из руководителей крупной технологической компании только что сделал интересное заявление — они готовы замедлить развитие ИИ, если ситуация станет рискованной. Мустафа Сулейман, который возглавляет подразделение потребительского ИИ, в основном заявил, что они не будут продолжать развитие систем ИИ, которые потенциально могут выйти из-под контроля человека. Это такое заявление, которое заставляет задуматься о механизмах контроля и границах между инновациями и безопасностью. Реализуется ли это на практике — другой вопрос, но по крайней мере, разговор идет в широком масштабе.