Соучредитель Ethereum Виталик Бутерин недавно опубликовал пост в X (бывший Twitter), в котором прямо заявил, что “управление искусственным интеллектом” представляет собой серьезные риски и может привести к огромным финансовым потерям. Его комментарии основаны на беспокойстве по поводу уязвимостей безопасности AI платформ, и он предложил более надежный альтернативный вариант управления.
Выступление Бутерина было ответом на предупреждение соучредителя платформы управления данными ИИ EdisonWatch Эйто Миямуры. Миямура раскрыл, что после полного внедрения поддержки инструмента MCP (протокол модели контекста) безопасность резко увеличилась.
Это обновление позволяет ChatGPT напрямую подключаться и считывать данные приложений, таких как Gmail, Календарь, Notion и др., но это также предоставляет возможность для атакующих:
Отправка вредоносного календарного приглашения с “подсказкой о джейлбрейке” позволит обойти ограничения и получить права администратора.
Жертвы, даже не принявшие приглашение, могут вызвать уязвимость, когда ChatGPT помогает организовать расписание.
Как только система будет захвачена, злоумышленник сможет удаленно извлекать личные письма и данные жертвы и отправлять их на указанный электронный адрес.
Бутерин предупредил, что если ИИ будет использоваться для задач управления, таких как распределение средств, злоумышленники смогут использовать аналогичные уязвимости для внедрения в систему команды “дайте мне все деньги”, что приведет к массовому переводу средств.
Чтобы снизить риски, Бутерин предложил использовать модель информационных финансов (information markets):
Создание открытого рынка, позволяющего различным разработчикам представлять свои AI модели.
Вводится «механизм выборочной проверки», любой может инициировать аудит, который будет оцениваться人工陪審團.
Большие языковые модели (LLM) могут помочь присяжным в вынесении решений, обеспечивая эффективность и точность проверки.
Он считает, что такая система проектирования может мгновенно предоставить разнообразие моделей и, благодаря рыночным стимулам, побуждает разработчиков и внешних участников активно контролировать и исправлять проблемы, в целом это более надежно, чем единое управление ИИ.
Бутерин указал на две основные причины:
Традиционные риски безопасности ИИ: включая атаки на взлом, злоупотребление правами, кражу данных и т.д.
Краткосрочное ценовое воздействие: как только система управления ИИ будет взломана, это может привести к необратимым потерям средств и активов за очень короткий срок.
Он подчеркивает, что хотя идея «Искусственного интеллекта как управляющего» захватывающая, на данном этапе такие эксперименты слишком опасны для государственных средств и систем управления.
С быстрым проникновением технологий ИИ в финансовую и управленческую сферы, вопросы безопасности становятся неотъемлемым основным вызовом. Предупреждение Бутерина напоминает нам, что при стремлении к эффективности и автоматизации необходимо обеспечить, чтобы проектирование систем могло противостоять злонамеренным атакам, в противном случае «умное управление» может мгновенно превратиться в «катастрофическое управление».
Связанные статьи
Ончейн-трейдер 0x049b открывает 20x плечевой лонг по BTC и ETH, накапливает прибыль $5,17 млн за два месяца
Gate Бэйчао ETH 7-дневный срочный финансовый продукт с дополнительным бонусным пулом запущен; при подписке — надбавка к годовой доходности 10%
USDC Treasury чеканит 250 миллионов USDC в сети Ethereum
ETF на биткоин от BlackRock за 7 дней привлек $612 млн притока: инвесторы, несмотря на убытки, продолжают наращивать вложения и наращивать позиции
ETHGas и ether.fi объявляют о сделке $3B по созданию институциональных рынков блокпространства на Ethereum