8 января 2026 года Zhipu достигла исторического рубежа, став первой в мире публичной компанией, специализирующейся на крупных языковых моделях — впечатляющий результат, которого ни аналитики, ни конкуренты не ожидали. В тот же день Танг Цзе, профессор компьютерных наук Университета Цинхуа и основатель-задумщик Zhipu, опубликовал внутреннее письмо, в котором обозначил резкую стратегическую переоценку. Вместо празднования коммерческих успехов, в послании подчеркивалась философская переориентация: непрекращающийся поиск совершенства базовых моделей как единственного пути к искусственному общему интеллекту. Письмо отвергает краткосрочные идеи коммерциализации и вместо этого формулирует амбициозный план на 2026 год, включающий запуск GLM-5 и три трансформирующие технологические направления — новые архитектуры моделей, обобщенное обучение с подкреплением и возможности непрерывного обучения.
Разговор за кофе, который переориентировал миссию Zhipu
Во время визита в лабораторное кафе Гонконгского университета науки и технологий Танг Цзе встретил уважаемого профессора Ян Цянга и поделился случайной заметкой: он недавно употреблял слишком много кофе. Ответ Ян Цянга полностью изменил ход разговора: «Зависимость не обязательно негативна. Представьте, если бы мы могли направить нашу страсть к кофе в исследования с такой же интенсивностью — разве мы не достигли бы выдающихся результатов?» Этот простой диалог отражает философскую основу Zhipu и мировоззрение Цзе.
С момента официального основания в 2019 году компания действует по единому принципу — «заставить машины думать как люди». Вдохновение пришло в 2018 году, когда Танг Цзе и его исследовательская команда создали когнитивную систему, основанную на теории двойственной системы из психологии человеческого мышления, объединяя быстрые и медленные парадигмы мышления. Однако, несмотря на более чем трехлетнее быстрое развитие отрасли после появления ChatGPT, Цзе отмечает в недавних внутренних обсуждениях, что «в индустрии до сих пор нет настоящего консенсуса; все движутся вперед методом проб и ошибок».
От GLM-130B к признанию SOTA: технический поворот
Технический путь Zhipu показывает тенденцию к расчетливому риску, часто противоречащему отраслевым канонам. В 2020 году, когда доминировали модели уровня BERT, компания запустила собственную архитектуру алгоритмов GLM и обучила базовую модель с 10 миллиардами параметров — смелый шаг, привлекший ранних сторонников, включая Meituan. Однако этот успех оставался далеким от целей достижения AGI из-за архитектурных ограничений: недостаточных баз знаний и отсутствия человеческого уровня рассуждений.
Период 2021–2022 годов стал решающим. В то время как большинство участников отрасли отвергали идею «машин, думающих как человек», как фантазию, Zhipu удвоил усилия. Компания обучила модель с 130 миллиардами параметров на экспоненциально расширенных наборах данных, создав две параллельные исследовательские команды: одну — для тренировки моделей, другую — для разработки платформы MaaS, которая в итоге стала основой bigmodel.cn. К середине 2022 года GLM-130B достигла технических прорывов, привлекших внимание всего мира, и одновременно привлекла первых пользователей API платформы — важный этап, отличающий Zhipu от чисто исследовательских лабораторий.
Однако феномен DeepSeek изменил динамику конкуренции. Его появление в 2025 году вызвало то, что отраслевые аналитики назвали «шоковой волной среди китайских компаний, работающих с крупными моделями», особенно для Zhipu, учитывая общие научные команды и вклад в open-source экосистему. Вместо оборонительной позиции Цзе переосмыслил конкуренцию как ясное предупреждение: «DeepSeek разбудил нас», — и инициировал систематическую «усиленную» работу как в технической, так и в коммерческой сферах.
Конвергенция GLM: как Zhipu достигла мирового фронтира
Исполнение Zhipu в 2025 году по внутренним стратегическим целям оказалось весьма точным. В апреле компания выпустила «стабилизирующую» модель GLM-4.1, к середине года — модель GLM-4.5, которая закрепила статус «настоящего участника» среди глобальных базовых моделей, а в конце года — GLM-4.7, занявшую позицию в топ-1 среди мировых моделей-основ. По оценкам Artificial Analysis, GLM-4.7 заняла первое место внутри страны и достигла мирового паритета с Claude 4.5 Sonnet.
Неожиданным катализатором прорыва стала программная часть. Когда рынок погрузился в ценовую войну и идеи о товарных моделях, Zhipu выделила генерацию кода как ключевую точку дифференциации. Запуск GLM-4.5 в июле стал решающим событием — технические, платформенные и коммерческие команды работали в режиме высокой ставки. После победы итерации GLM-4.6 и GLM-4.7 закрепили преимущество: разработчики из 184 стран (более 150 000 человек) подключились к плану GLM Coding, что вызвало как профессиональный энтузиазм, так и измеряемую скорость внедрения.
Взрыв доходов: экономика MaaS оправдала ожидания
Коммерческий успех был очевиден. За всего десять месяцев платформа MaaS увеличила годовой доход с 20 миллионов до 500 миллионов — в 25 раз, что кардинально меняет расчет ROI в отрасли. Особенно важно, что зарубежные доходы превысили 200 миллионов, что говорит о том, что не-китайские рынки составляют примерно 40% экономики платформы. Это резко контрастирует с публичными заявлениями о незрелости экономики китайских крупных моделей.
Особое значение имеет международный аспект. Инициатива «Sovereign AI» Zhipu использовала национальную инфраструктуру MaaS Малайзии для признания GLM официальной крупной моделью страны — первый зафиксированный случай, когда технология китайской базовой модели интегрировалась в государственные структуры за рубежом. Цзе отметил, что этот прорыв стал возможен благодаря «смелости и решимости» международной команды, и позиционировал расширение за границу как стратегический ответ на призыв Пекина к «глобальному развертыванию китайского ИИ».
Вместо постепенной оптимизации, стратегия Цзе на 2026 год нацелена на фундаментальные архитектурные революции. В письме выделены четыре приоритетных направления:
Выпуск GLM-5: за счет расширения масштабов и многофакторных технических улучшений новая модель обещает обеспечить беспрецедентные возможности выполнения реальных задач, устанавливая новый уровень производительности.
Исследование новых архитектур моделей: доминирующая парадигма трансформеров — почти десять лет — сталкивается с ограничениями в сверхдлинных контекстах, памяти и протоколах обновления. Zhipu намерена найти новые архитектурные подходы и одновременно оптимизировать совместное проектирование чипов и алгоритмов.
Обобщенное обучение с подкреплением: текущие подходы RLVR хорошо работают в ограниченных областях (математика, код), но все чаще сталкиваются с структурными ограничениями в неограниченных средах. Цель — разработать парадигмы RL, позволяющие ИИ анализировать и выполнять длительные задачи, охватывающие часы или дни, переходя от простого следования инструкциям к настоящему агентству.
Непрерывное обучение и автономная эволюция: существующие модели ИИ после внедрения остаются статичными, накапливая знания только за счет дорогостоящих циклов обучения, а затем деградируют по мере изменения реального мира. Zhipu стремится создать новые парадигмы обучения, подобные нейронной пластичности человека — онлайн и постоянное обучение, позволяющее моделям взаимодействовать с миром и накапливать возможности постоянно.
Институциональные инновации: ставка на X-Lab для прорыва
Понимая, что организационная инерция склонна к постепенной оптимизации, Zhipu создала экспериментальный исследовательский отдел X-Lab. Он предназначен для привлечения талантов через открытые механизмы и занимается передовыми исследованиями — от новых архитектур и когнитивных парадигм до инкубации разнообразных проектов, не ограниченных программным обеспечением. Параллельно с внутренними инновациями, Zhipu объявила о расширении внешних инвестиций, ориентированных не на конкуренцию, а на развитие экосистемы.
Эта организационная структура отражает философию Цзе: «Мы не обычная компания и не стремимся стать таковой». Вместо этого Zhipu нацелена на операционное возникновение как AI-естественного предприятия, где революционные возможности вытесняют постепенные привычки — используя сам ИИ для оптимизации управления, повышения эффективности и системной справедливости.
Философский финал: эндорфины важнее дофамина
Завершая стратегическое письмо, Цзе различает два типа вознаграждений. Достижение IPO вызывает кратковременное удовольствие — транзиторное возбуждение. Истинное удовлетворение приходит от накопленных эндорфинов на пути к AGI: сосредоточенности, операционной устойчивости и постоянного продвижения к вершинам интеллекта. Формулировка о достижении «финального состояния интеллекта», где Z — это алфавитный финал, символизирует приверженность Zhipu к лидерству на передовой, а не к рыночной оптимизации.
Для отраслевых наблюдателей значение выходит за рамки индивидуальной стратегии компании. Публичный выход Zhipu и философская переориентация Цзе отражают более широкую тенденцию — зрелость индустрии: долгосрочное конкурентное преимущество формируется не за счет оптимизации прикладных слоев, а через фундаментальные возможности — мастерство архитектуры моделей, инновации в обучающих парадигмах и постоянное теоретическое развитие. Останется ли эта приверженность техническому превосходству — вопрос открытый, но решимость Цзе кажется категоричной: 2026 год Zhipu определит, совпадут ли философские убеждения с технологическими возможностями.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Тан Цзе переориентирует Zhipu после IPO: стратегический поворот обратно к мастерству в области базовых моделей
8 января 2026 года Zhipu достигла исторического рубежа, став первой в мире публичной компанией, специализирующейся на крупных языковых моделях — впечатляющий результат, которого ни аналитики, ни конкуренты не ожидали. В тот же день Танг Цзе, профессор компьютерных наук Университета Цинхуа и основатель-задумщик Zhipu, опубликовал внутреннее письмо, в котором обозначил резкую стратегическую переоценку. Вместо празднования коммерческих успехов, в послании подчеркивалась философская переориентация: непрекращающийся поиск совершенства базовых моделей как единственного пути к искусственному общему интеллекту. Письмо отвергает краткосрочные идеи коммерциализации и вместо этого формулирует амбициозный план на 2026 год, включающий запуск GLM-5 и три трансформирующие технологические направления — новые архитектуры моделей, обобщенное обучение с подкреплением и возможности непрерывного обучения.
Разговор за кофе, который переориентировал миссию Zhipu
Во время визита в лабораторное кафе Гонконгского университета науки и технологий Танг Цзе встретил уважаемого профессора Ян Цянга и поделился случайной заметкой: он недавно употреблял слишком много кофе. Ответ Ян Цянга полностью изменил ход разговора: «Зависимость не обязательно негативна. Представьте, если бы мы могли направить нашу страсть к кофе в исследования с такой же интенсивностью — разве мы не достигли бы выдающихся результатов?» Этот простой диалог отражает философскую основу Zhipu и мировоззрение Цзе.
С момента официального основания в 2019 году компания действует по единому принципу — «заставить машины думать как люди». Вдохновение пришло в 2018 году, когда Танг Цзе и его исследовательская команда создали когнитивную систему, основанную на теории двойственной системы из психологии человеческого мышления, объединяя быстрые и медленные парадигмы мышления. Однако, несмотря на более чем трехлетнее быстрое развитие отрасли после появления ChatGPT, Цзе отмечает в недавних внутренних обсуждениях, что «в индустрии до сих пор нет настоящего консенсуса; все движутся вперед методом проб и ошибок».
От GLM-130B к признанию SOTA: технический поворот
Технический путь Zhipu показывает тенденцию к расчетливому риску, часто противоречащему отраслевым канонам. В 2020 году, когда доминировали модели уровня BERT, компания запустила собственную архитектуру алгоритмов GLM и обучила базовую модель с 10 миллиардами параметров — смелый шаг, привлекший ранних сторонников, включая Meituan. Однако этот успех оставался далеким от целей достижения AGI из-за архитектурных ограничений: недостаточных баз знаний и отсутствия человеческого уровня рассуждений.
Период 2021–2022 годов стал решающим. В то время как большинство участников отрасли отвергали идею «машин, думающих как человек», как фантазию, Zhipu удвоил усилия. Компания обучила модель с 130 миллиардами параметров на экспоненциально расширенных наборах данных, создав две параллельные исследовательские команды: одну — для тренировки моделей, другую — для разработки платформы MaaS, которая в итоге стала основой bigmodel.cn. К середине 2022 года GLM-130B достигла технических прорывов, привлекших внимание всего мира, и одновременно привлекла первых пользователей API платформы — важный этап, отличающий Zhipu от чисто исследовательских лабораторий.
Однако феномен DeepSeek изменил динамику конкуренции. Его появление в 2025 году вызвало то, что отраслевые аналитики назвали «шоковой волной среди китайских компаний, работающих с крупными моделями», особенно для Zhipu, учитывая общие научные команды и вклад в open-source экосистему. Вместо оборонительной позиции Цзе переосмыслил конкуренцию как ясное предупреждение: «DeepSeek разбудил нас», — и инициировал систематическую «усиленную» работу как в технической, так и в коммерческой сферах.
Конвергенция GLM: как Zhipu достигла мирового фронтира
Исполнение Zhipu в 2025 году по внутренним стратегическим целям оказалось весьма точным. В апреле компания выпустила «стабилизирующую» модель GLM-4.1, к середине года — модель GLM-4.5, которая закрепила статус «настоящего участника» среди глобальных базовых моделей, а в конце года — GLM-4.7, занявшую позицию в топ-1 среди мировых моделей-основ. По оценкам Artificial Analysis, GLM-4.7 заняла первое место внутри страны и достигла мирового паритета с Claude 4.5 Sonnet.
Неожиданным катализатором прорыва стала программная часть. Когда рынок погрузился в ценовую войну и идеи о товарных моделях, Zhipu выделила генерацию кода как ключевую точку дифференциации. Запуск GLM-4.5 в июле стал решающим событием — технические, платформенные и коммерческие команды работали в режиме высокой ставки. После победы итерации GLM-4.6 и GLM-4.7 закрепили преимущество: разработчики из 184 стран (более 150 000 человек) подключились к плану GLM Coding, что вызвало как профессиональный энтузиазм, так и измеряемую скорость внедрения.
Взрыв доходов: экономика MaaS оправдала ожидания
Коммерческий успех был очевиден. За всего десять месяцев платформа MaaS увеличила годовой доход с 20 миллионов до 500 миллионов — в 25 раз, что кардинально меняет расчет ROI в отрасли. Особенно важно, что зарубежные доходы превысили 200 миллионов, что говорит о том, что не-китайские рынки составляют примерно 40% экономики платформы. Это резко контрастирует с публичными заявлениями о незрелости экономики китайских крупных моделей.
Особое значение имеет международный аспект. Инициатива «Sovereign AI» Zhipu использовала национальную инфраструктуру MaaS Малайзии для признания GLM официальной крупной моделью страны — первый зафиксированный случай, когда технология китайской базовой модели интегрировалась в государственные структуры за рубежом. Цзе отметил, что этот прорыв стал возможен благодаря «смелости и решимости» международной команды, и позиционировал расширение за границу как стратегический ответ на призыв Пекина к «глобальному развертыванию китайского ИИ».
Манифест Цзе 2026: переосмысление устоявшихся парадигм
Вместо постепенной оптимизации, стратегия Цзе на 2026 год нацелена на фундаментальные архитектурные революции. В письме выделены четыре приоритетных направления:
Выпуск GLM-5: за счет расширения масштабов и многофакторных технических улучшений новая модель обещает обеспечить беспрецедентные возможности выполнения реальных задач, устанавливая новый уровень производительности.
Исследование новых архитектур моделей: доминирующая парадигма трансформеров — почти десять лет — сталкивается с ограничениями в сверхдлинных контекстах, памяти и протоколах обновления. Zhipu намерена найти новые архитектурные подходы и одновременно оптимизировать совместное проектирование чипов и алгоритмов.
Обобщенное обучение с подкреплением: текущие подходы RLVR хорошо работают в ограниченных областях (математика, код), но все чаще сталкиваются с структурными ограничениями в неограниченных средах. Цель — разработать парадигмы RL, позволяющие ИИ анализировать и выполнять длительные задачи, охватывающие часы или дни, переходя от простого следования инструкциям к настоящему агентству.
Непрерывное обучение и автономная эволюция: существующие модели ИИ после внедрения остаются статичными, накапливая знания только за счет дорогостоящих циклов обучения, а затем деградируют по мере изменения реального мира. Zhipu стремится создать новые парадигмы обучения, подобные нейронной пластичности человека — онлайн и постоянное обучение, позволяющее моделям взаимодействовать с миром и накапливать возможности постоянно.
Институциональные инновации: ставка на X-Lab для прорыва
Понимая, что организационная инерция склонна к постепенной оптимизации, Zhipu создала экспериментальный исследовательский отдел X-Lab. Он предназначен для привлечения талантов через открытые механизмы и занимается передовыми исследованиями — от новых архитектур и когнитивных парадигм до инкубации разнообразных проектов, не ограниченных программным обеспечением. Параллельно с внутренними инновациями, Zhipu объявила о расширении внешних инвестиций, ориентированных не на конкуренцию, а на развитие экосистемы.
Эта организационная структура отражает философию Цзе: «Мы не обычная компания и не стремимся стать таковой». Вместо этого Zhipu нацелена на операционное возникновение как AI-естественного предприятия, где революционные возможности вытесняют постепенные привычки — используя сам ИИ для оптимизации управления, повышения эффективности и системной справедливости.
Философский финал: эндорфины важнее дофамина
Завершая стратегическое письмо, Цзе различает два типа вознаграждений. Достижение IPO вызывает кратковременное удовольствие — транзиторное возбуждение. Истинное удовлетворение приходит от накопленных эндорфинов на пути к AGI: сосредоточенности, операционной устойчивости и постоянного продвижения к вершинам интеллекта. Формулировка о достижении «финального состояния интеллекта», где Z — это алфавитный финал, символизирует приверженность Zhipu к лидерству на передовой, а не к рыночной оптимизации.
Для отраслевых наблюдателей значение выходит за рамки индивидуальной стратегии компании. Публичный выход Zhipu и философская переориентация Цзе отражают более широкую тенденцию — зрелость индустрии: долгосрочное конкурентное преимущество формируется не за счет оптимизации прикладных слоев, а через фундаментальные возможности — мастерство архитектуры моделей, инновации в обучающих парадигмах и постоянное теоретическое развитие. Останется ли эта приверженность техническому превосходству — вопрос открытый, но решимость Цзе кажется категоричной: 2026 год Zhipu определит, совпадут ли философские убеждения с технологическими возможностями.