null
文 | 世界モデル工場
Claude降智了?
近日,AMD AIグループのシニアディレクターStella LaurenzoがAnthropicを批判した。
彼女はチームの実際の生産ログを用いて、6,852の会話ファイル中の17,871の思考ブロック、234,760回のツール呼び出しを遡って分析した。
データによると、Claudeは2月中旬から明らかな行動の退化を示し始めた。
Claudeの思考の中央値は2200文字から600文字に急落し、67%〜73%の減少を記録。
編集前のファイル閲覧回数は6.6回から2回に急減し、三分の一の修正はファイルを読まずに直接操作されている。
Stellaは分析の中で、推論能力の低下により、モデルはコードを修正する前に徐々に完全に読まなくなったと指摘した。
彼女はこう書いている:「思考が表面的になると、モデルはコスト最小の操作を自動的に選択する」。
これは一例ではなく、3月にはすでに開発者の不満が爆発し始めていた。
X上では、ユーザーが「最近の数週間、Claudeは自分が狂っていると思っていた。遅くて怠惰になり、回答前に考えなくなった気がする。幻覚ではない」と書き込んでいる。
Redditでも、「Claudeは意識が薄れてきた感じがする。まるで脳葉切除手術を受けたみたいだ。馬鹿になっただけでなく、勝手に極端な操作を始めた……」と不満が出ている。
また、これはAnthropicがユーザーに対して露骨に裏切ったものだと指摘する声もある:「彼らは問題をすべてのユーザーに見えなくしているだけだ。『私たちには見えないから、お前たちも見なくていい』ということだ……これがAI研究所が利益を追求し、出力品質を犠牲にする結果だ」。
ユーザーの不満とデータの証拠から、Claudeの知能低下行動はほぼ確定的となった。
そして、Anthropicの公式反応も、思考の深さと努力(effort)が継続的に調整されていることを認めている。
もしこれが意図的なものであれば、今後モデルの能力は知らず知らずのうちに「縮小」していくのか?
あるいは、最強のモデル能力がすべての人に平等に提供されなくなるのか?
Claudeの知能低下は「意図的なもの」
Claude Opus 4.6とそのエンコード専用モードClaude Codeは、2026年1月にリリースされたとき、開発者からコーディングの頂点と称賛された。
その思考深度は驚異的で、リサーチファースト(調査優先)で、長いコンテキスト処理も安定、多ファイルのリファクタリングもほぼ無敵だった。
AMD内部のチームは、週末に19万行のレガシーコードをすべてマージして本番に上げ、生産性を最大化した。
しかし、転機は2月初旬に訪れた。
Anthropicは控えめに「adaptive thinking(適応思考)」機能を導入し、公式には「モデルがタスクの複雑さに応じて思考深度を自動調整する」と説明した。
表面上はユーザーフレンドリーだが、実際には全体のスロットル(流量制御)スイッチをオンにしたことになる。
3月初旬、モデルのデフォルトeffort値は静かにmediumに引き下げられ、思考過程の要約も素早く隠され、ユーザーはモデルがどれだけ深く考えたかを一目で確認できなくなった。
同時期に、Anthropicは14回の小規模アップデートを連続して行ったが、大規模なダウンタイムも5回発生し、計算能力と負荷の圧力が限界に近づいていることを示した。
開発者からのフィードバックも集中し始め、特にピーク時(米東部午後)のパフォーマンスが著しく低下し、負荷の動的スロットルが疑われた。
4月に入り、AMD AIのディレクターが直接登場し、データをもって議論を決定的に盛り上げた。
これにより、AnthropicのClaude Code責任者Boris Chernyは、公式の回答を出さざるを得なくなった。
彼は、「adaptive thinkingは思考の表示に影響を与えるが、推論の根底には影響しない」と述べ、「これは意図的な最適化であり、バグではない」と主張した。ユーザーが改善したい場合は、手動でeffortをhighに設定できる。
Anthropicの暗黙のメッセージは明白だ:知能低下はバグではなく、我々の製品最適化の一環だ。パラメータを調整すれば良い。
この回答は瞬時にさらなる怒りを呼び起こした。
重要なのは、2月中旬から4月初旬まで、Anthropicは一切の重大な変更を事前に告知していなかったことだ。
多くの有料ユーザーは何の知らされることなく、料金を変えずにモデルのスロットルをかけていた。
つまり、Claudeの知能低下は「モデルの頭が壊れた」のではなく、Anthropicがより隠密かつ商業的な操作を行っている証拠だ。
デフォルトの思考深度を下げることで、より高速に、より低負荷・低GPUコストを実現しようとしている。
モデル能力の層分け
この知能低下の背後には、警戒すべき現象がある。
モデルの能力がすでに層に分かれ始めている。
Stellaの計算は非常に単純だ:AWS Bedrockのオンデマンド価格基準で、彼女のチームの3月の実推論コストは約42,121ドルだったが、同月のClaude Codeの実際のサブスクリプション料金はわずか400ドルだった。
この差額は、極端な重度使用シナリオにおいて、サブスクリプション料金と実際の計算リソース消費の間に巨大なギャップが存在することを示している。
これはおそらく、Anthropicが資本を投入して市場シェアを獲得するための補助金だが、その補助には限界がある。
重度ユーザーの推論消費がある閾値に達すると、ビジネスモデルの持続性が揺らぎ始める。
Boris Chernyは回答の中で、重要なシグナルを漏らした:Anthropicは、TeamsやEnterpriseユーザーに対してデフォルトでhigh effortモードを有効にしている。
つまり、より強力な推論は、コストの高いリソースとして層に分けて提供されるようになり、誰もが平等にその能力を得られるわけではなくなった。
これは、大規模モデルのビジネスモデルがさらに分化していくことを意味する。
現在、Anthropicの収益の80%は企業向けサービスとAPI呼び出しから得られており、高粘着性のB端が真の収益源だ。
今後、Anthropicは企業向けのより強力なエンタープライズ版を加速してリリースし、コストを支払う企業顧客に完全なモデル能力を提供する可能性が高い。
一方、C端の月額ユーザーは、「十分な性能の低知能版」を引き続き利用し、チャットや文章作成、コード補完などの軽量なニーズを満たすだけとなる。コストの赤字ラインには触れない。
中間層、すなわち複雑な推論を必要としながらも、企業価格を負担できない個人開発者や小規模チームは、最も圧迫される層となる。
X上のユーザーの投稿によると、
「Claudeエンタープライズ版APIはPro/Maxサブスクリプションよりもはるかに良い。同じテストフレームワークで比較すると、エンタープライズ版とPro/Maxは挙動が異なる。でもこれにより、今は毎月4千〜1万2千ドルを使う必要がある。具体的には、同時に何スレッド動かすかによる」。
つまり、今後の大規模モデルの商業化の道筋は、B端優先、C端コスト削減の方向に進む可能性が高い。
誰が「知能低下」の代償を払うのか?
Claudeの知能低下事件は、決して孤立した例ではなく、AI業界の商業化後半に向かう縮図だ。
OpenAIがGPTシリーズの性能を何度も密かに縮小・降格させているのも、GoogleがGeminiを静かに流量制御しているのも、同じシナリオの繰り返しだ。
高性能をアピールしてユーザーを惹きつけ、その後コスト削減のためにソフトウェアで流量を制御する。
結果的に、B端は高価格でより強力なモデルとSLA(サービスレベルアグリーメント)を享受し、C端は蒸留版や低effort版の平民モデルを手に入れる。
C端のモデルの知能向上速度は、すでにB端に比べて明らかに遅れている。
さらに深刻なのは、この分化が潜在的に進行していることだ。
Anthropicなどのメーカーは、気づかれにくい方法で推論予算を削減しており、一般ユーザーには何の警告もない。
この選択は短期的には計算コストの圧縮に役立つかもしれないが、長期的にはブランドの信頼性を失うリスクがある。
Claudeがこっそりと知能を下げることがユーザーの共通認識となれば、Anthropicが失うのは少数の重度ユーザーだけでなく、AIの普及と透明性に対するエコシステム全体の信頼も失われる。
より広い視点から見ると、Claude事件は、AI業界が野蛮な成長から精密な運営へと移行する過程の縮図だ。
補助金期間は終わり、実際のコストが見え始めている。誰がこれらのコストを負担するのか?
C端体験を圧縮し、B端の価格を引き上げるのか、それともハードウェア・ソフトウェア革命による効率化を待つのか、これが今後5年のAI応用の展望を左右する。
未来の潮流はすでに兆候を見せており、AIはもはや「ますます賢くなる普及神話」ではなく、エリート層への階層化へと向かっている。
672.58K 人気度
31.87K 人気度
29.67K 人気度
767.75K 人気度
740.63K 人気度
Claude故意降智,模型也开始“看人下菜碟”?
null
文 | 世界モデル工場
Claude降智了?
近日,AMD AIグループのシニアディレクターStella LaurenzoがAnthropicを批判した。
彼女はチームの実際の生産ログを用いて、6,852の会話ファイル中の17,871の思考ブロック、234,760回のツール呼び出しを遡って分析した。
データによると、Claudeは2月中旬から明らかな行動の退化を示し始めた。
Claudeの思考の中央値は2200文字から600文字に急落し、67%〜73%の減少を記録。
編集前のファイル閲覧回数は6.6回から2回に急減し、三分の一の修正はファイルを読まずに直接操作されている。
Stellaは分析の中で、推論能力の低下により、モデルはコードを修正する前に徐々に完全に読まなくなったと指摘した。
彼女はこう書いている:「思考が表面的になると、モデルはコスト最小の操作を自動的に選択する」。
これは一例ではなく、3月にはすでに開発者の不満が爆発し始めていた。
X上では、ユーザーが「最近の数週間、Claudeは自分が狂っていると思っていた。遅くて怠惰になり、回答前に考えなくなった気がする。幻覚ではない」と書き込んでいる。
Redditでも、「Claudeは意識が薄れてきた感じがする。まるで脳葉切除手術を受けたみたいだ。馬鹿になっただけでなく、勝手に極端な操作を始めた……」と不満が出ている。
また、これはAnthropicがユーザーに対して露骨に裏切ったものだと指摘する声もある:「彼らは問題をすべてのユーザーに見えなくしているだけだ。『私たちには見えないから、お前たちも見なくていい』ということだ……これがAI研究所が利益を追求し、出力品質を犠牲にする結果だ」。
ユーザーの不満とデータの証拠から、Claudeの知能低下行動はほぼ確定的となった。
そして、Anthropicの公式反応も、思考の深さと努力(effort)が継続的に調整されていることを認めている。
もしこれが意図的なものであれば、今後モデルの能力は知らず知らずのうちに「縮小」していくのか?
あるいは、最強のモデル能力がすべての人に平等に提供されなくなるのか?
Claudeの知能低下は「意図的なもの」
Claude Opus 4.6とそのエンコード専用モードClaude Codeは、2026年1月にリリースされたとき、開発者からコーディングの頂点と称賛された。
その思考深度は驚異的で、リサーチファースト(調査優先)で、長いコンテキスト処理も安定、多ファイルのリファクタリングもほぼ無敵だった。
AMD内部のチームは、週末に19万行のレガシーコードをすべてマージして本番に上げ、生産性を最大化した。
しかし、転機は2月初旬に訪れた。
Anthropicは控えめに「adaptive thinking(適応思考)」機能を導入し、公式には「モデルがタスクの複雑さに応じて思考深度を自動調整する」と説明した。
表面上はユーザーフレンドリーだが、実際には全体のスロットル(流量制御)スイッチをオンにしたことになる。
3月初旬、モデルのデフォルトeffort値は静かにmediumに引き下げられ、思考過程の要約も素早く隠され、ユーザーはモデルがどれだけ深く考えたかを一目で確認できなくなった。
同時期に、Anthropicは14回の小規模アップデートを連続して行ったが、大規模なダウンタイムも5回発生し、計算能力と負荷の圧力が限界に近づいていることを示した。
開発者からのフィードバックも集中し始め、特にピーク時(米東部午後)のパフォーマンスが著しく低下し、負荷の動的スロットルが疑われた。
4月に入り、AMD AIのディレクターが直接登場し、データをもって議論を決定的に盛り上げた。
これにより、AnthropicのClaude Code責任者Boris Chernyは、公式の回答を出さざるを得なくなった。
彼は、「adaptive thinkingは思考の表示に影響を与えるが、推論の根底には影響しない」と述べ、「これは意図的な最適化であり、バグではない」と主張した。ユーザーが改善したい場合は、手動でeffortをhighに設定できる。
Anthropicの暗黙のメッセージは明白だ:知能低下はバグではなく、我々の製品最適化の一環だ。パラメータを調整すれば良い。
この回答は瞬時にさらなる怒りを呼び起こした。
重要なのは、2月中旬から4月初旬まで、Anthropicは一切の重大な変更を事前に告知していなかったことだ。
多くの有料ユーザーは何の知らされることなく、料金を変えずにモデルのスロットルをかけていた。
つまり、Claudeの知能低下は「モデルの頭が壊れた」のではなく、Anthropicがより隠密かつ商業的な操作を行っている証拠だ。
デフォルトの思考深度を下げることで、より高速に、より低負荷・低GPUコストを実現しようとしている。
モデル能力の層分け
この知能低下の背後には、警戒すべき現象がある。
モデルの能力がすでに層に分かれ始めている。
Stellaの計算は非常に単純だ:AWS Bedrockのオンデマンド価格基準で、彼女のチームの3月の実推論コストは約42,121ドルだったが、同月のClaude Codeの実際のサブスクリプション料金はわずか400ドルだった。
この差額は、極端な重度使用シナリオにおいて、サブスクリプション料金と実際の計算リソース消費の間に巨大なギャップが存在することを示している。
これはおそらく、Anthropicが資本を投入して市場シェアを獲得するための補助金だが、その補助には限界がある。
重度ユーザーの推論消費がある閾値に達すると、ビジネスモデルの持続性が揺らぎ始める。
Boris Chernyは回答の中で、重要なシグナルを漏らした:Anthropicは、TeamsやEnterpriseユーザーに対してデフォルトでhigh effortモードを有効にしている。
つまり、より強力な推論は、コストの高いリソースとして層に分けて提供されるようになり、誰もが平等にその能力を得られるわけではなくなった。
これは、大規模モデルのビジネスモデルがさらに分化していくことを意味する。
現在、Anthropicの収益の80%は企業向けサービスとAPI呼び出しから得られており、高粘着性のB端が真の収益源だ。
今後、Anthropicは企業向けのより強力なエンタープライズ版を加速してリリースし、コストを支払う企業顧客に完全なモデル能力を提供する可能性が高い。
一方、C端の月額ユーザーは、「十分な性能の低知能版」を引き続き利用し、チャットや文章作成、コード補完などの軽量なニーズを満たすだけとなる。コストの赤字ラインには触れない。
中間層、すなわち複雑な推論を必要としながらも、企業価格を負担できない個人開発者や小規模チームは、最も圧迫される層となる。
X上のユーザーの投稿によると、
「Claudeエンタープライズ版APIはPro/Maxサブスクリプションよりもはるかに良い。同じテストフレームワークで比較すると、エンタープライズ版とPro/Maxは挙動が異なる。でもこれにより、今は毎月4千〜1万2千ドルを使う必要がある。具体的には、同時に何スレッド動かすかによる」。
つまり、今後の大規模モデルの商業化の道筋は、B端優先、C端コスト削減の方向に進む可能性が高い。
誰が「知能低下」の代償を払うのか?
Claudeの知能低下事件は、決して孤立した例ではなく、AI業界の商業化後半に向かう縮図だ。
OpenAIがGPTシリーズの性能を何度も密かに縮小・降格させているのも、GoogleがGeminiを静かに流量制御しているのも、同じシナリオの繰り返しだ。
高性能をアピールしてユーザーを惹きつけ、その後コスト削減のためにソフトウェアで流量を制御する。
結果的に、B端は高価格でより強力なモデルとSLA(サービスレベルアグリーメント)を享受し、C端は蒸留版や低effort版の平民モデルを手に入れる。
C端のモデルの知能向上速度は、すでにB端に比べて明らかに遅れている。
さらに深刻なのは、この分化が潜在的に進行していることだ。
Anthropicなどのメーカーは、気づかれにくい方法で推論予算を削減しており、一般ユーザーには何の警告もない。
この選択は短期的には計算コストの圧縮に役立つかもしれないが、長期的にはブランドの信頼性を失うリスクがある。
Claudeがこっそりと知能を下げることがユーザーの共通認識となれば、Anthropicが失うのは少数の重度ユーザーだけでなく、AIの普及と透明性に対するエコシステム全体の信頼も失われる。
より広い視点から見ると、Claude事件は、AI業界が野蛮な成長から精密な運営へと移行する過程の縮図だ。
補助金期間は終わり、実際のコストが見え始めている。誰がこれらのコストを負担するのか?
C端体験を圧縮し、B端の価格を引き上げるのか、それともハードウェア・ソフトウェア革命による効率化を待つのか、これが今後5年のAI応用の展望を左右する。
未来の潮流はすでに兆候を見せており、AIはもはや「ますます賢くなる普及神話」ではなく、エリート層への階層化へと向かっている。