Odaily星球日报によると、Anthropicは責任ある拡張ポリシーから重要な安全保障の約束を削除し、リスク緩和策が完全に整っていない場合の訓練停止を約束しなくなった。Anthropicの最高科学責任者Jared KaplanはTIMEに対し、AIの急速な発展を背景に、競合他社が継続的に推進している場合、一方的に訓練停止を約束することには実質的な意味がないと述べた。
OpenAIも使命声明を修正し、2024年のIRS書類から「safely」という語を削除した。以前は「安全に人類に利益をもたらす」汎用AIの構築を表明していたが、現在は「汎用AIが全人類に利益をもたらすことを保証する」と変更されている。
RANDコーポレーションの上級政策研究員Edward Geistは、初期のAI安全性擁護者が想定した高度なAIと現在の大規模言語モデルには本質的な違いがあり、用語の変化も、企業が投資家や政策立案者に対して、安全性の懸念により経済競争で後退しないというメッセージを伝えたい意図を反映していると述べた。
Anthropicは最近、300億ドルの資金調達を完了し、評価額は約3800億ドルに達している。一方、OpenAIはAmazon、Microsoft、Nvidiaの支援を受けて、最大1000億ドルの資金調達ラウンドを進めている。同時に、Anthropicは五角大楼にClaudeへの全面アクセスを拒否したことで、米国防長官Pete Hegsethとの公の対立が生じ、国防契約の不確実性に直面している。(Decrypt)