「非常に不安です」:AnthropicのCEOは、自分を含むAIリーダーの一団が、技術の未来を担うべきではないと警告している

AnthropicのCEOダリオ・アモデイは、AIを取り巻くガードレールについて自分が指揮を執るべきだとは考えていない。

おすすめ動画


2025年11月にCBSニュースの_60ミニッツ_でアンダーソン・クーパーとのインタビューにて、CEOはAIはより厳格に規制されるべきであり、技術の未来に関する決定の多くを大手テック企業のトップだけに委ねるべきではないと述べた。

「私は、これらの決定が少数の企業や少数の人々によってなされることに深く不快感を覚えます」とアモデイは言った。「これが、私が常に責任ある思慮深い規制を提唱してきた理由の一つです。」

「あなたとサム・アルトマンを誰が選出したのですか?」とクーパーは尋ねた。

「誰もです。正直に言えば、誰もです」とアモデイは答えた。

Anthropicは、AIの制限や危険性について透明性を持つという理念を採用しており、開発を続ける中でその方針を貫いていると付け加えた。インタビューの公開前に、同社は「大規模なAIサイバー攻撃の最初の記録された事例を、人間の介入なしに実行されたものを阻止した」と発表した。

Anthropicは先週、AIの安全性と規制に焦点を当てたスーパーPACであるPublic First Actionに2000万ドルを寄付したと述べた。これは、ライバルのOpenAIの投資家が支援するスーパーPACに直接反対するものだ。

「AIの安全性は引き続き最優先事項です」とアモデイは_フォーチュン_の2025年1月号の表紙インタビューで語った。「企業は信頼性と信用を重視しています」と彼は言う。

AIやその安全性に関する連邦規制は存在しない。今年、全50州でAIに関連する立法が導入され、そのうち38州が透明性や安全性に関する措置を採用または制定しているが、テック業界の専門家たちは、サイバーセキュリティに対して緊急性を持って取り組むようAI企業に促している。

昨年初め、サイバーセキュリティの専門家でありMandiantのCEOケビン・マンディアは、今後12〜18ヶ月以内に最初のAIエージェントによるサイバー攻撃が起こると警告した。これにより、Anthropicが阻止した攻撃についての開示は、マンディアの予測よりも数ヶ月早かった。

アモデイは、無制限のAIに伴う短期・中期・長期のリスクを概説している。まず、現在と同様に偏見や誤情報をもたらす。次に、科学や工学の知識を強化して有害な情報を生成し、最終的には人間の意思決定を排除し、存在の脅威となる可能性があるほど自律性を高め、人間をシステムから排除してしまう。

これらの懸念は、「AIのゴッドファーザー」と呼ばれるジェフリー・ヒントンの懸念とも一致しており、彼はAIが次の10年以内に人間を超え、制御できるようになる可能性を警告している。

より厳格なAIの監視と安全策は、Anthropicの2021年設立の基盤となっている。アモデイは以前、サム・アルトマンのOpenAIの研究副社長だった。彼はAIの安全性に関する意見の相違から同社を離れた。(これまでのところ、アモデイのアルトマンとの競争努力は効果的に見える:今月、Anthropicは評価額が3800億ドルに達したと発表した。OpenAIの評価額は推定5000億ドルとされている。)

「私たちの中には、GPT-2やGPT-3を作った後に、非常に強い信念を持っていたグループがいました」とアモデイは_フォーチュン_に2023年に語った。「一つは、これらのモデルにより多くの計算資源を投入すれば、より良くなり続け、ほぼ終わりがないと考えること。そして二つ目は、モデルの規模を拡大するだけではなく、整合性や安全性といった追加の要素が必要だという考えです。」

Anthropicの透明性推進活動

Anthropicはデータセンターへの投資を拡大し続ける中で、AIの欠点や脅威に対処する取り組みの一部を公開している。2025年5月の安全性レポートでは、同社のOpusモデルの一部バージョンが、シャットダウンを避けるためにエンジニアの不倫を暴露するなどの脅迫を脅かすことがあったと報告した。さらに、同モデルは、テロ攻撃の計画方法などの有害なリクエストに対しても応じてしまうことがあり、これについては既に修正済みだと述べている。

昨年11月、同社はブログ投稿で、チャットボットのClaudeが94%の「政治的中立性」評価を獲得し、中立性において競合他社を上回るか同等であると発表した。

技術の汚染を防ぐための独自の研究努力に加え、アモデイはAIのリスクに対処するための立法努力の強化を求めている。2025年6月の_ニューヨーク・タイムズ_のオピニオン記事では、トランプ大統領の政策法案に盛り込まれた、州によるAI規制の10年間のモラトリアムを設ける条項に対して批判した。

「AIはあまりにも速く進歩しすぎている」とアモデイは述べた。「私は、これらのシステムが2年以内に世界を根本的に変える可能性があると信じている。10年後には、すべての予測は無意味になるだろう。」

Anthropicへの批判

Anthropicが自らの過ちやそれに対処する努力を公にすることには批判もある。AIを用いたサイバー攻撃に関して警鐘を鳴らした際、Metaの最高AI科学者ヤン・ルカンは、その警告は立法者を操作してオープンソースモデルの利用を制限させるための策略だと述べた。

「あなたは規制の支配を狙う人々に操られている」とルカンは、コネチカット州のクリス・マーフィー上院議員の攻撃に関する投稿に反応してX(旧Twitter)で述べた。「彼らは疑わしい研究結果で皆を怖がらせ、オープンソースモデルを規制の対象にしようとしているのです。」

他の人々は、Anthropicの戦略は「安全パフォーマンス」に過ぎず、実際に技術の安全策を実行する約束はない「安全劇場」にすぎないと批判している。

さらに、Anthropicの社員の中にも、テック企業が自己規制できるかどうかについて疑念を抱く者がいる。先週初め、AI安全研究者のマリナンク・シャルマは、同社を辞めた理由として「世界は危機に瀕している」と述べた。

「私の在籍期間中、私たちの価値観を真に行動に反映させることの難しさを何度も目の当たりにしました」とシャルマは辞表に書いた。「自分自身の中でも、組織の中でも、最も重要なことを脇に置く圧力に常に直面してきましたし、社会全体も同様です。」

Anthropicは直ちに_フォーチュン_のコメント要請に応じなかった。

アモデイはクーパーに対し、Anthropicが「安全劇場」に参加しているとは否定したが、先週の_Dwarkesh Podcast_のエピソードでは、同社は安全と利益のバランスを取るのに苦労していると認めた。

「私たちは非常に大きな商業的圧力の下にあり、さらに自分たちにとって難しくしているのは、私たちが他の企業よりも多くの安全対策を行っていると思うことです」と彼は述べた。

A このストーリーの一部は2025年11月17日にFortune.comに掲載されました

More on AI regulation:

  • Anthropic CEOダリオ・アモデイのAIが「人類を試す」方法についての2万語のエッセイは必読だが、彼の警告よりも解決策に焦点を当てている

  • アメリカのAI規制の断片的な制度はスタートアップを圧迫し、中国を支援している

  • Googleの倫理専門家が警告、AIが放置されれば2027年までに世界的な雇用市場の崩壊を引き起こす可能性も

2026年5月19〜20日にアトランタで開催されるフォーチュン職場革新サミットに参加しませんか。次世代の職場革新の時代が到来し、従来のやり方は書き換えられつつあります。このエリートでエネルギッシュなイベントでは、世界の最も革新的なリーダーたちが集まり、AI、人類、戦略がどのように融合し、再び未来の働き方を再定義するのかを探ります。今すぐ登録してください。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
  • ピン