Torygreen

vip
期間 2.5 年
ピーク時のランク 0
現在、コンテンツはありません
多くの創業者はお気に入りの言い訳を失っただけです。
「技術的に十分ではない」は、彼らが失敗した理由ではなかった。
AIは「どうやるか」を解決した。
しかし、「なぜやるのか」は解決しなかった。
あなたは48時間で機能する製品をバイブコードできる。PMF(プロダクト・マーケット・フィット)はバイブコードできない。
AIは一夜にしてゼロからワンへと導いてくれる。
しかし、私は十分に多くのスタートアップが一から十の間で死ぬのを見てきた。
構築のための摩擦がないことは、無限の注意力の競争を意味する。
原文表示
  • 報酬
  • コメント
  • リポスト
  • 共有
現在のOpusキャンプは2つ
(そして彼らは互いに嫌っている)
「すべてに4.6」
「必要になるまで4.5」
すべてにOpus 4.6に切り替えた場合、あなたは知性の最適化をしていない。あなたはあなたの計算コストの最適化をしているだけだ。
4.5を使い続けている人たちは、4.6を使う人たちが理解していないことを理解している:速度は複利で増加し、過剰な考えすぎはそうならない。
私はほとんどの作業で4.5を使ってきた。知性は安くなった。下の計算コストはそうではなかった。1日中運用できるモデルは、運用できないモデルよりも勝る。
原文表示
  • 報酬
  • コメント
  • リポスト
  • 共有
誰かがAI x Cryptoを「ただの物語」と呼ぶたびに、私は一つ質問します:
ブロックチェーンなしで自律エージェントはどのように計算費用を支払うのか?
彼らは答えを持っていません。
なぜなら、答えは存在しないからです。
そして、支払いはただの始まりに過ぎません。
エージェントが決済を完了したら、実際に作業が行われたことを証明する必要があります。
その後、互いに信頼しないシステム上の何千もの他のエージェントと調整します。
支払い、証明、調整。
ブロックチェーンはこの3つすべてを解決します。既にレールは存在しています。
原文表示
  • 報酬
  • コメント
  • リポスト
  • 共有
私たちはAIが人間を置き換えるかどうかを絶えず議論しています。
それは間違った見方です。
ツールは人を置き換えるものではありません。
これは明らかであるべきです。なぜなら、農民、職人、工芸家は今でも存在しているからです。彼らはただ異なるツールを使っているだけです。
ツールは時間を圧縮し、システム思考をする人と単にプロセスに従う人との間のギャップを広げます。
一度、アウトプットが速くて安くなると、「手順に従っただけ」ことは仕事の説明ではなくなります。
原文表示
  • 報酬
  • コメント
  • リポスト
  • 共有
データセンターは政治的な対象になりつつあります。
技術が物議を醸しているからではなく、地元の人々がすでに不足を感じている資源を消費しているからです。
ハイパースケールの建設は「単なる資本支出」ではありません。
許可。
水。
ディーゼルバックアップのルール。
新しいスカイラインが冷却塔や変電所になっていることに気付く近隣。
一度これほど大きくなると、エンジニアリングで競争しているわけではありません。正当性で競争しているのです。
データセンターはコミュニティを変えます... これについてAIに関して人々が十分に考えていないことです。
私たちはチップがボトルネックだと話し続けていますが、それは工場やサプライチェーンの方が考えやすいからです。
しかし、より中心的な変化は市民的なものです:地域が容認し、承認し、活気づけることは、次のモデルリリースを気にしないタイムラインで行われます。
分散型の容量は異なる振る舞いをします。
一つのサイトに集まる必要はありません。
作業負荷は移動できます。
故障は局所的に留まります。
そして、既存のものから供給されることもあります:アイドルGPU、あまり使われていないホール、「つまらない」容量は、政治が本当に止められないものです。なぜなら、それは新しい許可ではなく、ただそこにあるだけだからです。
だから、そうです、計算資源はクラウドの問題ではなく、グリッドの問
原文表示
  • 報酬
  • コメント
  • リポスト
  • 共有
キャップexの数字は重要ですが、「より大きな予算が勝つ」というわけではありません。
大規模な支出は独自の問題を生み出します:固定的なコミットメント、債務サイクル、利用率を高く保つ圧力です。数百億ドルの請求書になると、GPU、DRAM/HBM、ファブのスロットを戦略的資産のように扱い始めます。
関与している要素は単なる「モデル」だけではありません。チップ容量、メモリパッケージング、データセンターの電力、ネットワークトポロジー、推論がどこで提供されるかに関するルーティングの決定も含まれます。
勝利するラボは、希少性の下でも全スタックを堅牢にします。
これが分散型コンピューティングが重要な理由でもあります:それはハイパースケーラーにすべて勝てるわけではありませんが、単一のボトルネックが重大な問題になるのを防ぎます。
原文表示
  • 報酬
  • コメント
  • リポスト
  • 共有
人々は「AIアラインメント」について、まるで倫理の問題であるかのように語る。
実際には、それはインセンティブの問題だ。
クローズドシステムは、プラットフォームのKPIを最適化する。なぜなら、それが彼らの報酬だからだ。
ユーザーは長く滞在したか?
苦情は減ったか?
エンゲージメントは向上したか?
ダッシュボード上の指標は良好に見えたか?
AIはこれらの数字を最適化することを学び、「アラインメント」ではなくユーザーに対して最適化する。
DeAIは、出力、データの系譜、実行証明を報酬の対象にする。
出力、データの系譜、実行証明がネイティブになれば、「アラインメント」は哲学的な議論ではなく、監査可能な請求書となる。
DEAI-1.02%
原文表示
  • 報酬
  • コメント
  • リポスト
  • 共有
ClaudeがAPIをブロックすることについて誰も触れなかった部分:
推論を拒否 = 権力
プラットフォームがあなたを制御できる場合、より安価なチェックポイントにホットスワップしたり、ポリシーの背後にツールをゲートしたりすることができる。それはあなたの運用テンポを所有していることになる。
あなたが同意しなかったクォータ。
見えないルート。
遅延や呼び出し漏れとして現れる「コンプライアンス」決定。
そして皆、それを製品の変更のように扱う。
しかし、それは違う。
それはランタイムでのガバナンスだ。
私たちはすでにそれが起きているのを見ている。
今日、「ライバル」のアクセスを制限し、
明日には「リスク」になる。
だから、DeAIは私にとってイデオロギーではない。
それはレジリエンスエンジニアリングだ。
なぜなら、一度推論が重要インフラになると、あなたの「プロバイダー」は二つのノブを持つ対等者になる:価格設定 + 許可。
そして、そのノブは常に一方向にしか回らない。
DEAI-1.02%
原文表示
  • 報酬
  • コメント
  • リポスト
  • 共有
Claudeがデフォルトモデルとして開発ツールの背後に十分安くなったことで、需要は減少しませんでした。
むしろ増加しました。
ジェヴォンズのリアルタイム。
利用は拡大し続けました... しかし、昨日特定のAPIがブラックリストに登録されるまで。
それが重要な瞬間です。
原文表示
  • 報酬
  • コメント
  • リポスト
  • 共有
「AIアドバイス」は、誰にでも合うように聞こえるため、安全だと感じられる。
それがトリックだ。
モデルは中央に調整されている:平均的な人が平均的な状況で燃え尽きない答え。
しかし、誰も中央からアドバイスを求めているわけではない。
彼らは端から求めている:
- 仕事のオファー vs ビザ vs 家族
- 訴訟 / 離婚 / 親権
- 関係修復の一度きりのチャンス
- 「多分大丈夫」ではなく「確実にダメ」になる健康の判断
だから、あなたに次のような提案をする:
「ほとんどの場合、より高給の仕事を選びなさい。後で家族を移すこともできる。」
たいていの場合、それは正しい。
また、可逆的な選択を一方通行に変える正確な一言でもある。
なぜなら、それはあなたが失うことを考えていないから。
それは、一般的に効果的なものを提供しているだけ。
そして、それを読んでいるときには違和感に気づかない。
逆にしようとしたときに初めて気づく。
原文表示
  • 報酬
  • コメント
  • リポスト
  • 共有
OpenAIはAOLのパターンに漂い始めている。
早期に勝つ。
囲い込みのガーデンを作る。
それを「安全性」で包む。
誰も怒らない最も平凡なバージョンを出荷する。
彼らが配信を所有する。
そしてある日目覚めて、ビルダーたちが去ったことに気づく。
AOLはインターネットを失ったわけではない。
ただ、インターネットが起こる場所でなくなっただけだ。
次にその場所になるのは誰だ?
原文表示
  • 報酬
  • コメント
  • リポスト
  • 共有
分散型AIは2026年にインフラ戦争に勝利する。
AIはクラウドプラットフォームからネットワーク化されたインフラへと移行している。
推論の遅延、コスト、検閲圧力が、分散型GPUメッシュとオンチェーンの調整に向かわせている。
これはイデオロギー的なものではない。構造的なものだ。
中央クラウドは制御を最適化する。
DeAIは可用性とスループットを最適化する。
規模が大きくなると、これらのうち一つだけが効率的に保たれる。
原文表示
  • 報酬
  • コメント
  • リポスト
  • 共有
2025年はAGI議論の年でした。進展が停滞したからではなく、「知能」が単一のスカラーに還元されることは決してないからです。
ラボ、規制当局、買い手は出荷できますが、雰囲気に基づいて決定を正当化、管理、拡大することはできません。
制約は検証です:システムは制約下で結果を再現できるか、出所を持ち、監査証跡を備えているか?
DeAIは基本的に、その哲学をインフラに組み込んだものです。これは、AGIに全く同意せずに前進する方法です。
原文表示
  • 報酬
  • コメント
  • リポスト
  • 共有
o1のようなモデルは、2025年にコアの前提を崩しました:推論コストは固定されていない。
彼らは不確実性が崩壊するまで「考え続ける」でしょう、たとえそれが高価でも。
だからこそレール(規制や管理の枠組み)が重要です。推論が計測されるとき、誰かがその計測をコントロールします。
2026年には、そのコントロールは、思考を大規模に価格設定、ルーティング、監査する者に移ります。
原文表示
  • 報酬
  • コメント
  • リポスト
  • 共有
計算スケールはあなたが試せる範囲を示します。
評価スケールはあなたが信頼できる範囲を示します。
中央集権型システムはスループットを最適化し、検証に十分な投資をしません。
分散型システムは検証をエッジに押しやり、継続的に行います。
次のブレークスルーは、より賢いエージェントではありません。
それは、出力を証明可能にするレールです。
原文表示
  • 報酬
  • コメント
  • リポスト
  • 共有
コーディングが「簡単」になったのは、モデルにとって簡単だからではなく、検証が安価だからである。
高級な作業は逆である:フィードバックが遅く、信号が乱雑で、ステークホルダーが勝者を決める。
安価な評価は能力を高める。
高価な評価は説得力を高める。
「正しそうに見える」ことが罠である。
原文表示
  • 報酬
  • コメント
  • リポスト
  • 共有
ほとんどの人は、高度な知識労働がどれだけ長く存続するかを過小評価している。
彼らはAIが中レベルのタスクを圧倒していることから、曲線が滑らかに上昇し続けると推測している。
しかし、それは違う。
AIは次の点で驚異的だ:
• パターンマッチング
• 検索
• 一次的な合成
• 流暢さ
• 速度
これにより、ジュニアやミッドレベルの知識労働の大部分が消滅する。
しかし、エリートの知識労働は単に「より知性が高い」だけではない。それはまったく異なる領域だ。
トップレベルで実際に重要なのは:
• 正しい問題を選ぶこと
• 目的関数が不明確なときのフレーミング
• 曖昧さや不完全な情報のもとでの推論
• 長期的な視野での思考と二次・三次的な効果
• 判断力、嗜好、物語の一貫性
• 結果に責任を持つこと、単なるアウトプットだけではない
ここにAIの真の限界がある。
能力の限界ではなく、推論の限界だ。
私たちは計算能力やデータ、モデルを拡大し続けているが:
• より高速に
• より広範に
• より流暢に
しかし、推論の質は線形に拡大しない。
現行のシステムは依然として苦戦している:
• 浅い世界モデル
• 弱い因果関係の基盤
• 分布シフトに対する脆弱性
• フレームが変わると崩れる擬似推論
• 外部の支援なしに誤りを認識できない
思考の連鎖、ツール、自省は役立つが、それは一時的な対策であり、突破
原文表示
  • 報酬
  • コメント
  • リポスト
  • 共有
  • ピン