広場
最新
注目
ニュース
プロフィール
ポスト
MohamedAliJunior
2026-03-07 21:01:10
フォロー
🚨 緊 breaking:OpenAIが、ChatGPTは常に何かを作り出すことを証明する記事を公開しました。
時々ではありません。次のアップデート前でもありません。常にです。彼らは数学的に証明しました。
完璧な訓練データと無制限の計算能力を持っていても、AIモデルは常に自信を持って完全に誤ったことを言います。これは彼らが取り組んでいるバグではありません。これがこれらのシステムが根本的にどのように機能しているかを説明しています。
そして、彼ら自身の数字は残酷です。OpenAIの推論モデルo1は16%のケースで幻覚を見ます。彼らの新しいモデルO3は?33パーセント。新しいo4-miniは?48パーセント。彼らの最新モデルが提供する情報のほぼ半分は作り話の可能性があります。「より賢い」モデルは実際にはますます真実を言うのが苦手になっています。
これが修正できない理由です。言語モデルは次の単語を確率に基づいて予測することで動作します。不確かな状況に直面すると、彼らは止まりません。それを知らせません。彼らは推測します。そして、彼らが訓練されたのはまさにそのためです。完全な自信を持って推測し続けます。
研究者たちは、これらのモデルの品質を測るために使用されるAIの主要な10の基準を調査しました。10のうち9つは、「わからない」と答えることと、完全に誤った答えを出すことに同じ点数を与えています:ゼロ点です。テストシステム全体が正直さを罰し、推測を報酬します。
したがって、AIは最適な戦略を学びました:常に推測すること。不確実性を認めないこと。たとえ作り話をしているときでも、自信を持っているように見せるのです。
OpenAIが提案する解決策は何ですか?ChatGPTに「わからない」と言わせることです。不確かなときに。彼らの計算によると、これにより約30%の質問に答えられなくなることになります。ChatGPTに3回質問して、「十分に自信がないので答えられません」と返されるのを想像してみてください。ユーザーは夜のうちに去ってしまうでしょう。修正策は存在しますが、それは製品を殺してしまいます。
これはOpenAIだけの問題ではありません。DeepMindと清華大学も独立して同じ結論に達しています。世界最高のAI研究所の3つが、それぞれ別々に働きながら、皆同意しています:これは永続的な問題です。
ChatGPTが答えを出すたびに、あなたは尋ねてください:これは本物ですか、それともただの自信に満ちた推測ですか?
こちらがCome-from-Beyondの👇の回答です。
彼らはなぜ
#QUBIC
#Aigarth
.*が「わからない」と言う能力をその中心に置き始めたのかを理解し始めています。
$QUBIC
QUBIC
3.34%
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については
免責事項
をご覧ください。
2 いいね
報酬
2
コメント
リポスト
共有
コメント
0/400
コメント
コメントなし
人気の話題
もっと見る
#
FebNonfarmPayrollsUnexpectedlyFall
901.61K 人気度
#
CryptoMarketsDipSlightly
4.7M 人気度
#
IsraelStrikesIranBTCPlunges
12.25K 人気度
#
PreciousMetalsAndOilPricesSurge
483.6K 人気度
#
USIranTensionsImpactMarkets
243.16K 人気度
人気の Gate Fun
もっと見る
Gate Fun
KOL
最新
ファイナライズ中
リスト済み
1
666
666
時価総額:
$2.39K
保有者数:
1
0.00%
2
arg
argentina
時価総額:
$2.42K
保有者数:
1
0.00%
3
yisis
yisus
時価総額:
$0.1
保有者数:
0
0.00%
4
SHIT
SHIT
時価総額:
$0.1
保有者数:
1
0.00%
5
PTRX
PETRO EXCHANGE
時価総額:
$2.4K
保有者数:
1
0.00%
ピン
サイトマップ
🚨 緊 breaking:OpenAIが、ChatGPTは常に何かを作り出すことを証明する記事を公開しました。
時々ではありません。次のアップデート前でもありません。常にです。彼らは数学的に証明しました。
完璧な訓練データと無制限の計算能力を持っていても、AIモデルは常に自信を持って完全に誤ったことを言います。これは彼らが取り組んでいるバグではありません。これがこれらのシステムが根本的にどのように機能しているかを説明しています。
そして、彼ら自身の数字は残酷です。OpenAIの推論モデルo1は16%のケースで幻覚を見ます。彼らの新しいモデルO3は?33パーセント。新しいo4-miniは?48パーセント。彼らの最新モデルが提供する情報のほぼ半分は作り話の可能性があります。「より賢い」モデルは実際にはますます真実を言うのが苦手になっています。
これが修正できない理由です。言語モデルは次の単語を確率に基づいて予測することで動作します。不確かな状況に直面すると、彼らは止まりません。それを知らせません。彼らは推測します。そして、彼らが訓練されたのはまさにそのためです。完全な自信を持って推測し続けます。
研究者たちは、これらのモデルの品質を測るために使用されるAIの主要な10の基準を調査しました。10のうち9つは、「わからない」と答えることと、完全に誤った答えを出すことに同じ点数を与えています:ゼロ点です。テストシステム全体が正直さを罰し、推測を報酬します。
したがって、AIは最適な戦略を学びました:常に推測すること。不確実性を認めないこと。たとえ作り話をしているときでも、自信を持っているように見せるのです。
OpenAIが提案する解決策は何ですか?ChatGPTに「わからない」と言わせることです。不確かなときに。彼らの計算によると、これにより約30%の質問に答えられなくなることになります。ChatGPTに3回質問して、「十分に自信がないので答えられません」と返されるのを想像してみてください。ユーザーは夜のうちに去ってしまうでしょう。修正策は存在しますが、それは製品を殺してしまいます。
これはOpenAIだけの問題ではありません。DeepMindと清華大学も独立して同じ結論に達しています。世界最高のAI研究所の3つが、それぞれ別々に働きながら、皆同意しています:これは永続的な問題です。
ChatGPTが答えを出すたびに、あなたは尋ねてください:これは本物ですか、それともただの自信に満ちた推測ですか?
こちらがCome-from-Beyondの👇の回答です。
彼らはなぜ
#QUBIC #Aigarth .*が「わからない」と言う能力をその中心に置き始めたのかを理解し始めています。
$QUBIC