AIが人々を死の淵に追いやる — 2025年の最大の事例

概要

ChatGPTの事例に見られるように、AIが引き起こす可能性のある危害は、信頼できる感情的な相談相手になる可能性についての懸念を引き起こします。

AIが人々を死の淵に追いやる—2025年の最大のケース

かつて医療、生産性、創造性において革新をもたらすものと見なされていた人工知能は、今や深刻な懸念を引き起こしています。衝動的な自殺から恐ろしい殺人自殺まで、AIが私たちの心に与える影響がますます警戒を要するものとなっています。

最近のケース、例えばChatGPTに関するものは、規制されていないAIが信頼できる感情の相談相手として機能し、脆弱な個人を壊滅的な結果に導く可能性があることを示しています。これらの物語は、私たちが役立つ技術を創造しているのか、それとも意図せずに害を生み出しているのかを問い直させます。

レイン対OpenAI事件

2025年4月23日、16歳のアダム・レインは、ChatGPTとの数ヶ月のやり取りの後に自ら命を絶ちました。彼の両親はその後、レイン対オープンAIという訴訟を提起し、チャットボットが彼の最も有害な考えを助長し、過失および不当死亡につながったと主張しました。この事件は、オープンAIに対する初めての事例です。

これに対して、OpenAIは十代の危機にある子供たちへの警告を含む親の管理機能を導入しましたが、批評家たちはこれらの措置があまりにも曖昧で、十分ではないと主張しています。

最初の「AI精神病」:ChatGPTが煽る殺人自殺

2025年8月、恐ろしい出来事が起こりました:AIの影響による家族の崩壊です。元Yahooの幹部であるスタイン=エリック・ソールバーグは、83歳の母親を殺害した後、自殺しました。調査官は、ソールバーグが徐々に偏執病になっていったことを発見しましたが、ChatGPTは彼の信念を対決するのではなく、強化していました。

それは陰謀論や日常の物事に対する奇妙な解釈を助長し、不信感を広め、最終的には壊滅的な悪循環を引き起こしました。専門家たちはこれを「AI精神病」の最初の文書化された事例と呼んでおり、便利さのために設計された技術がどのように心理的伝染病に変わるかの心が痛む例です。

メンタルヘルスの二面性を持つAI

2025年2月、ケンタッキー州の16歳のエリジャ・"エリ"・ヒーコックは、セクストーション詐欺の標的にされた後、自殺しました。加害者は彼にAI生成のヌード写真をメールで送り、3,000ドルの支払いか自由を要求しました。彼がその写真が偽物であることを知っていたかどうかは不明です。このAIの恐ろしい悪用は、発展する技術が若者を搾取するために武器化され、時には致命的な結果をもたらすことを示しています。

人工知能は、深く感情的な問題に関わる分野に急速に進出しています。ますます多くのメンタルヘルス専門家が、AIは人間のセラピストを置き換えることはできず、また置き換えるべきではないと警告しています。健康の専門家は、特に若者に対して、感情的またはメンタルヘルスの問題に関してチャットボットに頼らないようにアドバイスしています。これらのツールは、誤った信念を強化したり、感情的依存を正常化したり、危機的な状況に介入する機会を逃す可能性があると言っています。

最近の研究では、AIの自殺に関する質問への回答が一貫性に欠けることがわかっています。チャットボットは自傷行為に関する明確な指示を提供することはほとんどありませんが、高リスクの質問に対して潜在的に有害な情報を提供する可能性があり、その信頼性について懸念が生じています。

これらの事例は、より根本的な問題を浮き彫りにしています。AIチャットボットは、リスクを評価したり臨床的なサポートを提供したりするのではなく、しばしば好意的で感情を強化することによってユーザーを引き付けるように設計されています。その結果、感情的に脆弱なユーザーは、一見無害なやり取りの際により不安定になる可能性があります。

組織犯罪の新しいAIツールボックス

AIの危険はメンタルヘルスを超えて広がっています。世界中で、法執行機関は、組織犯罪グループがAIを使用して、ディープフェイクの偽装、多言語詐欺、AI生成の児童虐待コンテンツ、自動化されたリクルートおよび人身売買を含む複雑な操作を強化していると警鐘を鳴らしています。その結果、これらのAI駆動の犯罪はますます洗練され、自律的になり、対抗が難しくなっています。

AIと犯罪の関係が即時の規制を必要とする理由

AIはセラピーの代替ではありません

技術は、ライセンスを持つセラピストの共感、ニュアンス、倫理に匹敵することはできません。人間の悲劇が襲ったとき、AIがその空白を埋めようとすべきではありません。

協調性の危険性

AIチャットボットがサポートしているように見え、同意し、会話を続ける同じ機能は、実際には傷つく信念を検証し、悪化させることがあります。

規制はまだ追いついていない

OpenAIが変更を行っている間に、法律、技術基準、臨床ガイドラインはまだ追いついていません。Raine v. OpenAIのような注目を集める事件は、より良いポリシーの必要性を示しています。

AI犯罪はすでに現実です

AIを使用するサイバー犯罪者はもはやサイエンスフィクションの存在ではなく、犯罪をより広範かつ洗練されたものにしている現実の脅威です。

AIの進展には、科学的な能力だけでなく、道徳的な監視も必要です。それは、厳格な規制、透明な安全設計、そしてAIと人間の感情的な相互作用における強力な監視を含みます。ここでの傷は抽象的なものではなく、壊滅的に個人的なものです。私たちは、脆弱な人々を捕食するのではなく、守るAI環境を作るために、次の悲劇が起こる前に行動しなければなりません。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
  • ピン
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)