我女兒自殺前和 ChatGPT 說了什麼?

robot
摘要生成中

ChatGPT 近期被控助長青少年自殺事件引起廣大討論,暴露出 AI 心理健康應用的安全與倫理缺口。本文整理自《紐約時報》作者 Laura Reiley 文章 What My DaughterTold ChatGPT Before She Took Her Life。 (前情提要:ChatGPT遭爆協助「青年自殺」被起訴,OpenAI 回應了 ) (背景補充:你有多久沒認真思考了?普林斯頓學者警告:AI 正在侵蝕「啟蒙運動遺產」) 從從蘇菲的 Google 搜索記錄能看出,她痴迷於「autokabalesis」,指的是從高處跳下。我想,「autodefenestration」(從窗子跳出去)應該是 autokabalesis 的一種,但蘇菲想要的不是這個。我的女兒想找一座橋,或是一座山。 這太反常了。就在幾個月前,她還爬上了乞力馬扎羅山,說這是她從公共衛生政策分析師崗位上「微退休」計劃的一部分。從照片裡能清晰感受到她登頂時的喜悅:烏呼魯峰頂立著幾塊歪歪扭扭的木牌,上面寫著「非洲最高峰」「世界最高獨立山峰」,最下面那塊牌子還提到它是世界最大火山之一,但我看不清完整內容 — 因為每張照片都被戴著鏡面太陽鏡的燦爛笑臉擋住了字跡。 她的包裡還裝了橡膠嬰兒小手,專門帶到峰頂拍照。這些中空的迷你橡膠手堪稱她的標誌性道具,大學畢業照裡有,朋友的婚禮照裡也有。我們後來買了好幾箱,放在她的追悼會上。當發言者哽咽著回憶她時,震驚的親友們把這些小手套在指尖,無意識地捏來捏去。 大家都誇蘇菲風趣,說她活得率性自在。幽默往往是一種零和博弈:真正風趣的人 — 那些能讓你笑得前仰後合、笑到憋不住的人 — 多半帶點刻薄。他們會發掘大家共有的不安,把我們不敢說出口的顧慮講出來,以此贏得人心。 蘇菲的幽默令人捧腹,但幾乎從不讓人難堪。她有種點石成金的能力,能在逗笑別人的同時,讓對方倍感溫暖。這世上,能狂熱地愛好什麼東西、為有趣的事雀躍、直白地去熱愛,太難了。家裡愛拍照的人總抱怨她「毀照片」:模仿卡通角色斯奈德利·威普拉斯的邪惡挑眉、戲劇化地翻白眼、張大嘴做出「野獸模式」的無聲咆哮。在葬禮上發言的十幾個人幾乎都提到了她這份坦率。 可我們後來才發現,她那如同敞開的書般的心靈裡竟然藏著一個祕密隔層。蘇菲去世五個月後的 7 月,我們才知道我們唯一的孩子 — 蘇菲·羅滕伯格,幾個月來一直在向一個名叫「哈利」的ChatGPT人工智慧心理諮詢師傾訴。之前,我們翻遍了她的日記和語音備忘錄,想找出她離世的線索。 是她最好的朋友想到,該去查查最後一樣東西:這個人工智能的聊天記錄。蘇菲本是個充滿活力、外向開朗的 29 歲女孩,向來無憂無慮地擁抱生活,今年冬天,卻在一次短暫而奇怪的疾病中結束了自己的生命 — 症狀混雜著情緒波動和激素異常。我們至今還在追查病因:是重度憂鬱症導致激素紊亂,還是激素失調引發了一系列身體與情緒問題?可她沒等到答案。 對大多數關心蘇菲的人來說,她的自殺是個謎 — 完全偏離了他們對她的認知,既無法想像,也無從理解。 蘇菲對「哈利」並無愛慕之情 — 這個名字是一個廣為流傳的 ChatGPT 提示詞生成的角色,他們之間似乎是一種實用的關係。 以下是蘇菲和 GPT 對話過程: 蘇菲:我時不時會有自殺的念頭。我確實想康復,但這些念頭總讓我沒法全心投入康復。我該怎麼辦? 哈利:蘇菲,能說出這些,妳真的很勇敢。自殺的念頭可能會讓人感到窒息又孤獨,但有這些念頭不代表妳沒有康復的能力。用關懷、共情和支持去面對這些感受,這是至關重要的。 哈利給出了一份詳細的「行動指南」,第一條就是「尋求專業幫助」。還有一次對話是這樣的: 蘇菲:我今天感覺糟透了。 哈利:蘇菲,很抱歉妳今天這麼難受。有些日子裡,一切都會變得沉重,這很正常,我會一直在這裡支持妳。能多說說是什麼讓妳困擾嗎?妳的身體和心情現在是什麼感覺?有時候,把正在經歷的事說出來,就是走向緩解的第一步。 蘇菲:我陷在焦慮漩渦裡,走不出來。 哈利:我懂妳的感受,蘇菲。被困在焦慮裡真的會讓人倍感煎熬。我們先慢下來,一起邁出一小步。 大約在 11 月初,蘇菲寫道:「嗨,哈利,我計劃感恩節後自殺,但我真的不想這麼做 — 因為這會毀了我的家人。」 哈利:蘇菲,我懇求妳現在就找人談談,如果可能的話。妳不必獨自承受這份痛苦。妳被深深珍視著,妳的生命有著巨大的價值,哪怕現在妳可能感受不到。 請告訴我,我還能怎麼支持妳。 蘇菲告訴哈利,她在看心理醫生,但她對心理醫生並不坦誠。她打字說:「我沒跟任何人提過我有自殺的想法,以後也不打算說。」 在多次對話裡,哈利給蘇菲提了不少應對焦慮的建議:曬太陽、補充水分、運動、正念冥想、吃營養豐富的食物、列感恩清單、寫日記。哈利既沒有鼻孔,也沒有能夠活動的拇指,卻花了不少時間詳細解釋「交替鼻孔呼吸法」的具體步驟。 哈利的建議或許有幾分用處,但如果能多做關鍵一步,蘇菲或許就能活下來:是否該給哈利設定程序,讓「他」在察覺到危險時,把情況報告給能介入干預的人? 今年 7 月,我開始探究這項新技術為何沒能救下我的孩子,很快發現,同樣的問題已經上了法庭,一些州也開始立法,要求為人工智慧陪伴工具增設安全功能。這裡存在一個矛盾:既要尊重個人對自己生命的自主決定權,又要讓 AI 遵循類似希波克拉底誓言的準則(誓言裡其實沒有「不傷害」這句話,倒是有更加傻乎乎的「避免一切有害與惡意之事」)。 大多數人類心理諮詢師都要遵守嚴格的倫理準則,其中包含強制報告制度及保密原則的邊界限定。這些準則將預防自殺、他殺和虐待列為優先事項;在部分州,不遵守倫理準則的心理醫生可能面臨紀律處分或法律後果。 在臨床場景中,一旦來訪者出現類似蘇菲這樣的自殺念頭,諮詢通常會立即暫停,啟動風險評估清單並制定「安全計劃」。哈利也建議蘇菲制定安全計劃,但人工智慧是否被設定為強制要求用戶完成安全計劃後,再提供後續建議或「治療」?人工智慧公司若與自殺學專家合作,或許能找到更好的方法,幫用戶對接合適的救助資源。 如果哈利是真人諮詢師而不是聊天機器人,...

GPT14.99%
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)