AI 幻覺(hallucination)至今仍是大型語言模型(LLM)最令人頭痛的問題之一,但華頓商學院教授 Ethan Mollick 在 X 上提出了一個耐人尋味的觀點:人類數百年來早已發展出成熟的機制,能夠從不可靠的來源中獲得可靠的輸出——那套機制叫做「組織結構」(organizational structures),而我們完全可以將類似的方法應用在 AI 上。這則推文獲得 329 個愛心、35 次轉推和 44 則回覆,引發了一場關於如何務實應對 AI 幻覺的深度討論。
什麼是「組織結構」類比?
Mollick 的核心論點直指一個常被忽略的事實:人類從來就不是完美可靠的資訊來源。歷史上,無論是會計帳目、醫療診斷還是法律判決,人類的輸出始終存在錯誤風險。然而,文明之所以能正常運作,是因為我們發展出了一整套「組織結構」來管控這些風險。
這些組織結構本質上就是一套精密的「錯誤攔截機器」:透過分工、層級審核、交叉驗證和制度化流程,將個體的不可靠性轉化為系統層級的可靠性。Mollick 認為,與其執著於追求一個「永不出錯的 AI」,不如換個思路——就像我們對待人類員工一樣,為 AI 建立一套組織化的品質控管體系。
具體應用方法:審查、測試與交叉驗證
在推文引發的後續討論中,Mollick 和其他參與者進一步探討了幾種可以直接借鏡組織管理的具體方法。首先是「審查機制」(reviews),就像企業中的主管審核或同儕評審一樣,讓另一個 AI 模型或人類專家對 LLM 的輸出進行系統性檢查。
其次是「測試機制」(tests),類似於軟體開發中的單元測試和品質保證流程,為 AI 的每一項輸出設定可驗證的標準。第三是「交叉驗證」(cross-checks),讓多個獨立的 AI 模型或資訊來源對同一問題給出答案,再比對結果的一致性——正如組織中不同部門的相互制衡。
這些方法的共同邏輯是:不依賴單一節點的完美性,而是透過系統設計來降低整體錯誤率。這與現代品質管理理論中「瑞士乳酪模型」(Swiss Cheese Model)的概念不謀而合——每一層防護都有漏洞,但多層疊加後,錯誤穿透所有層級的機率就大幅降低。
對企業 AI 部署的啟示
Mollick 的這套思維框架對正在導入 AI 的企業特別有啟發性。許多企業在面對 AI 幻覺問題時,往往陷入兩個極端:要麼因為害怕錯誤而完全不敢使用 AI,要麼過度信任 AI 輸出而忽略驗證。組織設計的思維提供了一條中間道路——承認 AI 會犯錯,但透過制度設計將錯誤控制在可接受的範圍內。
具體而言,企業可以建立「AI 品質管理流程」:將 AI 視為組織中的一個「員工」,為其配備審核機制、設定明確的職責邊界、建立異常偵測系統,並在關鍵決策環節保留人類覆核。這種做法不僅更務實,也更符合企業已經熟悉的管理邏輯。對 AI 產業而言,Mollick 的觀點提醒我們:解決 AI 幻覺的答案,或許不僅在技術層面,更在於重新思考人機協作的組織架構。
這篇文章 華頓商學院教授 Ethan Mollick:用「組織設計」思維解決 AI 幻覺問題 最早出現於 鏈新聞 ABMedia。