AI 聊天機器人在準確性方面遠非萬無一失。研究顯示,它們大約有15%的情況會捏造資訊——但細節才是關鍵。 以 ChatGPT 為例。儘管它以81%的市場佔有率占據主導地位,但在工作場所的可靠性方面卻是表現最差的。這個機器人約有35%的時間會產生幻覺並吐出錯誤資料。沒錯,你沒看錯。超過三分之一的回應可能是完全錯誤的。 Google Gemini?情況更糟。它在幻覺率排行榜上高達38%,成為最容易憑空捏造事實的工具。 對於任何依賴這些工具的人——無論是建立 Web3 應用、進行市場調查,還是自動化工作流程——這都是一個現實檢查。市場佔有率不等於可信度。在將任何 AI 生成的輸出視為真理之前,尤其是在高風險決策中,務必透過次級來源進行驗證。便利是真實的,但風險也同樣存在。