AI 為何有幻覺(Hallucination)?
Update: 2025-09-12
Description
「幻覺」(Hallucination)是指大語言模型(LLM)在回答問題時,產生聽起來很有說服力,但卻是無中生有的資訊 。
為什麼會產生幻覺?
OpenAI 的研究報告指出,幻覺是語言模型本身的結構問題。其運作機制是透過不斷預測下一個最合理的字詞來生成內容。當訓練資料中沒有固定答案的問題時,模型為了獲得「獎勵」(即生成回應),就會像猜測選擇題一樣,胡亂編造一個答案 。
新一代的模型如 GPT-5,已透過改善其評分機制,減少了幻覺的出現。幻覺是語言模型固有的結構問題,因此無法百分之百根治 。
從使用者角度如何減少幻覺?
使用者可以透過以下方法降低幻覺的發生機率:
* 限定資料範圍:提供特定的文件(如論文)給模型,並要求它只在這些資料的範圍內回答問題 。
* 明確提問:在提問時,清楚地描述背景、問題,並說明你期望的答案類型,例如「不要亂編」、「需要精準答案」等 。
* 要求事實核查:可以要求模型自己進行事實核查,或請它提供資料來源 。
如何讓大語言模型有效地發揮創意?
* 結合特定情境:將兩個看似不相關的概念或領域(例如佛學與人工智慧)關聯起來,引導模型從新穎的角度進行分析 。
* 協作式提問:當問題不夠明確時,讓模型反過來提問以幫助您收窄問題範圍,共同協作釐清問題 。
* 資訊整理與分析:利用模型將多個來源的資訊(如公司財報、網路論壇評論)進行綜合和摘要,以獲得更精簡和全面的答案 。
This is a public episode. If you'd like to discuss this with other subscribers or get access to bonus episodes, visit leesimon.substack.com/subscribe
Comments
In Channel