
當AI開始「一本正經地胡說八道」:全球大模型競逐中的隱性風險
大語言模型如今正日益滲透到知識生產、商業分析、法律諮詢與醫療決策等核心領域,一個過去常被視為技術性缺陷嘅問題,正迅速成為全球技術競賽嘅新焦點:大語言模型嘅「幻覺」( Hallucination )——即模型喺缺乏事實依據時,仍然以極高「信心」畀出流暢、卻虛假嘅答案。從中美科技巨頭到全球初創企業,過去幾年大模型的競爭主要圍繞參數規模、運行速度與通用能力展開; 而今,一個更具決定性的維度正在浮現:誰能更系統、更有效地控制幻覺,誰就將率先邁向「可信賴AI」(Trustworthy AI)的時代。
「幻覺」並非無關緊要的技術小瑕疵,而是AI真正走向專業化、產業化應用的關鍵阻力。 在現實世界中,學生論文中無中生有的文獻引用,金融分析中被編造的併購事件、法律諮詢中一個子虛烏有的判例、醫學報告中混淆的癥狀描述,都可能引發嚴重的經濟或生命後果。
系統性風險揭示:香港大學 AIEL 測評洞察
為了更系統地瞭解這一隱性風險,香港大學人工智慧評估實驗室(AIEL)近期針對37個中美主流大模型進行了大規模測評,覆蓋通用、推理、自動化系統等多種模型類型。 測評結果不僅揭示了頭部模型在可靠性上的新格局,也暴露了當前技術發展中仍未解決的根本性挑戰。
本次測評將大模型的「幻覺」風險主要劃分為兩大類:
- 事實性幻覺(Factual Hallucination):模型「說得像真的,但其實是假的」
這是大模型機制帶來的天然風險。 當模型面對不確定資訊時,它往往傾向於「編造」一個邏輯完整的回應,而非回答「我不知道」。 這類幻覺包括:生成不存在的學術文獻; 無依據地描述歷史事件; 對未知概念作出看似邏輯完整卻錯誤的解釋等。 由於其機制根源,事實性幻覺被視為最難真正消除的幻覺類型。
- 忠實性幻覺(Fidelity Hallucination):模型「卻未完全按照指令完成任務」
這包括模型未能按要求控制格式、遺漏了指令中的關鍵資訊、或擅自引入了文本外的資訊等。 儘管隨著模型能力的提升,這類幻覺整體有所下降,但它仍是AI進入醫療、司法等強監管、高規範行業的主要障礙。
測評結果揭示,目前領先大模型在忠實性幻覺控制上已相當不錯。 例如,GPT-5系列在忠實性維度均取得滿分,顯示出卓越的任務遵循能力。 然而,事實性準確度方面(GPT-5思考模式得分小於75分)仍有提升空間。 這反映出大模型普遍存在「嚴守指令但易虛構事實」的傾向——事實可靠性依然是全球大模型的共同短板。
此外,我們還發現推理模型的幻覺控制能力表現較好。 例如,通義千問3(思考模式)和Claude 4 Opus(思考模式)等推理模型的幻覺控制能力,均優於同系列通用版本。 這表明,讓模型進行深度的、多步驟的「思考」是當前控制幻覺最有效的技術手段之一。
AI的下一場革命不是生成,而是可靠
隨著大模型向多模態與專業化方向縱深發展,「幻覺風險」已從學術議題演變為產業落地的紅線。 在醫療診斷或金融風控中,穩定、一致、可驗證的答案遠比「像人類的表達」更具商業價值。 當大模型被引入公共治理與生命健康等高風險領域,衡量其價值的尺規已不僅再是“它能否回答”,而是:它的回答能否被託付給真實世界。
幻覺控制,這一曾被低估的能力,正在成為全球大模型競爭中的關鍵分水嶺。 下一階段的技術分化,或許不在於生成得多快、多像人,而在於:何時,它值得被真正相信。
*流覽香港大学人工智能評估實驗室《大語言模型幻覺控制能力深度測評報告》全文:https://www.hkubs.hku.hk/aimodelrankings/leaderboards/hallucination.html
蔣鎮輝教授
港大經管學院創新及資訊管理學教授
魯藝
港大經管學院博士後研究員
(本文同時於二零二六年一月八日載於《FT中文網》明德商論專欄)






