close
人工智能

Google AI 摘要提供錯誤健康資訊 專家憂人工智能工具欠妥善監管

 

有媒體調查最近揭發 Google 搜尋引擎 AI Overviews 功能提供具誤導性醫療資訊,Google 隨後移除部分健康相關搜尋功能。但醫療專家及慈善機構認為這種「逐個修補」做法未能解決根本問題,人工智能在敏感醫療領域可靠性正面臨嚴峻考驗。

 

AI 搜尋摘要出現嚴重健康資訊錯誤

Google 於 2024 年 5 月推出 AI Overviews 功能,透過生成式人工智能技術在搜尋結果頂部顯示摘要資訊,期望讓用戶更快獲取答案。《The Guardian》於 2026 年 1 月初發表調查報告,揭示該功能在多項健康相關搜尋中提供不準確甚至危險建議。

調查發現當用戶搜尋「肝功能血液測試正常範圍」時,AI Overviews 顯示數值並無考慮年齡、性別、種族或國籍等關鍵因素。英國肝臟信託基金會傳訊及政策總監 Vanessa Hebditch 指出,這種缺乏背景資料呈現方式,可能令患有嚴重肝病病人誤以為自己健康正常。

胰臟癌飲食建議錯誤更令專家震驚。Pancreatic Cancer UK 支援、研究及倡議總監 Anna Jewell 表示,AI Overviews 建議胰臟癌病人避免高脂肪食物,與醫學建議完全相反。胰臟癌病人因消化功能受損常面對營養不良及體重下降問題,若跟從 AI 錯誤建議減少脂肪攝取,可能導致身體過於虛弱無法承受化療或手術。

The Eve Appeal 癌症慈善機構行政總裁 Athena Lamnisos 亦批評 AI Overviews 錯誤將子宮頸抹片檢查列為陰道癌篩查方法,但事實上該測試只用於篩查子宮頸癌,這類錯誤資訊可能令女性忽略重要症狀。

 

Google 回應及功能移除情況

報道刊出後,Google 已移除「肝功能血液測試正常範圍」及相關搜尋 AI Overviews 功能。報道發表數小時後上述搜尋已不再顯示 AI 摘要,部分搜尋結果首位甚至顯示《The Guardian》調查報道。

Google 發言人表示,公司不會就個別搜尋移除作出評論,但會致力作出「廣泛改善」。發言人補充指公司內部臨床團隊已審視調查報告提及例子,發現「在許多情況下資訊並非不準確,亦獲高質素網站佐證」。

然而調查亦發現,用戶只需略為改變搜尋字眼(例如使用「LFT reference range」),仍可能觸發 AI 摘要功能,顯示 Google 修正措施並不全面。Vanessa Hebditch 形容移除功能是「好消息」,但強調這只是「針對單一搜尋結果修補工作」,未有正視 AI Overviews 處理健康資訊根本問題。

 

研究數據揭示 AI 醫療資訊風險

多項學術研究印證 AI 生成健康資訊系統性問題。Mount Sinai 伊坎醫學院於 2025 年 8 月發表研究,發現主流 AI 聊天機械人「極易受虛假醫療資訊影響」。Mount Sinai 醫療系統人工智能及人類健康 Windreich 部門生成式人工智能總監 Eyal Klang 醫生解釋,AI 聊天機械人能夠以自信語氣呈現虛假醫療細節,令錯誤資訊更難被察覺。

耶魯大學另一項研究檢視 AI 在慢性病護理表現,發現 91.9% 個案中 AI 要求進行不必要化驗測試,57.8% 個案中 AI 處方可能不當或有害藥物。Stanford 研究則發現 22% AI 生成醫療問答存在嚴重錯誤。

Ahrefs 分析 1.46 億項搜尋結果後發現,44.1% 醫療類「Your Money or Your Life」(YMYL)搜尋會觸發 AI Overviews,比率是整體基準 20.5% 兩倍以上,顯示健康搜尋正是 AI 摘要出現頻率最高類別。

University of Pennsylvania Annenberg Public Policy Center 於 2025 年 4 月進行調查顯示,近 80% 美國成年人表示可能會在網上搜尋健康症狀及狀況,當中近 60% 認為 AI 生成結果「頗為可靠」或「非常可靠」,反映公眾對 AI 健康資訊信任程度令人擔憂。

 

對醫療及商業機構的啟示

這次事件對醫療機構及涉足健康資訊領域企業敲響警鐘,Patient Information Forum 總監 Sophie Randall 指出,Google AI Overviews 能將不準確健康資訊置於搜尋結果頂部,對公眾健康構成風險。

醫療專業人士表示,越來越多病人帶着從 AI 獲取錯誤觀念求診,增加診症複雜性。有腫瘤科醫生反映,部分病人因誤信 AI 摘要而拒絕必要治療。Inlightened 於 2025 年 10 月至 11 月進行調查發現,61% 受訪醫護專業人員對網上醫療錯誤資訊「非常擔憂」,76% 預計問題在未來 12 個月會進一步惡化。

對於醫療相關企業而言,這次事件突顯在採用 AI 工具時必須審慎評估風險。ECRI(全球醫療安全非牟利組織)將 AI 列為 2025 年十大醫療科技危機之首,警告 AI 系統可能產生虛假或誤導結果,其輸出質素亦可能因不同病人群體而有差異。

企業在部署 AI 處理敏感健康資訊時,應考慮以下策略:確保 AI 輸出經專業醫護人員審核、為複雜或高風險醫療議題設定限制、優先採用來自主要醫療機構及經同行評審期刊權威來源,以及建立清晰免責聲明機制提醒用戶尋求專業意見。

 

監管框架與行業前景

法律專家建議將演算法生成健康答案納入現行醫療儀器規管框架。歐盟《人工智能法案》已將「用於醫療用途 AI 系統」明確列為高風險類別,要求符合嚴格質素管理、透明度及人類監督要求。美國 FDA 截至 2024 年 8 月已批准 950 項 AI 及機械學習醫療儀器,但後市監察數據顯示報告不良事件比率僅約 5%,反映監察力度可能不足。

業界觀察者認為,科技公司在部署 AI 功能時往往追求速度而忽視準確性,尤其在醫療等高風險領域。《The Guardian》調查在 AI Overviews 推出逾 18 個月後仍發現嚴重問題,顯示 Google 此前承諾改善措施成效有限。

隨着 AI 工具日益融入日常搜尋體驗,確保敏感領域資訊準確性將成為科技公司重大挑戰。這次事件亦提醒消費者,在涉及健康決策時不應盲目信任 AI 生成摘要,應以專業醫療意見為依歸。

 

來源:The Guardian

Tags : AI Overviewsgoogle人工智能虛假資訊醫療科技