議題背景:

《衛報》(The Guardian)與SE Ranking在2026年1月的系列報導中,指出Google「AI摘要(或稱AI概覽)」(AI Overviews)健康資訊的引用品質堪慮,可能誤導使用者的就醫或健康行為。

搜尋引擎優化分析平台SE Ranking於2026年1月14日發布研究,分析德國超過50,000筆健康相關搜尋,探討 Google 的AI摘要功能在回答健康問題時,究竟引用哪些來源。研究發現, AI摘要最常引用的是YouTube,佔所有引用的4.43%(20,621次),遠超過任何醫院網絡、政府衛生入口網站或學術機構。整體而言,僅約34%的引用來自可信賴的醫療來源,而政府衛生機構與學術期刊合計僅佔約1%。

《衛報》健康編輯Andrew Gregory則自2026年1月起系列報導,指出AI摘要在多個健康議題上提供錯誤或誤導性資訊;例如,提供胰臟癌患者錯誤的健康建議,誤導肝功能血液檢查及女性癌症檢測方法的資訊。報導也指出,AI摘要以「自信、單一」的權威口吻呈現答案,可能導致使用者不再查證其他來源,直接採信AI建議。

 

衛報相關報導:

衛報引用之網路分析

 

目前AI摘要已擴展至全球200多個國家、40種語言,每月服務20億用戶。

為使大眾更加理解AI生成健康資訊的品質與風險,以及對臺灣民眾健康素養與資訊環境的潛在影響,因此台灣科技媒體中心邀請專家提供觀點。

2026年01月29日
林口長庚眼科部教授暨組織工程研究中心主任/醫師 陳宏吉

Q1:就您的觀察,台灣使用者是否也同樣高度依賴Google 搜尋健康資訊?在接觸AI生成的健康摘要時,是否面臨類似的資訊品質風險?可能造成什麼影響?

一、台灣使用者是否同樣高度依賴 Google 搜尋健康資訊?

整體來看,台灣民眾高度依賴網路資訊,而 Google 仍是最主要入口之一。2025 年財團法人台灣網路資訊中心《台灣網路報告》指出,全台上網率達 88.75%,線上醫療服務更是最能激起未上網民眾,使用網路動機的前三大功能之一。此外,研究顯示民眾遇到健康問題時,確實習慣「先上網查」並搜尋了解健康議題(如疫情期間以 Google 搜尋「洗手」等詞能反映防疫意識)。因此,可以合理推斷:台灣民眾尋找健康資訊時,Google 搜尋依然具有極高影響力。

二、台灣使用者在接觸 AI 健康摘要時是否面臨類似風險?

是的,多家台灣新聞媒體引用《衛報》的調查,指出 Google AI 摘要在肝功能檢查、胰臟癌飲食等議題上提供錯誤或誤導性資訊,可能造成嚴重健康後果。報導也確認,即使 Google 已移除部分錯誤摘要,以中文搜尋時仍可能出現 AI 摘要,顯示問題仍未完全解決。 因此,台灣使用者同樣暴露於:錯誤或缺乏背景的醫療數據(如肝功能數值未考慮族群差異);AI摘要過度自信、簡化的單一句子醫療建議,可能被誤認為專業判斷。

三、可能造成的影響

個人推論有以下四個影響。

  1. 延誤就醫或錯誤自我診斷:錯誤的肝功能數據或癌症檢查建議,可能讓民眾誤以為健康無虞,延誤診療;類似英國案例的情況,在台灣同樣可能發生。
  2. 強化錯誤健康迷思:若 AI 摘要引用來源偏向 YouTube 或非權威平台,可能擴大健康迷信、偏方、減肥迷思等錯誤資訊的散布。
  3. 高齡族群與弱勢族群更易受害:雖然長者上網率上升,但查證能力較弱,加上 AI 摘要以「權威語氣」呈現,可能導致不當依賴。
  4. 公共健康風險放大:當大量民眾基於錯誤 AI 建議做出健康決策(如錯誤飲食、錯誤藥物處理),可能提升整體醫療負擔。

 

2026年01月29日
國立政治大學新聞學系助理教授 李怡志

Q1:在接觸AI生成的健康摘要時,是否面臨類似的資訊品質風險?可能造成什麼影響?

因為Google的AI摘要很新,一般人不知道背後的邏輯,需要一點時間才能「體會」這個新技術的缺點。目前AI摘要的參考資訊,還是以搜尋結果排名為重要依據,會受到所謂的「搜尋引擎排名最佳化」(SEO)技術影響,排名前面的資訊不一定真的專業。其次,在AI不完全理解真實資訊的情況下,AI生成的摘要可能在組合、拼貼的過程中產生錯誤。

目前AI摘要在右邊都會有原始資訊,民眾除了看摘要,也務必要參考原始資訊。但因為搜尋排名操作的關係,這些資訊有可能來自於醫療機構,也可能來自於食品公司、一般商業公司或者相關媒體,甚至沒有醫藥專長的一般人。

不論點擊AI摘要右方的原始資料,或者下方的連結,民眾在閱讀與自己健康、生命相關的訊息時,應該注意下列幾項資訊:

  1. 注意資訊出處與發言身分:通常醫院、學會、衛生主管機關的資訊會比較保守、專業,而不知名的作家、YouTube頻道的資訊可信度就不一定。
  2. 注意資訊時間:醫療資訊日新月異,使用者應該保持習慣,注意資訊發布時間。但因為SEO競爭激烈,有些網站會不斷修改內容的發布日期,所以還是要注意消息來源。

Q2:民眾在使用搜尋引擎尋求健康資訊時,應該採取哪些步驟或原則確認資訊的正確性?

民眾查詢資訊時,也可以手動限定資訊來源。台灣的公立醫院、衛生主管機關的網址為 .gov.tw 結尾,大型私立醫院及醫療學會的網址通常是 .org.tw 結尾;在查詢時可以手動加上 site:.org.tw 或 site:.gov.tw,這樣可以限縮資料來源,通常可以降低一些風險。但也有很多好的醫療媒體在 .com 網域之下,所以民眾對於重大醫療資訊,還是要發展出多元的查詢策略。

Q3:報導中指出,AI優先引用YouTube影片內容,而非傳統的文字型醫療資訊網站。您認為這反映了什麼樣的演算法邏輯或平台策略?對於產製健康資訊的媒體與機構而言,有什麼因應之道?

由於不同國家的資訊不同,目前AI摘要的結果大量依賴民眾查詢時的語言或地點。由於台灣醫療院所比較少經營YouTube頻道,所以影音內容較少。因為現在製作影片的成本不高,醫療院所或相關專業醫療機構,可以更積極產生專業的醫療資訊服務民眾,也增加被AI摘要引用及曝光的機會。

 

2026年01月29日
馬偕兒童醫院兒童一般科兒童醫務部專員 邱南昌

Q1:就您的觀察,台灣使用者是否也同樣高度依賴Google 搜尋健康資訊?在接觸AI生成的健康摘要時,是否面臨類似的資訊品質風險?可能造成什麼影響?

台灣使用者借助Google搜尋健康資訊的比例未知。就我經驗,就醫時會以自行搜尋Google所獲取資料直接詢問醫師的民眾,目前還不多;但是否已查過而未告知,就不知道了。

AI生成的健康摘要若來源不可靠,結論自然無法依賴,誤導民眾的可能性就很高。不正確的訊息可能會導致錯誤的醫療行為,如不遵循醫囑使用藥物、選擇另類非正統治療、延誤適當治療時機等,對民眾健康當然可能造成不良後果。

醫療專業討論引用資料時,一般要列出資料來源,因為同一問題,即使專業研究也可能有不同研究結果,必須看研究方法、研究對象、刊登期刊的品質(如影響指數)等,來斷定是否值得採信。AI生成的健康摘要雖有時也列出資料來源,但數量有限,常無法包含最新發表的文獻,且常未經篩選、確認內容正確性與是否合適。

Q2:想請教您,民眾在使用搜尋引擎尋求健康資訊時,應該採取哪些步驟或原則確認資訊的正確性?

提供資訊者是最重要的憑據。就民眾而言,政府衛生入口網站、學術機構、醫療專業學會或協會網站的資料,最可作為依據;醫療院所網站的衛教知識,也大致可相信。YouTube大多為個人所設立,設立者的背景和設立目的會影響訴說的內容。就算頻道經營者為醫療人士,以醫療的複雜度,不可能各種醫療專業都能深入知曉;還需視協助或參與討論的其他專業人士,才較能有可信度。網站上也存在另有目的者,可能為了推廣某種未經專業公認的特殊治療方式或藥物、食品。獨家或只有少數人有同樣說法的資訊,就應特別小心,誤導的機率高。還有些模稜兩可或聳動的話術也要小心,號稱太完美的治療,往往隱藏了未說出的風險。民眾若有健康資訊疑慮時,應與相關醫療專業人士討論。負責任的醫師,在非他能力所及部分,應直接告知民眾,建議合適的詢問對象。

Q4:其他您覺得解讀這系列報導時,值得提出的研究觀點或政策建議?

AI雖為資訊搜索提供非常大的協助,但可靠性仍存在風險。因絕大多數YouTube內容非專業機構建立,當相當高比例的資料來源引用搜尋YouTube結果時,結論偏頗的可能性自然很高。若想自行搜索健康資訊,還是以政府衛生單位、醫療專業學會或協會、學術機構的網站為主。若採用一般搜尋引擎,需注意搜尋結果列出來的排序原則不代表正確性。若用AI查詢,現在可免費使用的不少,不妨使用不只一個AI查詢,比對結果作為參考。民眾直接詢問所信任的醫療專業人士,還是最佳選擇。

 

2026年01月30日
臺北醫學大學特聘教授暨副校長兼護理學院院長 蔡佩珊

英國衛報(The Guardian)近期報導指出,Google的AI摘要在健康相關查詢中,可能高度依賴YouTube等高可見度平台作為資訊來源,而非醫院、政府健康網站或學術機構。相關研究顯示,AI在引用資訊時,似乎更傾向於「受歡迎程度」與「可見度」,而非醫學專業權威與實證基礎,進而引發外界對AI醫療資訊可靠性及其對公共健康潛在風險的質疑。

然而,這項發現不宜被簡化為「AI在醫療健康資訊上的風險」。事實上,AI摘要本質上只是反映並放大既有的資訊生態結構與人類行為模式。筆者認為真正值得警惕的,是當前社會對單一權威資訊來源的高度依賴,以及民眾健康識能(health literacy)普遍不足的現象[1]。在數位時代,無論資訊來自醫師、學術機構、意見領袖,或是AI生成的摘要,都不應被視為不可質疑的「知識威權」,而應被理解為需要查證、比較與進一步判讀的資訊來源之一。

此一觀點,亦可類比於臨床醫療場域的情境。當民眾因健康疑慮至醫院求診,若對診斷或治療建議存有疑問,本就應被鼓勵提出質疑,或尋求第二意見(second opinions)。相對地,醫療人員亦應擺脫傳統的家長主義(paternalism),與病人建立以共享決策(shared decision-making)為核心的醫病關係,提供透明且可信賴的醫學證據,提升病人自主參與醫療決策的能力。

從供給端來看,AI 若被應用於醫療與健康領域,其系統設計勢必需要制度性地納入醫學專業權威、證據等級與來源透明度,避免以流量與演算法可見度取代實證醫學(evidence-based medicine)原則。然而,從需求端而言,同樣重要的是培養民眾勇於提問、辨識資訊品質,並對「看似權威」的內容保持理性懷疑的能力。

因此,這場關於 AI 與醫療資訊的爭論,實際上指向一個更根本的課題:健康資訊的安全,不僅取決於科技如何設計,更取決於社會是否具備足夠的健康識能。唯有當技術治理與公民能力同步提升,AI 才能成為促進健康的助力,而非誤導風險的放大器。

[1]:健康識能是指個人獲得、處理以及了解基本健康訊息,並以此進行健康決策的能力,請見 https://www.mohw.gov.tw/cp-4258-47221-1.html

 

2026年01月31日
臺北醫學大學特聘教授暨副校長兼護理學院院長 蔡佩珊

Q1:就您的觀察,台灣使用者是否也同樣高度依賴Google 搜尋健康資訊?在接觸AI生成的健康摘要時,是否面臨類似的資訊品質風險?可能造成什麼影響?

在臺灣,多數民眾與照顧者面對健康問題時,第一步仍是使用 Google 搜尋,原因包括(1. )搜尋入口高度集中於 Google;(2). 門診時間有限、醫師解釋深度不一;和(3). 官方中文醫療內容不足。當 Google 從「列出連結」轉為「直接給答案(AI Overviews)」後,臺灣使用者受到的影響更直接且深層。由於繁體中文的 AI 生成摘要常出現英文醫學內容的簡化轉譯、術語不精準,以及混用中國簡體語境與臺灣臨床實務,風險比英語系國家更高。對多數民眾而言,Google 搜尋結果最上方等同「官方、正確、最新、最安全」。然而 AI 並非判斷醫學正確性,而是依可見性與可讀性加權,可能造成對新療法的過度期待或恐懼。

Q2:想請教您,民眾在使用搜尋引擎尋求健康資訊時,應該採取哪些步驟或原則確認資訊的正確性?

應提醒民眾,搜尋引擎與 AI 摘要只能用來「理解問題」,不能用來「做醫療決定」。使用者需要確認「資訊來源是誰」,而不是只看內容是否寫得像真的,因為多數錯誤都混雜著部分正確資訊。至少應交叉比對兩個以上不同來源。任何「改變治療、停藥、拒絕檢查」的決定,都必須回到專業醫療人員討論。

Q3:想請教您,當民眾透過搜尋引擎尋求健康資訊時,AI摘要這種資訊呈現方式的轉變,可能對民眾的健康決策與就醫行為產生什麼影響?

AI 摘要(AI Overview)把「找資料」直接縮短成「給結論」,影響的不只是資訊取得方式,而是民眾「形成醫療判斷」的整個流程。過去的搜尋流程讓使用者至少能看到多個觀點;但在 AI 摘要中,民眾接收到的是一段看似中立的摘要,往往被視為「已經整理好的答案」。因此,越來越多民眾在看診前就已「預設結論」,反而增加醫病溝通的負擔。此外,AI 摘要傾向把風險與效益「平均化」呈現,但臨床決策需要的是個別化的權衡。這種結構性的落差,使得 AI 摘要在健康領域的影響不只是資訊偏差,而是可能改變民眾做醫療決策的方式。

Q4:其他您覺得解讀這系列報導時,值得提出的研究觀點或政策建議?

醫學專業知識多被鎖在高成本、低流通的系統中;相對地,非專業健康內容則在低門檻、高流通的平台快速擴散。AI 模型無法自由讀取付費期刊全文,而即使是高品質的開放取用期刊,也因格式不利摘要、語言艱深、缺乏演算法放大而難以成為主要資訊來源。結果是醫學專業被排除在「第一層知識介面」之外,專業知識對公共決策的影響力下降,醫師角色逐漸從「知識提供者」變成「事後修正者」。公共資助的醫學研究應提供「AI 可摘要、民眾可理解」的版本;在高門檻醫學期刊與高流通非專業平台之間,也需要由醫學會、醫院與政府共同維運的、可被搜尋與 AI 摘要的可信內容層。同時,AI 平台在健康查詢中應揭露資料來源結構,區分「專業醫學」與「一般健康內容」,並在用藥、診斷、停藥等高風險議題中降低非專業來源的權重。

 

2026年02月01日
國立臺灣師範大學圖書資訊學研究所副教授 邱銘心

Q2:民眾在使用搜尋引擎尋求健康資訊時,應採取哪些步驟或原則確認資訊的正確性?

隨著Google將AI摘要(AI Overviews)納入搜尋結果頁面,且露出的網頁區塊優先於自然搜尋結果,顯示使用者在搜尋時,首先接觸到的是由搜尋服務平台即時生成、整合多方內容的AI摘要。民眾必須具備對AI摘要的理解、辨識搜尋問題的風險層級與用途,與情境適用性的判斷能力。

第一,將 AI摘要視為資訊輔助工具,而非決策依據。
民眾在使用搜尋引擎時,應明確意識到AI摘要屬於平台即時生成的摘要內容,其目的在於協助快速掌握議題背景,而非提供個人化或可直接行動的醫療建議。凡涉及健康決策,皆不應僅依賴AI摘要作出判斷。

第二,依搜尋內容的風險程度,調整查證與判斷標準。當搜尋內容涉及診斷、治療選擇、生育或其他不可逆的醫療決策時,應採取較高標準的資訊審查原則,包括進一步查閱原始來源、比對多個權威機構資訊,並將搜尋結果作為與專業人員討論的準備材料。

第三,主動檢視資訊來源的權威性與背景條件。民眾在閱讀AI摘要時,應點開其引用來源,確認資訊是否來自政府機關、醫療機構或專業學會,並留意其發布時間、適用對象與研究背景,以避免將概括性資訊誤用於個人情境。

第四,考量健康資訊搜尋的在地醫療情境。醫療知識的適用性高度依賴在地醫療制度、保險給付、臨床流程與資源可近性。民眾應避免直接套用AI摘要給予的醫療建議。特別是在非英語搜尋環境中,AI可能涉及跨語言轉譯,且英文醫療知識在全球資源分布上具有結構性優勢。若資訊未清楚標示其國別、制度背景與適用限制,即應提高警覺。

Q3:報導中指出,AI優先引用YouTube影片內容,而非傳統的文字型醫療資訊網站。您認為這反映了什麼樣的演算法邏輯或平台策略?對於產製健康資訊的媒體與機構而言,有什麼因應之道?

Google已明確指出AI摘要屬於AI生成服務,並同時呈現廣告與來源連結。其整合的內容也不限於正式醫療文本,而可能涵蓋影音內容、病友經驗與個人分享。這種設計反映出一種高度平台化、以參與度為導向,且與商業系統緊密結合的搜尋邏輯。在特定健康搜尋情境中,例如在Google中輸入「台北 生殖中心 推薦」,搜尋結果頁面即可能直接顯示特定院所名稱,顯示 AI 摘要已同時納入內容能見度與商業曝光機制。此機制雖補足正式醫療資訊中,較少觸及的個人經驗與情感揭露,但也模糊了專業資訊、個人經驗與商業行為間的界線,進而提高使用者誤解的風險。

健康資訊產製者與醫療機構的因應之道,不應僅止於追求流量或影音化,而應轉向生成式搜尋最佳化(Generative Engine Optimization)的思維,強化內容的結構性與可被AI正確理解的專業標記,也就是讓AI模型讀懂、引用並且生成在回答中。高品質的健康資訊在搜尋情境中仍須符合 E-E-A-T原則,即經驗、專業、權威性與可信度,並清楚標示資訊性質、適用對象、適用情境與限制條件,搭配明確的非行動建議聲明,以降低專業內容在AI摘要生成過程中,被誤解為可立即採取的醫療建議的風險。

Q4:解讀這系列報導時,還有哪些值得提出的研究觀點或政策建議?

在研究層面,語言轉換本身可被視為一種潛在的風險放大機制。於非英語搜尋環境中,AI摘要所生成的健康摘要可能涉及跨語言檢索與重寫。未來研究可比較不同語言版本摘要在語意強度、風險提示與適用條件上的差異,分析語言不對稱如何影響使用者理解與決策。此外,AI摘要同時整合正式醫療文件、社群內容與廣告投放,模糊了專業知識與經驗分享之間的界線。未來研究可進一步探討不同資料來源類型在AI摘要中的配置方式,如何影響使用者對資訊可信度與專業性的判斷。

在政策層面,單純依賴假訊息防治或提升使用者素養,已難以回應AI摘要在搜尋中帶來的結構性影響。政府應要求搜尋服務或AI平台提高生成式摘要的透明度,包括揭露AI 摘要是否涉及翻譯、其主要來源語言與資料來源類型與引用。更為關鍵的是,當AI生成的健康摘要與商業名單或服務推薦在同一區塊中呈現時,現行的廣告標示方式往往無法清楚區分哪些內容來自付費廣告投放,哪些屬於AI摘要所整合的資訊來源,進而影響使用者對資訊中立性與可信度的判斷。在此情況下,付費廣告投放的商業名單可能會優先進入AI摘要的重要呈現區塊,經過視覺整合而被誤認為AI基於專業或客觀標準所推薦的結果。政府未來有必要針對AI摘要中的商業整合,建立更明確的揭露與區隔規範,以避免商業行為與中立健康建議在生成式搜尋介面中產生混淆。

 

利益聲明:無利益相關。

 

2026年02月01日
臺南市立安南醫院教學研究部暨精神科主任/醫師 張俊鴻

Q1:就您的觀察,台灣使用者是否也同樣高度依賴Google 搜尋健康資訊?在接觸AI生成的健康摘要時,是否面臨類似的資訊品質風險?可能造成什麼影響?

從我精神科的臨床觀察與腦科學研究背景,台灣民眾過去確實更常用Google查詢健康資訊。特別是學生與年輕族群,常會把很完整、甚至列印出來的資料帶到門診;另外也很常見的是,長輩本身不太查詢,但子女會先做功課再陪同討論。這種模式有一個特點:使用者必須「一個一個點開來源」、比對不同說法,雖然耗時,但至少還有機會看到來源的差異與不確定性。

但近期因為GPT/生成式AI 普及,行為模式明顯改變:很多人不再「搜尋→閱讀多篇→自行整理」,而是直接詢問GPT、拿到一份「整理好的建議」。這讓資訊取得變得更便捷,但也把風險集中在同一件事上——使用者的判斷能力必須更強。因為AI摘要會以很流暢、很像專家結論的方式呈現,容易讓人忽略它其實是把不同品質的資料混在一起「加總」,並不等於臨床指引或個人化醫囑。

我也注意到一個重要問題:早期GPT確實可能出現虛假引用(看似有論文、但實際不存在),近來這種情形相對減少;然而更常見的風險轉變成「有引用,但證據力不夠強」。例如引用的是小樣本、回溯性研究、未複製的單一研究、或是與個案族群不相符的結果,卻被寫成很肯定的結論;甚至把初步研究、機轉推論當成治療效果的證據。精神科尤其要小心以上情形,因為診斷與治療評估涉及多重因素(共病、物質使用、睡眠、壓力源、藥物交互作用),同一段「看似合理」的建議,放在不同個體可能完全相反。

臨床上的影響可能包括:病人更容易在未評估風險下自行調藥、停藥或補充保健品;也可能因為AI語氣過度確定而強化焦慮或自我診斷,增加醫病溝通成本與治療不信任。比較理想的做法,是把AI的輸出定位成「整理問題清單與可討論方向的工具」,而不是最後答案:建議病人把它當作輔助,並要求它列出資料等級(系統性回顧/隨機試驗/觀察性研究/專家意見);醫療端則可以引導病人回到「證據等級+個人狀況」來綜合評估治療。

Q2:想請教您,民眾在使用搜尋引擎尋求健康資訊時,應該採取哪些步驟或原則確認資訊的正確性?

民眾用搜尋引擎或生成式AI找健康資訊時,我建議不要直接下結論,並養成一套固定的查核步驟。以近期YouTube上出現自稱台大、北榮醫師「陳志明」宣稱「糖尿病是細菌感染、除菌即可治癒」的影片為例,台大和榮總都出面澄清查無此人、內容不實。 這類案例提醒我們:資訊看起來越「像專家」,越要反向驗證。

我給民眾的「五步驟」:

  1. 先查來源身份:講者是否可在醫院官網/醫師名錄查到?是否有可驗證的執照、職稱、科別與服務單位?而不是只有口述或截圖。
  2. 檢視是否有利益動機:影片是否導向購買課程、保健品、療程或私訊?有銷售導向時,可信度要大幅折扣。
  3. 交叉比對官方與指引:優先參考政府機關、醫學會、醫院衛教、國際權威(例如 世界衛生組織、美國糖尿病學會(American Diabetes Association) 等)。
  4. 追溯到原始證據:要求「可點開」的論文/指引連結(DOI、PubMed、期刊名、年份、樣本數)。若只給模糊的「研究指出」或引用很弱(小樣本、未複製、非臨床試驗)卻得出很肯定結論,就要提高警覺。
  5. 辨識高風險語句:如「顛覆醫學」、「根治」、「三天見效」、「不必看醫生/停藥」等,幾乎都是高風險訊號;遇到涉及用藥、停藥或重大疾病治療,務必回到臨床端與醫師確認。

在資訊混亂與AI摘要盛行的時代,關鍵能力不是「查更多」,而是「查得更可驗證」:能找到來源、看懂證據等級、知道何時該停止自行判讀、改由專業評估介入。

 

2026年02月02日
國立臺灣大學公共衛生學院健康行為與科學研究所助理教授 黃柏堯

 Q1:就您的觀察,台灣使用者是否也同樣高度依賴Google搜尋健康資訊?在接觸AI生成的健康摘要時,是否面臨類似的資訊品質風險?可能造成什麼影響?

在Google時代,資訊蒐集的基本邏輯是:使用者輸入關鍵字,Google搜尋引擎顯示最多人討論、或被視為最具代表性的一串連結、新聞或圖片,讓使用者自行點選、比較並判斷可信度。在這樣的資訊環境中,最終的守門人其實落在使用者身上。從接觸資訊、理解內容到採取行動之間,存在一段必須親自勞動、判斷真偽的過程,使用者也必須面對網路世界與資訊本身帶來的不確定性。

AI摘要(AI Overview)的邏輯則明顯不同。當使用者提問時,Google會根據大量既有搜尋與網路內容,先替使用者整理出一套論述;通常以先摘要、後條列、分點的方式呈現,讓多數人不再需要逐一點進來源、反覆比對。這是Google時代與AI時代最大的差異:AI 整理過的資訊看起來全觀而完整,使用者也不必再花時間一段一段搜尋、比較、判斷,資訊勞動在彈指之間彷彿已經被完成。換句話說,我們正從「凡事問Google」的時代,進入把資訊判讀與整理思辨勞動外包給演算法的「凡事問AI」世代。

這樣的轉變在台灣值得警惕。Google幾乎是多數民眾搜尋健康資訊的預設入口,不論是症狀查詢、檢驗數值解讀,或是慢性病與疫苗相關資訊,都高度依賴搜尋結果。因此,當 AI摘要成為健康資訊的第一接觸點時,其同樣會直接影響臺灣使用者的健康判斷與行為。

資訊品質的風險正是在此浮現。正如《衛報》的系列報導所指出,AI摘要呈現的內容往往看似整體、全面,卻可能充斥瑣碎甚至不正確的資訊。AI的邏輯是搜尋「大家的搜尋」,而這些搜尋本身也包含了YouTube上的個人意見與未經驗證的內容。頻率不代表正確,吸引眼球不代表資訊就是事實。在欠缺因果邏輯與整體辯證的資訊環境中,AI所提供的overview其實只是網路地景中的一個切片。

在這樣的情況下,民眾若僅依賴AI摘要,可能只獲取片段資訊,或是在自身既有偏見的框架下理解,進而做出錯誤行為。結果小則浪費金錢與時間,取得無效甚至錯誤的自我診療資訊;大則延誤就醫,甚至對身體造成實質傷害。這些風險在健康議題上尤其嚴重,因為錯誤的判斷往往難以回復。

Q2:想請教您,民眾在使用搜尋引擎尋求健康資訊時,應該採取哪些步驟或原則確認資訊的正確性?

因此,在使用 AI摘要時,閱聽人仍必須意識到資訊可能存在偏誤,並保留基本的查證習慣,包括快速瀏覽資訊來源、判斷是否來自具科學研究與醫療權威的機構,而非僅是二手轉譯或缺乏來源的內容。同時,也應比對不同新聞或專業資訊是否出現類似論述。傳統新聞學時代用來判定訊息真偽的基本功,在 AI摘要時代不但不能被遺忘,反而需要被提升。

Q4:其他您覺得解讀這系列報導時,值得提出的研究觀點或政策建議?

從公共衛生跟傳播科技研究的角度來看,與其單純將問題歸咎於AI技術,不如理解我們正處在一個AI逐步滲入日常生活的歷史過程中。AI目前仍有瑕疵、尚不完美,但這本身也是一個持續被優化的過程。與其採取單純的支持AI 或反對AI 立場,更重要的是全方位檢驗 AI摘要所帶來的影響,包括它如何改變閱聽人的知識態度與健康行為,以及如何反過來影響新聞製作與知識生產,是否使內容更傾向迎合演算法的偏好。

這系列《衛報》報導真正要提醒我們的是,當AI成為健康資訊的第一入口時,整個知識治理與公共健康體系以及閱聽人的媒體釋讀能力,是否已準備好回應這樣的轉變?我們是否在資訊超級爆炸時代裡,仍保有對事實真偽進行判斷與反思的能力?

 

2026年02月02日
臺北醫學大學神經學教授兼醫學院院長/部立雙和醫院神經科顧問醫師 胡朝榮

SE Ranking 是一家(Search Engine Optimization)搜尋引擎最佳化公司 ,  是「可信的數據型商業研究機構」,但不是中立的醫學或學術研究單位。換句話說,它非常擅長了解「Google 在做什麼」,但不是為了回答「醫療內容是否正確」而設計的研究單位。本調查目的偏向「揭露搜尋趨勢與風險」,而非醫學品質評估,結論不可避免帶有「平台風險警示」與商業觀點

Q1:就您的觀察,台灣使用者是否也同樣高度依賴Google 搜尋健康資訊?在接觸AI生成的健康摘要時,是否面臨類似的資訊品質風險?可能造成什麼影響? 

Google Ai摘要(AI Overviews)可快速給讀者一個簡單的概念,在台灣使用也相當普遍。在接觸AI生成的健康摘要時,的確面臨類似的資訊品質風險;但讀者大多還會搜尋更深入的健康資訊,應該可以降低這些風險。我認為AI搜尋提供的內容可能受到許多因素影響,例如流量、影音形式,或像SE Ranking這類公司的操作等,因此求證動作不可免。我接觸的病人,其實都了解AI提供的訊息可能錯誤,也更相信醫師的觀點。 危險的是,有些人沒有求證,又讀到錯誤的訊息,所以可能造成傷害。教育民眾求證的重要性與如何求證,未來應該會越來越重要

Q4:其他您覺得解讀這系列報導時,值得提出的研究觀點或政策建議?

100%正確、真的可能信任的AI可能還要一段時間才能實現,如果把AI用在不能出錯的地方就會很危險。病人過於相信AI,則是對於AI的認知問題,如果Google AI摘要底部有警語如「Google AI摘要可能出錯,所以請再次確認」( Google AI Overviews can make mistakes, so double-check it),表明他不一定絕對正確;只要這行字寫大一點,也許可降低人們對於AI的盲目信任。

 

2026年02月02日
國立臺灣大學圖書資訊學系副教授/數位發展部資通安全署副署長鄭瑋

國立臺灣大學圖書資訊學系碩士 林語婕

Q1:就您的觀察,台灣使用者是否也同樣高度依賴Google搜尋健康資訊?在接觸AI生成的健康摘要時,是否面臨類似的資訊品質風險?可能造成什麼影響?

Q4:其他您覺得解讀這系列報導時,值得提出的研究觀點或政策建議?

綜合回應Q1和Q4,除了提醒民眾要多多警覺,AI摘要功能有幾個值得觀察的隱憂:

一、「AI摘要」壓縮了可判讀資訊品質的線索,自然削弱判斷力

過去沒有Google摘要時,即使搜尋結果中混雜著品質不一的內容,使用者點進網址以後,可以看到很多「線索」幫忙判斷可信度,例如:網域是否來自醫院、政府、教育單位;是否由專家撰寫、來自什麼單位、頁面設計是否專業、內容是否完整。這些「線索」讓注重資訊品質的民眾,逐漸養成對科學資訊與健康資訊的基本判斷經驗。但是,當資訊被壓縮成一小段AI摘要,又被放在格外搶眼的最上方時,看似幫忙民眾提高效率,但也在不知不覺中降低使用者查證的動機。

二、「AI 摘要」直接推送結論,弱化人們查證資訊的動機

當搜尋引擎總是馬上推送結論,使用者自然會逐漸習慣這樣的便利,畢竟原本需要自己搜集、理解、判斷資訊的種種過程,在AI摘要以後,成為額外要做的辛苦活。

即使使用者對AI摘要心存疑慮,但也可能因為步調匆忙而選擇不查證,抑或是認為無傷大雅,而直接採用AI摘要推送的結論。在這種狀況下,民眾有可能始終沒機會點選和查證原始來源。這個現象也符合人類在資訊過載(overloading)情境下的認知行為,即當可處理的資訊超過負荷時,會傾向接受看起來「已經整理好的答案」,而非再投入心力查證。

三、「AI 摘要」改變了新興科學議題中不確定性的呈現

在AI摘要功能出現、生成式AI普及之前,科學溝通本來不是一件容易的事情。

新興的科學知識本身往往具有不確定性,或許未來有新的證據得以推翻原有的假說。若有專家共識,也可能是「暫時的共識」。民眾也應還有印象,COVID-19疫情初起時,無論是病毒傳播途徑、預防與治療方式,許多資訊與面對病毒的對策,都是不斷在滾動更新,是後來才日漸明朗。

在沒有AI摘要的情境下,非領域專家本來就很難一眼區辨領域專家「暫時形成的共識」、「需依情境評估」,與「尚未定論」有什麼不同。差別在於,過往搜尋與閱讀全頁網頁過程中,使用者可以搭配資料來源、網域sTLD(來自政府gov、學校edu)[1]、整體撰文的語氣,做到整體的品質與可信度評估,然而AI 摘要往往因為篇幅限制,隱藏了前面所說的「可判讀資訊品質的線索」。

因此,提醒民眾關注AI摘要是否正確固然重要,但同樣不能忽略的是,這些「可判讀資訊品質的線索」的隱藏與消失。以下分享幾點面對此現象的策略:

一、重置自己:即使是領域內專家,都可能被快速變遷的科技與新工具改變習慣與判斷方式。在 AI 普及的環境下,每個人都需要重新檢視:哪些事情還能自己判斷?哪些需要多一點確認?

二、保持懷疑:在資訊與科技快速迭代的今日,分辨資訊真假本來就不輕鬆。工具一直在變,公民需要反覆懷疑、反覆思考來因應,媒體識讀與資訊素養的精進是一場長期的工程。

三、持續學習:不要只記誦分辨健康或其他科學資訊真偽的技巧,因為環境一直在變化,過往教導判斷可信度的線索也可能被隱藏或省略。理解知識與科學的基本原理,補上「不知道的地方」,比記住一套方法更重要。平時就多學習,遇到可疑的資訊,先停下來,多看、多聽,讓自己對資訊的判斷力和環境一起演進。

[1]: sTLD代表的是最高層級的網域名,以及由誰管理。

 

2026年02月02日
國家資通安全研究院前瞻研究籌獲中心研究員 蔡長祐

Q1:就您的觀察,台灣使用者是否也同樣高度依賴Google 搜尋健康資訊?在接觸AI生成的健康摘要時,是否面臨類似的資訊品質風險?可能造成什麼影響?
個人觀察中,大多數台灣民眾時常使用網路搜尋健康資訊,然而網路資訊並不一定正確,而Google AI摘要又將這些資訊濃縮呈現給使用者,確實有報導中指出的誤導問題。如果 AI 摘要涉及個人價值的議題,例如吃咖哩飯要不要拌,不會有很大的影響;但健康資訊涉及個人生命安全,錯誤的摘要內容可能導致延誤就醫,或者養成錯誤的健康習慣,這些都可能造成不可挽回的後果,必須非常嚴肅地看待。

實際使用上會發現(如附圖所示),Google AI 摘要雖然有提醒使用者內容需要專業驗證,但其警語是在使用者點擊「顯示更多」後才會出現,甚至點開後也是小小一行字,使用的也是相對不顯眼的灰色。如果使用者沒有點擊「顯示更多」,根本就不會看到警語。大多數的使用者可能看到摘要的前幾句就關掉頁面,完全不會看到警語,對於警覺性較低的使用者來說,確實有非常高的風險。

Q2:想請教您,民眾在使用搜尋引擎尋求健康資訊時,應該採取哪些步驟或原則確認資訊的正確性?
不要相信 AI,不要相信自己,但可以相信蒐集資訊後的判斷。

資訊來源可以是專業醫療人員,也可以是不同立場的文章。先蒐集資訊,然後判斷,再來才決定是否要接受這些內容。至少不要僅憑 AI 摘要就下定論,應該要去檢視其中的「人」、「事」、「物」。以前陣子的健康醫療錯假訊息「北榮革命療法讓糖友奇蹟康復」來看,可以檢視以下幾點:

  1. 有沒有陳志明醫生?
  2. 有沒有這個療法?
  3. 有沒有相關研究佐證?

這不僅適用於錯假訊息,面對一般訊息都應該如此,因為我們不可能提前知道資訊真實性;同理,使用者不會知道 AI 摘要真實性。如何適當地使用AI一直都是一個很有趣的議題,在使用上一定要相當謹慎。

Q3:想請教您,您認為台灣在AI生成內容的監管上,有哪些法規面向或政策需要關注或調整?
我認為至少政府在法規上,應該要更積極要求警語以更明顯的方式呈現。不過,立法階段勢必要和Google等超大型跨國企業溝通。除此之外,法規政策面也可以先分級處理,先從這類關乎人命、涉及健康醫療的內容開始,因為,這些需要更嚴格的法規限制。

Q4:其他您覺得解讀這系列報導時,值得提出的研究觀點或政策建議?

相關報導重點指出,AI摘要運作的邏輯便是搜尋功能,來源或許是YouTube影片或其他網路上的文章。從技術層面而言,模型獲取資訊的過程中並不會判斷這些資訊的可信度及真實性,也就是飢不擇食;這個技術漏洞甚至已經成為烏俄戰爭中的攻擊手法。生成模型加上搜尋功能是技術的重要突破,能讓AI獲取更多、更即時的資訊;但同時因為網路上充斥著未經驗證的資訊,導致AI生成內容可信程度大幅下降,這是大眾需要留意的。

 

附圖:詢問AI摘要後

「Google AI摘要的健康建議可能帶有錯誤資訊」專家意見

附圖:點擊顯示更多之後

「Google AI摘要的健康建議可能帶有錯誤資訊」專家意見

2026年02月02日
國立中山大學資訊工程學系副教授兼圖資處資安組長 徐瑞壕

Q1:就您的觀察,台灣使用者是否也同樣高度依賴 Google 搜尋健康資訊?在接觸 AI 生成的健康摘要時,是否面臨類似的資訊品質風險?可能造成什麼影響?

台灣民眾對Google搜尋的依賴度極高,根據StatCounter最新數據(2025年底至2026年初),Google在台灣整體搜尋市佔率維持在82%左右,行動裝置更超過90%。健康資訊查詢同樣高度集中於Google,許多人習慣以此作為初步健康判斷的起點。

然而,Google AI摘要(AI Overviews)將原本多元、分散的來源,濃縮成頁面頂端的「結論式」文字,帶來兩大風險:

 一是醫療決策風險。如《衛報》2026年報導,AI曾對胰臟癌飲食建議、肝功能血檢判讀等提供誤導性資訊(例如建議避免高脂食物,卻與醫學指南相反),由於脈絡壓縮與來源混淆,容易導致錯誤安心或延遲就醫。

 二是點擊與資訊多元性下降。多項研究顯示,AI摘要出現後,使用者點擊原始來源的比例從原來約15%下降到約8% [1]。當演算法偏好熱門內容,如YouTube引用佔比達4.43%,高於許多專業醫學網站時,民眾更容易未經查證就採信單一、簡化的答案,放大健康誤導的公共衛生風險。

Q2:想請教您,民眾在使用搜尋引擎尋求健康資訊時,應該採取哪些步驟或原則確認資訊的正確性?

民眾應把AI摘要視為「參考起點」而非最終答案,關鍵在於培養健康識能(health literacy)。建議遵循以下三項核心原則:

  1. 優先驗證權威性:點擊AI摘要引用的原始連結,確認來源是否來自政府單位(如衛福部、疾管署)、醫學中心、國際權威機構(Mayo Clinic、CDC)或專業醫學學會。避免僅依賴社群媒體或YouTube等非專業內容。
  2. 交叉比對:勿只看單一來源,至少尋找多個獨立權威來源,確認結論是否一致,並注意適用條件(如年齡、病情階段、禁忌症)。
  3. 明確輔助定位:對於用藥調整、停藥、急症徵兆或重大診斷等高風險議題,AI摘要僅適合用來整理「待詢問醫師的問題清單」,絕不可直接作為行動依據。最終決策必須回歸醫師或藥師的臨床專業判斷,並在必要時親自就醫。

Q3:想請教您,您認為台灣在 AI 生成內容的監管上,有哪些法規面向或政策需要關注或調整?

台灣應明確區分「一般資訊導讀工具」與「專業醫療AI器材」的監管邊界。食藥署(TFDA)對AI醫療器材已有明確責任鏈要求,包括預期用途、軟體驗證、演算法變更管理與上市後監控等嚴格程序。相較之下,目前的Google AI摘要等生成式工具尚未納入此類醫療器材規範,缺乏同等級的證據責任與可追溯性。

政策重點建議:

  • 加速落實《人工智慧基本法》(2026年1月實施),在健康等高風險場景強化風險分級治理,要求平台清楚標示「AI生成內容」、資料依據截止時間,並優先提升權威健康來源(如衛福部資料庫)的檢索權重與可見度。
  • 推動生成內容強制標示與透明度要求,避免誤導。
  • 建立跨部會協調機制(如數位發展部、衛福部、NCC),針對健康資訊領域制定更細緻的配套指引,兼顧創新與民眾安全。

Q4:其他您覺得解讀這系列報導時,值得提出的研究觀點或政策建議?

核心矛盾在於「系統設計追求簡潔」與「健康決策需要完整脈絡」之間。Google雖已導入降低幻覺(hallucination)的技術,但對健康議題而言,脈絡壓縮仍難免產生風險,尤其當演算法偏好流行度而非醫學權威來源時。

政策與研究建議:

  1. 推動權威健康資訊在地化優先對接:讓官方醫療資料庫(如健保資料、衛福部指引)在AI檢索中獲得更高權重,減少對YouTube等非專業來源的過度依賴。
  2. 建立錯誤通報與快速修正機制:讓醫界與民眾能輕鬆回報AI誤導案例,並要求平台公開修正紀錄,提升問責性。
  3. 明確定位AI為輔助工具:它擅長快速概念整理與問題引導,但絕不應取代醫療專業判斷。面對涉及生命安全的決策,最後一哩路必須回到具證據責任的醫事人員身上。

長期而言,台灣可借鏡歐盟《人工智慧法》(AI Act)的高風險分級思維,結合在地醫療情境,打造更具彈性與保護力的治理框架,讓AI真正成為促進健康的助力,而非風險的來源。

參考文獻:

  1. 國際研究與媒體報導:
  • StatCounter (2025/12): 台灣搜尋引擎市場占有率數據。(連結:https://gs.statcounter.com/search-engine-market-share/all/taiwan)
  • AI搜尋:讓資訊變得更有智慧(連結:https://blog.google/intl/zh-tw/products/explore-get-answers/google-search-ai-mode-update/)
  • SE Ranking (2026/01/14): 健康 AI 概覽對影音平台引用比例之分析(連結:https://seranking.com/blog/health-ai-overviews-youtube-vs-medical-sites/)
  • 《衛報》(The Guardian) (2026/01): 系列調查指出 AI 誤導癌症與血檢案例之具體風險(連結:https://www.theguardian.com/technology/2026/jan/02/google-ai-overviews-risk-harm-misleading-health-information)
  • Pew Research Center (2025/07): 使用者點擊行為研究。(連結:https://www.pewresearch.org/short-reads/2025/07/22/google-users-are-less-likely-to-click-on-links-when-an-ai-summary-appears-in-the-results/?ref=404media.co)
  • WHO (2022/09): 關於健康錯假訊息對行為決策負面影響之研究。(連結:https://www.who.int/europe/news/item/01-09-2022-infodemics-and-misinformation-negatively-affect-people-s-health-behaviours--new-who-review-finds)
  1. 台灣官方規範與指引:
  • 衛福部食藥署(TFDA)—人工智慧/機器學習之醫療器材軟體查驗登記送件常見問答集(連結:https://aimd.fda.gov.tw/counseling/faq)
  • 人工智慧基本法(連結:https://law.moj.gov.tw/News/NewsDetail.aspx?msgid=196197)
  • 衛生福利部: 健康識能機構實務指引(連結:http://www.lcy-family.com.tw/lcyfamily/lin/file/health/19.pdf)

[1]:Pew Research 2025年數據:有AI摘要時點擊率約8%,無時約15%;其他研究甚至顯示下降達34.5%–61%。

 

2026年02月02日
國立中正大學傳播學系教授/公廣集團董事長 胡元輝

Q1:就您的觀察,台灣使用者是否也同樣高度依賴Google搜尋健康資訊?在接觸AI生成的健康摘要時,是否面臨類似的資訊品質風險?可能造成什麼影響?

台灣目前尚無針對Google「AI摘要」(AI Overviews)使用狀態的深入研究。依據Google於2017年發布的數據顯示,高達84%的台灣使用者每天都會使用Google搜尋,加上其他相關研究及觀察推測,目前台灣民眾透過Google搜尋健康資訊者應非少數。惟據若干媒體如《遠見》於2025年6月發布的實測指岀,AI摘要目前仍有不少幻覺風險。例如詢問台南有哪些素食餐廳時,AI摘要提供的「春天素食」雖然附上正確的餐廳官網連結,但事實上春天素食只在台北和台中有分店。又如詢問「維他命C可以空腹吃嗎」,AI摘要表示可以空腹吃,但在下方搜尋結果的摘要裡,卻寫不能空腹吃。另根據本人非系統性測試發現,AI摘要雖在持續進化與改善中,惟目前台灣使用AI摘要於健康資訊搜尋時,有時確實會出現源自健康產品公司、非專業健康資訊網站等的內容或連結,存在可能的健康風險。

Q2:想請教您,民眾在使用搜尋引擎尋求健康資訊時,應該採取哪些步驟或原則確認資訊的正確性?

首先應瞭解,目前這些由大型語言模型所支撐的生成式AI工具都存在程度不等的「AI幻覺」。換句話說,受機率預測本質與訓練資料缺失的影響,這些AI工具會自信地產生看似合理,卻與事實不符的答案。

其次,應審視資訊的來源或出處。目前Google的AI摘要多半會有相關資料的連結,如果連結所顯示的內容並非來自專業的醫學、保健機構,或是內容中相對缺乏具體或可信的資料來源,使用者就必須合理懷疑這些資訊的可靠性,並做進一步查證。

Q3:報導中指出,AI優先引用YouTube影片內容,而非傳統的文字型醫療資訊網站。您認為這反映了什麼樣的演算法邏輯或平台策略?對於產製健康資訊的媒體與機構而言,有什麼因應之道?

商營數位平台最重要的運作邏輯,就是將使用者黏著於平台之上,進而掌握與操控使用者數位足跡,推送廣告等各種營利商品給消費者。就此而言,內容是否吸睛而帶來流量乃演算法中的關鍵參數。如果YouTube上非專業的健康影片能夠吸睛,自然成為演算法將使用者留在自身平台的優先考量。對此,產製可信健康資訊的媒體與機構除了掌握平台的演算法則,強化自身的吸引力與說服力之外,還必須建立多元的傳播管道,降低對單一平台的依賴程度。

Q4:其他您覺得解讀這系列報導時,值得提出的研究觀點或政策建議?

對於數位平台運用AI的影響以及使用者可能遭遇的風險,政府機關應盡速依據日前立法院通過的《人工智慧基本法》,研擬後續的作用法及風險分類架構,以供相關產業遵循。

其次,數位平台應履行自身的社會責任,應對各種AI工具的研發與應用訂定相關準則、規範,並貫徹執行,以減少AI可能帶來的倫理和社會風險,落實負責任的AI。