iT邦幫忙

2025 iThome 鐵人賽

DAY 28
1

這其實是個在 AI 時代才產生的、新型態的風險,需要被小心管理。

在過去,身為知識工作者,我們最大的挑戰或許是資訊不足,得大海撈針般地從零散的報告和數據中尋找答案。但現在,情況恰恰相反。我們面臨的,不再是資訊的不夠,而是由 AIGC 生成出過多看似專業、實則可能有誤的資訊。

以下是 PM 小森夢到的:

某天,在一場重要規劃會前,小森用 AI 快速做市場與競品分析,做出了一個漂亮報告;開會時自信地簡報「競品上線時程預測」。結果,技術總監指出這裡所假設的 OOXX 技術,其實已在上個月就公開棄用…

瞬間,全場尷尬,PM 當場臉很腫。

此時小森才深刻意識到:AI 帶來的效率,背後可能是巨大的風險。

AI 犯的錯,我們得背鍋。你又不能在會議上說:「這不是我的錯,是 AI 說的結論。」這就像一個居上位的團隊 Leader 說:「這不是我的問題,是我 Member 做的」一樣不專業。

這帶出了在新時代中,所有知識工作者都必須面對的新樣態風險- AI 幻覺

幻覺這個問題,不在於 AI 它不知道,反而在於它誤以為自己知道,太過自信地胡說八道。

為什麼 AI 會胡說八道

要避免被 AI 誤導,首先就得要先理解它為什麼會創造出錯誤的回應資訊,也就是所謂的「AI 幻覺」(Hallucination)。這並非 AI 有意欺騙,而是被其底層技術機制天生所限制住的。

簡單來說,大型語言模型(LLM)的本質不是一個擁有知識、能夠真的「理解」世界的生命智慧體,而是一個極其複雜的「文字接龍機」。它的核心任務,是在給定一段文字後,預測下一個最可能出現的詞是什麼,然後一個詞一個詞地串連下去,組成流暢、看似合理的句子。

它的訓練目標是形成說服力與流暢度,而非絕對真實。這個根本性的差異,導致了幾種常見的風險:

  • 基於過時資訊回答:它的知識停留在模型訓練完成的當下,無法即時更新。
  • 事實性錯誤:把不相關的事實錯誤地連結在一起。
  • 過度自信的錯誤論斷:用極其肯定的語氣,給出完全錯誤的分析或結論。
  • 幻覺:這是最危險的一種,AI 會憑空編造根本不存在的人物、報告、數據或引用來源。

之所以會形成這些問題,其背後的成因,主要有三點:

  1. 訓練數據有限:當你詢問的問題超出其知識範圍時,為了給你一個答案,它會開始根據既有模式進行腦補,像一個不懂裝懂的「好」學生。
  2. 文字接龍本質:模型追求的是語句的連貫性,只要聽起來順暢、有邏輯感,模型就會認為這是個「好答案」,即使內容不符事實。
  3. 速度與流暢優先:AI 的設計優先確保能快速、流暢地生成回應,事實查核反而是次要的。

因此,當我們在會議上無腦引用 AI 的內容,實際上引用的可能只是「一段非常流暢的胡說八道」。

理解了 AI 的本質只是個「很會接話的模仿人類大師」的原理後,我們該從根本上對它的所有回答,都抱持一種預設的懷疑。

https://ithelp.ithome.com.tw/upload/images/20251001/20105528ggCw4bp2nu.png

傳統的資訊檢驗方式為什麼不夠?

有些人會想:「我以前查資料也會交叉比對,這不就是同一回事嗎?」但 AI 的挑戰,跟傳統 Google 搜尋完全不同。

過去,我們的流程是:Google 搜尋 → 瀏覽一排藍色連結 → 點開幾個權威來源 → 交叉比對真偽。 在這個過程中,我們的大腦天生就處於一種「篩選、質疑」的模式。

但發展至今,太過聰明的 AI ,如今早已改變了這個遊戲規則,帶來了新的挑戰:

  • 信任慣性陷阱:當你連續問了 AI 十個問題,它都回答得又快又好時,你會不自覺地在第十一個問題上放鬆警惕。這種信任慣性是一種強大的認知偏誤,也是我們最容易掉入的心理陷阱。AI 的對話介面,讓我們潛意識裡把它當成一個可靠的「人」來信任。
  • 精美的錯誤包裝:AI 的回答不像零散的搜尋結果,它會將錯誤的資訊用清晰的邏輯、結構化的格式(例如條列式、表格)呈現出來,看起來無比專業,讓你很難第一時間察覺破綻。
  • 時間壓力下的妥協:身為 PM,你總是在跟時間賽跑。當 AI 能在 30 秒內給你一份看似完整的報告,而手動查證需要 1 小時時,那種「先用了再說」的誘惑是非常巨大的。

因此,只靠過去的「常識 + 搜尋」已經遠遠不夠。我們必須建立一套全新的、為 AI 時代量身打造的驗證流。

建立起應對 AI 的心智防線

既然 AI 的錯誤難以無法避免,我們就要建立一套新的認知守備,讓自己在接收 AI 回答時,預設就啟動「專業的懷疑論者」這種偏激人設。

三道心智防線,就像是進擊的巨人中的三道城牆,層層守護住我們的判斷:

  1. 來源真實性

    檢查來源是否真的存在,網址能否點開,報告是否能找到。

  2. 來源可信度

    官方網站、學術論文、權威媒體的可信度,高於討論區中的鄉民留言。

  3. 資訊時效性

    這份資料是三年前的新聞,還是三天前的報告?在高速變化的產業裡,這往往很關鍵。

同時,也要警覺以下常見的認知偏誤:

  • 信任慣性:它給過太多正確答案後,我們就放鬆了防備。
  • 權威光環:因為回答方式像專家,就誤以為內容正確。
  • 敘事陷阱:只因為故事合邏輯,就忘了檢查證據。
  • 確認偏誤:選擇性接受符合自己預期的答案。

https://ithelp.ithome.com.tw/upload/images/20251001/20105528uz7617Whkg.png

不得不說,AI 的產出很高效,但其錯誤往往更隱蔽、更難以察覺。正因如此,我們必須將「AI 內容識讀」視為與「媒體識讀」同等關鍵的基礎底層能力。


上一篇
Day27. 專案問題總是太晚才發現?你需要搭建避險雷達工作流
下一篇
Day29. AI 協作力-它會不會在虎爛你?如何判斷並避免被誤導
系列文
重構工作流-在 AI 的夾擊下,泛 PM 職能應該如何生存並且持續提升管理力29
圖片
  熱門推薦
圖片
{{ item.channelVendor }} | {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言