延續 <AI 時代獨有的新風險:幻覺> 的議題,這篇我們來討論,當遇到這種新樣態風險時,PM 的幻覺求生術是什麼。
為了不讓自己成為 AI 幻覺的傳播者,你需要掌握幾項關鍵的「反虎爛」生存技巧。你可以把它們想像成一個內建在你腦中的 AI 回應可信度溫度儀,在採納任何 AI 產出的資訊前,先讓它通過這幾道關卡的檢驗。
資訊領域有句名言:Garbage in, garbage out。要從源頭減少 AI 亂掰的機率,最好的方法就是下達一個具規格化、非常明確的指令。
具體方式如下:
要求引用與限制:在你的提示詞中,明確要求 AI 提供所有資訊的來源、出處與時間。
Prompt 舉例:
*幫我分析 2025 年 Q3 全球智慧健身市場的競爭格局。
##限制##
-來源務必引用具權威性的市場報告或官方新聞稿作為來源
-在每條論述後附上來源連結與發布日期。
-如果找不到相關資訊,請直接告訴我「資訊不足」,不得自行想像或過度推論。*
使用提示步驟 + 思維鏈(Chain of Thought) 的提示法:這個技巧會強迫 AI 打開它的思考黑盒子,自問自答。
Prompt 舉例:
*請你扮演市場分析專家,分析 胡鬧廚房有限公司 在 2025 第四季可能面臨的市場風險。
請一步一步地思考,不要求快
##Steps##
首先,列出 A 公司在電動車領域的主要競爭對手。
其次,搜尋這些對手過去六個月內發布的官方財報或公開新聞稿。
最後,基於這些你找到的資料,分析 A公司在下一季可能面臨的市場風險,並說明你的推論過程。*
就算我們下了「好規格」的 Prompt ,還是不能大意。
當你得到回應結果後,你的檢驗步驟才剛要開始,需要做以下:
在重要決定前,你不會只聽一個部門的意見就做決策,對吧?對待 AI 也該如此。把不同的 AI 模型當成來自不同部門、各有專長的專家。
這個方法雖然比較搞工,但它特別適用於需要多角度分析的「開放性問題」。例如,ChatGPT 可能在創意發想上更勝一籌,Gemini 因為整合了 Google 搜尋,在事實驗證上可能更強,而 Claude 則擅長處理和總結超長篇的財報文件以及寫程式。了解這些工具的特性,有策略性地組合它們,就像組建一支高效的智囊團。
這其實是一個小小的偷吃步,與其費力去驗證一個通用型 AI 的答案,不如一開始就使用為搜尋而生的「搜尋工具型」 AI。例如 Perplexity、Felo Search 這類工具,它們的設計,打從 DNA 就是結合搜尋引擎、RAG 與 AI,預設就把引用來源融入了整個功能中。
當你經常需要最新、可靠且有佐證的數據或事實時,我建議不仿就直接使用這類工具。
舉例一些情境來說:從事金融創新服務者常需比對最新法規變動;研發人員需要評估特定技術框架;投資者則必須定期研究各公司的最新財報。
有些工具走的更前面,已經內建了檢查或驗證功能,例如 Google 的 Gemini,它會用不同顏色標示出它認為「高確信」或「可能不準確」的段落。
值得我們多注意一點的是,這雖然是一個很棒的查實功能,但絕非萬無一失的保證。AI 判斷的「高確信」,可能只是因為它在自己的索引資料庫中找到了大量相似的說法,但這些說法本身可能是錯的。PM 的批判性思維,永遠是最後、也是最重要的那道防線。
讓我們看看一個重構了驗證工作流的情境,會如何處理驗證 AI 回應結果可靠性這件事。
老闆臨時在走廊上問你:「明年我們的幾個競爭廠商,你覺得誰會先上市新的 OO 產品?」
打開 ChatGPT,輸入問題,得到一長串分析。看起來頭頭是道,於是直接複製貼上到下午的會議簡報,最終導致被打臉。這種做法,是把 AI 當成答案產生器,自己則淪落為「抄作業」的學生。
發現了嗎?這整個流程,是從把 AI 當成「答案產生器」,進化為把它當成「草稿撰寫器」。AI 的產出,只不過是你思考的起點,而不是終點。你從一個被動的資訊接收者,變成了主動的、批判性的驗證者。
在新時代之下,PM 的核心價值正在發生根本性的轉移。你的價值不再是比別人知道得更多、做的更快,因為這點你永遠贏不了那個不用吃飯睡覺,只需要電的傢伙。
此刻,我們需要新的能力:辨真偽、識風險、做決斷。從舊時代的「資訊擁有者和傳遞者」,轉型為「決策品質的守門員」。為此,我們的任務是建立一套工作流,過濾掉 AI 產出中的雜訊、偏見和幻覺,只讓高品質、可信的資訊,流入你和團隊的決策過程中。