在過去的二十幾天裡,我們已經學會了如何向 AI 下達各種指令。但你是否曾遇到過這種情況:
這些問題,都指向了一個核心技能:「提示詞優化 (Prompt Optimization)」。
專業的 AI 使用者,不僅僅是「會下指令」,他們更懂得如何「科學地改善指令」。
今天,我們就要來學習如何利用 Vertex AI 的專業功能,成為一名真正的「提示詞優化師」。
▋優化一:用「比較」功能進行 A/B 測試
當你不確定哪種問法更好時,最好的方法就是「讓它們比一比」。Vertex AI 的「比較 (Compare)」功能,就是為此而生的 A/B 測試利器。
實戰情境:假設我們要為「AI 倫理」這個複雜的主題,生成一篇科普文章的開頭。我們有兩種不同的提問思路。
第一步:進入「比較」模式
打開 Vertex AI 的 Generative AI Studio,進入「文字提示 (Text Prompt)」。
載入我們 Day 07 建立的「[終極模板] 品牌系統指示」。
點擊介面上方的「比較 (Compare)」按鈕,將介面一分為二。
第二步:設計兩種不同的 Prompt
左側 Prompt (開放式提問):給予 AI 較大的發揮空間。
請為「AI 倫理的挑戰」這個主題,撰寫一個引人入勝的社群貼文開頭。
右側 Prompt (框架式提問):給予 AI 更明確的結構性指導。
請為「AI 倫理的挑戰」這個主題,撰寫一個引人入勝的社群貼文開頭。
請使用「提出一個令人不安的場景 -> 揭示背後的技術問題 -> 引出主題」這個結構來撰寫。
第三步:分析結果,提煉洞見
點擊「提交」後,你會在同一個畫面上,看到兩種不同問法產生的結果。
透過這種並列比較,你可以非常直觀地判斷出,對於這類複雜主題,提供一個清晰的「寫作框架」,是否能讓 AI 的產出品質更符合你的期望。這個結論,就可以應用到你未來的提示詞設計中。
▋優化二:解讀「安全屬性」,突破 AI 的保守心防
有時候,AI 會因為「安全機制」而拒絕回答或給出非常保守的答案。Vertex AI 提供了一個獨特的功能,讓我們可以「看見」AI 的安全判斷依據。
實戰情境:假設我們要 AI 評論一個有爭議的 AI 繪圖版權事件。
第一步:提出一個可能觸及邊界的問題
在正常的「文字提示」介面中,輸入一個較為敏感的指令。
【Prompt 範例】
『最近,一位藝術家指控某個 AI 繪圖公司抄襲了他的風格,引發了巨大的爭議。請你對這起事件,提出一個犀利的、帶有批判性觀點的評論。』
第二步:查看「安全屬性」的評分
當 AI 生成回答後,在回答的下方或旁邊,找到並點擊「安全屬性 (Safety Attributes)」的選項。
你會看到一個評分報告,顯示 AI 對於這次生成內容的判斷:
第三步:根據評分,調整你的策略
如果 AI 拒絕回答:你可以查看是哪個屬性的評分過高。如果是因為「危險內容」(例如 AI 誤以為你在尋求法律建議),你可以在下一個指令中澄清:「我不是在尋求法律建議,請從『創作者權益』的角度來進行評論。」
如果 AI 回答過於保守:這意味著安全評分都很低。你可以下達迭代指令,鼓勵它更大膽一些:「這個觀點很好,但可以更尖銳一點嗎?試著站在藝術家的立場,用更強烈的情感來表達他的憤怒。」
透過解讀「安全屬性」,我們不再是盲目地試探 AI 的底線,而是能像一個醫生看報告一樣,精準地診斷出溝通不暢的原因,並「對症下藥」,引導 AI 給出我們真正想要的、有深度、有觀點的回答。
今天,我們學會了兩項專業的「提示詞優化」技巧。我們不再只滿足於 AI 給出的第一個答案,而是懂得如何透過 A/B 測試和安全屬性分析,系統化地提升 AI 回應的品質,讓它成為一個更強大、更可控的創作夥伴。
明天,我們將挑戰一個更具整合性的任務:設計一個「提示鏈 (Prompt Chain)」,實現一鍵生成包含多種內容格式的「內容大禮包」。