第三週做完,真的覺得跟前兩週完全不一樣。前半段我還在跟GPT-2和Qwen mini這些小模型奮戰,每次跑出來不是文字接龍,就是蛇蛇蛇無限重複,雖然好笑,但完全不實用。直到 Day17我申請到Hugging Face的Token,把Gemma-3-1B-Instruct跑起來,才正式覺得「啊,原來這才是正常的輸出」。
Day15、16我特地玩了Prompt和Few-shot Prompting。那時候我還蠻天真地以為,只要設計好Prompt,就算是舊模型也能被拉回來。結果事實證明,GPT-2還是會亂跳,新聞和詩歌怎麼跑都不太像樣。換到Gemma之後,一模一樣的Prompt,輸出就瞬間專業很多,這真的讓我有感:Prompt當然重要,但模型的底子更是關鍵。
Day18跑Gemma的第一個prompt時,我看到它輸出乾淨的條列內容,內心是真的鬆了一口氣。Day19我測試幻覺現象,問它「月球上有幾家餐廳」跟「拿破崙在台灣打過什麼戰役」。Gemma反應蠻有趣:遇到月球餐廳的問題,它至少還知道沒資料;但換成拿破崙那題,它居然很認真給我造出三場戰役,還附年份,看起來超真。那一瞬間真的會有點被唬到,也提醒我:就算是新模型,還是得小心驗證。
Day20我沒有跑程式,單純回頭想一個問題:模型大小 vs Prompt 設計,到底哪個比較重要?做完這週,我覺得答案其實很明顯——兩個缺一不可。小模型怎麼調Prompt還是會歪,但大模型如果沒有好的Prompt,也不一定能發揮實力。
整體來說,這週最大的收穫就是:換上大模型之後,很多之前卡住的東西都變得合理了。Prompt還是要設計,但至少輸出不會再爛到沒法看。這讓我更確定,如果要做專題,模型的選擇真的會影響成敗。