分享至
大家好,今天下了個AI模型來試東西, 發現與線上的回應有很大差異, 想問問發生是有什麼原因嗎?下圖是DEEPSEEK V3 0324的問題及回應:
下圖是本機DEEPSEEK V3 0324的相同問題及回應 (明顯不同, 中途停掉):
發現本機的明顯是平常一個人的"自我介紹"文章。
本地R1-14B及32B都能接近線上的回應。
好奇問大家也出現這樣嗎?
已邀請的邦友 0/5
temperature參數控制LLM回答的隨機性,參數值介於[0, 2],值越小回答越精準、固定,值越大回答越有創意、隨機,一般預設值為1。可參閱:https://www.vellum.ai/llm-parameters/temperature
同Temperature看似沒有關係, 也許設為0.1, 出來的都是這樣。 用WEBUI 或 OLLAMA RUN方式也是。
可以參考:https://ithelp.ithome.com.tw/articles/10365026