iT邦幫忙

1

有關AI模型的回應不一樣問題

  • 分享至 

  • xImage

大家好,
今天下了個AI模型來試東西, 發現與線上的回應有很大差異, 想問問發生是有什麼原因嗎?
下圖是DEEPSEEK V3 0324的問題及回應:
https://ithelp.ithome.com.tw/upload/images/20250413/20091935GW42TtN7b4.png

下圖是本機DEEPSEEK V3 0324的相同問題及回應 (明顯不同, 中途停掉):
https://ithelp.ithome.com.tw/upload/images/20250413/20091935TqHK1KeSAl.png

發現本機的明顯是平常一個人的"自我介紹"文章。

本地R1-14B及32B都能接近線上的回應。

好奇問大家也出現這樣嗎?

YC iT邦好手 1 級 ‧ 2025-04-15 10:23:15 檢舉
明顯是停掉了。也許提供一下log會有幫助。

2 個回答

0
I code so I am
iT邦高手 1 級 ‧ 2025-04-15 07:12:27

temperature參數控制LLM回答的隨機性,參數值介於[0, 2],值越小回答越精準、固定,值越大回答越有創意、隨機,一般預設值為1。可參閱:
https://www.vellum.ai/llm-parameters/temperature

perry168 iT邦新手 1 級 ‧ 2025-04-27 10:29:10 檢舉

同Temperature看似沒有關係, 也許設為0.1, 出來的都是這樣。 用WEBUI 或 OLLAMA RUN方式也是。

我要發表回答

立即登入回答