iT邦幫忙

2025 iThome 鐵人賽

DAY 3
0
生成式 AI

從基礎概念開始了解生成式AI系列 第 3

[Day3] - 讓模型自我學習所帶來的挑戰

  • 分享至 

  • xImage
  •  

讓模型自己從資料中找出規則的方式,也會帶來一些挑戰,特別是「幻覺」現象(hallucination) 和模型的「不可解釋性」(Unexplainability) 問題。
1.幻覺(Hallucination):機器學習模型,特別是生成式模型(如ChatGPT、生成對抗網路),有時會在輸出中創造出錯誤的、不真實的內容,這被稱為「幻覺」。這是因為模型根據資料來預測最有可能的答案或生成內容,但並不總是基於真實的世界知識,尤其當訓練資料中包含錯誤或偏差時,模型可能會產生虛假的結論。
2.難以解釋的黑箱問題(Black-box problem):許多機器學習模型,尤其是深度神經網路,具備數百萬甚至數十億個參數(GPT-3的參數量為1750億),這使得它們在運作時無法被人類輕易理解。雖然模型可以在資料中學習到複雜的模式和隱性知識,但這些學習的過程往往不透明,人們難以解釋模型為何做出某個特定的決策或輸出,這就是所謂的「黑箱」問題。
這些挑戰使得機器學習在某些應用領域中的可信度降低,特別是在需要高度準確性和解釋性的場景中,例如醫療診斷、法律判決或金融決策。


上一篇
[Day2] - ChatGPT幕後推手OpenAI掀起AIGC熱潮
下一篇
[Day4] - 人工智慧vs.人類智慧vs.生成智慧
系列文
從基礎概念開始了解生成式AI4
圖片
  熱門推薦
圖片
{{ item.channelVendor }} | {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言