iT邦幫忙

2024 iThome 鐵人賽

DAY 16
0
生成式 AI

從零開始,打造一個生成式 AI 平台,打破程式學習的高牆系列 第 16

鐵人賽完成一半了!讓我們聊聊 AI 的那些有趣問題

  • 分享至 

  • xImage
  •  

讓我們聊聊 AI 的那些有趣問題

https://ithelp.ithome.com.tw/upload/images/20240916/20168979Xa5V9rXr3o.png

前言

哈囉,大家好!寫到第十六篇了,我們已經走過了一半的旅程。為了讓大家輕鬆一下,這一章我們不談嚴肅的技術細節,而是一起聊聊 AI 那些有趣又令人摸不著頭腦的問題。你可能會好奇,為什麼強大的 AI 模型在解決複雜任務時表現出色,卻在一些基本問題上出現了「智商欠費」的狀況?讓我們一起來探索吧!

AI 的參數:Temperature 和 Top-K

在進入有趣的問題之前,我們先來聊聊 AI 模型中的一些關鍵參數,特別是 TemperatureTop-K。這些參數就像調味料,能夠影響 AI 生成內容的風格和多樣性。

Temperature(溫度)

Temperature 參數控制著 AI 模型的隨機性。數值範圍通常在 0 到 1 之間:

  • 低溫度(接近 0):模型的輸出會更加保守和確定性,傾向於選擇概率最高的詞彙。這適合需要精確和一致性的任務,例如數學計算或事實回答。

  • 高溫度(接近 1):模型的輸出會更加隨機和富有創造性,可能會產生出乎意料的結果。這適合需要創意的任務,例如故事創作或詩詞生成。

範例:

  • Temperature = 0.2

    問題:請描述一下貓的特徵。
    
    回答:貓是一種小型的肉食性哺乳動物,通常具有柔軟的毛皮、尖銳的爪子和靈活的身體。
    
  • Temperature = 0.8

    問題:請描述一下貓的特徵。
    
    回答:貓是優雅而神秘的生物,它們有著閃亮的眼睛,喜歡在月光下獵捕,帶給人們無盡的驚喜。
    

Top-K

Top-K 參數限制了模型在每一步中考慮的候選詞彙數量,只從概率最高的 K 個詞中進行選擇。

  • 低 K 值(如 1):模型只能從最有可能的詞中選擇,輸出更為保守。

  • 高 K 值:模型有更多的選擇,輸出更加多樣化。

範例:

  • Top-K = 1

    問題:今天天氣真...
    
    回答:今天天氣真好。
    
  • Top-K = 50

    問題:今天天氣真...
    
    回答:今天天氣真適合散步,或者待在家裡讀本好書也是不錯的選擇。
    

調整參數的重要性

透過調整 TemperatureTop-K,我們可以控制 AI 的輸出風格,讓它更符合我們的需求。在開發應用時,適當地調整這些參數,可以讓你的 AI 更加智能和人性化。

AI 的那些奇怪問題

雖然 AI 模型在處理複雜任務時表現出色,但在一些看似簡單的問題上卻可能犯錯,讓人哭笑不得。以下我們來探討一些有趣的案例。

問題一:拼字難題

案例:

當你問 AI:「請告訴我 'strawberry' 這個單詞有幾個 'r'?」時,AI 可能會給出錯誤的答案。

原因解析:

AI 模型基於 Transformer 架構,使用了一種將文本分解為 Token 的方法。這些 Token 可以是單詞、詞幹、音節,甚至是字母。但關鍵在於,模型並不真正「理解」字母的意義。

深入分析:

  • Tokenization 的局限性:當文本被分解為 Token 後,模型處理的是 Token 序列,而非單個字母。對於像「strawberry」這樣的單詞,可能被視為一個整體的 Token,模型無法逐字分析。

  • 缺乏字母級別的理解:模型主要學習詞與詞之間的關係,對於字母的數量或順序並不敏感。

結論:

這就是為什麼 AI 在處理拼寫或字母計數這類任務時,可能會犯錯。因為它們的「思維方式」與人類不同,更偏向於統計和模式匹配。

問題二:數學計算的挑戰

案例:

當你問 AI:「請計算 12345 × 6789」時,模型可能給出錯誤的答案。

原因解析:

  • 計算能力有限:AI 模型並非專門的計算器,數學能力源自於訓練數據中的模式,而非真正的計算能力。

  • 訓練數據的偏差:模型可能從訓練數據中學到了錯誤的計算結果,或者根本沒有學習到特定的數學計算。

問題三:邏輯推理的困境

案例:

當你問 AI 複雜的邏輯謎題時,模型可能會給出不一致或矛盾的回答。

原因解析:

  • 缺乏真正的推理能力:雖然 AI 可以模仿人類的語言模式,但它並不具備真正的邏輯推理能力。

  • 基於概率的預測:模型的回答是基於語言模式的概率分布,無法進行嚴格的邏輯推理。

為什麼會出現這些問題?

Transformer 架構的特性

  • 基於序列的預測:Transformer 模型擅長處理序列數據,透過注意力機制捕捉詞與詞之間的關係。

  • Tokenization 的影響:將文本分解為 Token,有助於模型處理大量的語言資料,但也帶來了字母級別處理的局限性。

模型的「理解」與人類不同

  • 統計學習:AI 模型是透過大量數據學習語言的統計特性,並不具備人類的理解能力。

  • 缺乏常識與世界知識:模型的知識來源於訓練數據,對於超出數據範圍的知識,可能會出現錯誤。

結語

AI 模型的強大能力讓人讚嘆,但它們也有自己的局限性。在開發應用時,理解這些問題有助於我們設計更好的系統,避開陷阱。希望這一章的內容能讓你對 AI 的奇妙世界有更多的瞭解,也為你的開發旅程增添一些樂趣。


感謝你的閱讀!如果你對本文有任何疑問或想法,歡迎在下方留言討論。別忘了關注我的 Threads 和加入 Discord 社群,一起交流更多有趣的 AI 知識。我們下次見!


上一篇
思維鏈設計 5:讓 AI 跟著指揮,逐步完成每一個步驟的程式碼生成
下一篇
跨越語言障礙:讓 AI 精準處理多國語言 (i18n)
系列文
從零開始,打造一個生成式 AI 平台,打破程式學習的高牆17
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言