本系列將以「生成式 AI 的奇妙旅程:從 ChatGPT 到個人化應用」為題,連續 30 天帶大家探索生成式 AI 的核心概念與實際應用。前兩週從理論出發,解讀大型語言模型(LLM)的架構與運作原理,包括 Transformer、自注意力機制、位置編碼、預訓練與微調、RLHF、人類偏好對齊等,幫助讀者打下基礎。中段將分享實作案例,例如利用 Dify 打造「旅遊規劃助手」,示範如何從輸入需求到產生完整規劃。最後一週則探討個人化應用、提示工程進階技巧、外部知識整合,以及生成式 AI 的挑戰與未來趨勢。目標是讓讀者能在理論與實務間建立完整視角,理解生成式 AI 的運作邏輯,並能實際應用在生活與專案中
開篇宣言:為什麼要做 30 天生成式 AI 系列在過去的幾年裡,生成式人工智慧(Generative AI)掀起了一股全球熱潮。從 2022 年底 OpenAI...
AI 發展脈絡:從規則式到深度學習要理解現今風靡的生成式 AI,我們必須回顧人工智慧(AI)的發展歷程。早期的 AI 系統大多是規則式系統,也就是由人類專家將知...
2017 年,Google 團隊發表的《Attention Is All You Need》論文提出了革命性的 Transformer 模型架構。這篇論文之所以...
Self-Attention 的核心概念Self-Attention(自注意力)機制是 Transformer 成功的關鍵。在這個機制中,模型會將輸入序列中的每...
為什麼要談 Positional Encoding?在上一篇我們聊到 Self-Attention,它能讓模型捕捉句子中詞與詞之間的關聯。但這裡有個問題:自注意...
在前兩天中,我們看到 Transformer 如何透過 自注意力 來抓取詞與詞之間的關聯,並利用 位置編碼 來補足句子結構的理解。這讓模型能夠不只知道「哪些詞彼...
GPT 模型發展史與進化:從語言通才到智慧總機 OpenAI 推出的 GPT (Generative Pre-trained Transformer) 系列模型...
大型語言模型的語言基石:Tokenization 與 Embedding 在回顧了 GPT 模型一路以來的演進與突破後,我們已經了解了這些模型為何能在語言理解與...
在完成了 Tokenization 和 Embedding,我們已經把語言轉換成了模型能理解的數字形式。但問題來了:模型要怎麼從這些數字中真正學會語言知識?答案...
在完成預訓練與微調後,雖然模型已經具備語言能力並能應對特定任務,但仍然存在一個問題——它並不真正「理解」人類的價值與偏好。這時候,研究者引入了 RLHF(Rei...