iT邦幫忙

2024 iThome 鐵人賽

DAY 0
0

今天要簡單做一下 LLM 的歷史回顧。

●1960 年代: 第一個聊天機器人 ELIZA 誕生,它使用模式匹配和替換方法來創造對話的錯覺。
●1980 年代: 遞歸神經網路(RNN) 出現,能夠記住以前的輸入並根據上下文回答問題。
●1990 年代: 長短期記憶模型(LSTM) 出現,克服了 RNN 的短期記憶限制。
●2010 年代:

  1. 門控循環單元(GRU) 出現,簡化了 LSTM 的門控機制。
  2. 注意力機制出現,使模型動態地回顧整個文本,根據相關性,分配權重和關注與當前輸出最相關的輸入部分。

●2017 年: Transformer 架構 問世,依賴注意力機制來處理序列,並為 BERT、GPT 等後續模型奠定了基礎。
●2018 年至今: 大型語言模型(LLM) 出現,如 Google 的 BERT 和 OpenAI 的 GPT 系列,它們可以執行無數的任務。

https://ithelp.ithome.com.tw/upload/images/20241014/20168005dW0bFjpfl8.png

(照片來源:https://www.youtube.com/watch?v=K7o5_Fj7_SY)


上一篇
Day26 利用RAG架構建立本地端問答機器人__Gradio介面呈現
下一篇
Day28 LLM未來展望
系列文
除了ChatGPT,你了解生成式AI的其他應用嗎?30天從零到精通的學習與實作30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言