引言 在前一天的文章裡,我們實作了一個最簡單的前饋神經網路(Feedforward Neural Network, FNN)。我們先把整段文字轉換成詞向量,然後...
引言 圖片來源:https://www.reddit.com/r/machinelearningmemes/comments/gqz1dw/big_mistak...
引言 想像你走進一個大型超市要買新鮮的番茄 🍅。菜架上擺滿了上百種蔬果,如果你用 RNN 或是 LSTM 那樣的序列模型的方法找,你就會是一層一層貨架這樣依序慢...
引言 當 ChatGPT 剛問世時,大家是不是都被它震驚到了?電腦居然能生成這麼自然、這麼像人講的文字!而且隨著 OpenAI 推出越來越多升級版,它似乎也變得...
引言 我們今天要談的主題是要怎麼讓 AI 理解你!想像一個情境是,你想要你的朋友幫你做一件事。如果你只說一句「幫我寫報告」,他根本不會知道你想要什麼內容、怎樣的...
引言 大家有沒有遇過這種情況,就是你問 GPT 一些文獻要怎麼找,結果它開始亂丟一堆研究給你,講得天花亂墜,但大部分它說的文獻根本就不存在 😭有時候,當 LLM...
引言 打造我們的 RAG 系統的第一步就是要先處理好我們知識的來源:「資料庫」! 今天的內容是要建立一個能用 語意搜尋 的資料庫,也就是 向量資料庫(Vecto...
引言 在上一篇的內容中,我們把所有文章切成小段落(chunk),再用 BGE-M3 轉成向量,存進 Qdrant,完成了我們的 知識向量資料庫。前一篇傳送門🚪...
引言 上一篇我們用向量檢索找出了幾個相似的 chunk。但有時候即使找到了 top_k 的候選文件,相關性的排序也還不是最完美的。有些內容雖然有相關,但對回答問...
引言 前面三天我們一步步完成了資料前處理、建立向量資料庫、向量檢索、重排序,今天終於要進入最後一塊拼圖:生成(Generation),也就是讓 LLM 把前面找...