這是一個以 RAG為名的系列,但其實大部分篇幅應該都在處理資料,預計內容包含:
(1) 取得(context, question, answer)對的三種方法
(2) 以Label Studio建立ground-truth
(3) 搭建 RAG baseline
(4) 探索驗證框架
(5) 各式方法論的實測
我會實測檢索的recall 、答題的忠實度以及 LLM as a judge的表現
看看現代 LLM/RAG/Agent 在自製題目集的能力與限制
day0: Index 這個系列以 RAG(Retrieval-Augmented Generation)為名,但真正的重點大部分都落在資料處理與驗證。整體開發...
TL;DR 我們今天兜了三個小工具,程式在這裡的days/day1python get_transcription.py是從自帶字幕的youtube連結獲取字幕...
Result 首先是今天的結果: { "query":"老師為何在課程中仍保留需要花三到四個小時訓練的作業?這類作業...
Situation: 今天是一個額外的任務,主要是有時候想直接套一些 LlamaIndex 包好的範例,但是沒看 source code 的情況下實在不知道它裡...
Situation: 我們昨天配置了 Langfuse 讓我們可以在 Langfuse 上看到 LlamaIndex 的 QueryEngine.query 之...
Situation: 我們想要替RAG系統獲得成對的 (context, question, answer) 供後續方法論的驗證 在day1-get_cont...
Situation: 我們想要替RAG系統獲得成對的 (context, question, answer) 供後續方法論的驗證 在 day1 ~ day5...
Situation: 我們想要獲得成對的 (context, question, answer) 並做成資料集,以供後續 RAG 方法論的驗證 先前的文章(d...
Situation: 給定一個問題(question),我們正在尋求一個方法,可以幫我們找到對應的 context 以及 answer,來讓我們可以構造出 (...
Situation: 我們昨天試了 Tavily research 想要看看可不可以直接查到好的 context ,但發現查回來的內容本身就帶有很多雜訊,應該...