隨著大型語言模型(LLM)的快速發展,文本生成與理解能力有了顯著提升。然而,當面對長篇幅文本(如新聞報導、科研論文、法律文件)時,LLM 仍受到 上下文長度限制 與 資訊稀釋 的挑戰,使得摘要生成的準確性與完整性難以保障。本研究旨在探索 長文本壓縮與摘要生成 的方法,並聚焦於 檢索增強(Retrieval-Augmented Generation, RAG) 技術的應用。
大型語言模型(Large Language Model, LLM)介紹與歷史 什麼是 LLM 大型語言模型(Large Language Model, LLM)...