鐵人賽的最後,我們再來談最近很多人關心的主題:LLMOps。
過去幾年中,MLOps 已經成為顯學。MLOps 以其自動化、標準化以及對模型全生命周期管理的能力,促進了開發、部署和監控的效率。而隨著 ChatGPT 的崛起,MLOps 的概念已經被擴展到 LLM 的營運與管理,這一新興領域被稱為 LLMOps。
LLMOps 將 MLOps 的原則應用到 LLM 的開發和部署過程中,涵蓋從 Prompt engineering、fine tune(可能有)、部署、監控的完整生命周期。隨著 ChatGPT 這類強大的 LLM 在各種自然語言處理任務中的表現屌打傳統模型、成為了做產品的選擇,LLMOps 因此成為了 buzzword 之一。
在我們探討 LLMOps 之前,首先快速回顧一下 MLOps。MLOps 的核心是針對機器學習模型的開發、部署和維運進行標準化和自動化,它通常涵蓋以下階段:
MLOps 強調 CI/CD,促進模型快速迭代並應用於生產環境,使得模型能夠更敏捷、更可靠地運行。
LLMOps 是 MLOps 在大型語言模型運營中的延伸,旨在簡化 LLM 從開發到生產部署的流程。儘管 LLM 如 GPT-4 是預訓練模型,我們並不需要像傳統 ML 模型那樣從頭開始訓練,但仍然需要進行 Prompt 調校、模型微調以及部署到生產環境中,這就涉及到 LLMOps。
LLMOps 不僅承襲了 MLOps 自動化部署、監控和迭代的能力,還新增了針對 LLM 的特定功能,如 Prompt engineering 和 RAG。
傳統的 MLOps 工作流程主要集中於資料準備、模型訓練和模型部署,而 LLMOps 的重點則在於如何高效地使用這些已預訓練的模型。以下是兩者之間的關鍵區別與相似點:
從 MLOps 到 LLMOps,機器學習運營的範疇已經擴展到了大型語言模型的開發與管理。LLMOps 不僅繼承了 MLOps 的自動化和標準化操作,還針對 LLM 的特點進行了進一步的優化,如 Prompt engineering、微調和輸出品質監控等。
在 Azure Machine Learning 上,可以完整跑完整套的 LLMOps。能夠幫助開發者從模型發現、微調到最終部署,實現完整的生命周期管理,確保模型在生產環境中的可靠性和效能。但是真的因為篇幅的關係來不及介紹,以後有緣份再來寫吧!鐵人賽就在這裡完賽了!