今天是特殊的一年,大型語言模型如雨後春筍般冒出,其回答問題、邏輯推理、舉一反三的能力也令人嘆為觀止,曾經被人工智能視為障礙的圖靈測試對如今的語言模型來說就像一塊小蛋糕;原本因為進入門檻極高,該技術始終掌握在少數人的手中,然而現在,在LLama系列的大型語言模型開源後,先前許多專門被用來finetune大模型的技術,也開始被使用在了LLama系列的語言模型上,本系列文章將使用單張顯卡,藉由研究baby llama2專案來嘗試從頭訓練自己的語言模型並一步一步把模型參數量加大;並且使用QLORA等等的技術來對現有的大型語言模型做針對性的微調,探索大語言模型的奧秘。
今天仍然在等待Training的結果,開始嘗試摸索chatGPT的API,想要讓ChatGPT依據我給的情境幫我做分類任務。 import openai imp...
為了讓ChatGPT做到角色扮演,需要依據自己的簡單應用想個讓她角色扮演的prompt,這樣的設定方式可以在需要做一些功能控制時,讓ChatGPT自己依據用戶的...
本文中的聊天室網頁使用 WebChatApp 專案並自行做一些修改 搭配github上的聊天室WebChatApp,將該聊天室網頁接上了這兩天寫的ChatG...
依據我的理解LLama是Meta較早期釋出的基礎語言模型,而Alpaca則是基於LLama針對聊天指令微調後的模型,微調資料格式與先前讀到的Supervised...
我看了一陣子以後,發現LLama與LLama2有太多不一樣的細節,對我這樣剛切入了人來說,條列區別意義不大,因此決定先跑起來再說。 目前目標放在部屬Chines...
使用Chinese LLama2專案的很多方法可以參考${Root}/scripts/README.md,training/finetune/inferenc...
嘗試使用llama.cpp來跑Alpaca2,目前還沒跑起來 git clone https://github.com/ggerganov/llama.cpp...
我對LangChain的認知是,這是一個方便用來開發LLM相關應用程式的框架,裡面包裝了很多LLM在應用上經常會使用到的一些function或工具。 所以今天來...
今天繼續完成昨天沒有完成的東西。 使用LangChainy做检索式问答 下載embedding model跟model weights cd ${repo}...