正所謂企劃展不上變化,再怎麼預防但終究疏漏了關鍵的一步。以下就來說明為什麼要重新查找大語言模型。
在之前的十天裡我已經準備先串連Open AI的大語言模型,但在查找後才發現它要再訓練並串聯的話是需要錢的,並且伺服器ngrok也有著相同的問題,之前完全沒去多想該怎麼預防這樣的問題,使的這半天都在思考要怎麼進行下一步。而在經過諸多考量後決定壯士斷腕不繼續使用Open AI的大語言模型,並開始了解更多大語言模型並確定能否使用。
首先是我一開始要使用的大語言模型Open AI的GPT
它最大的特點就是使用一個神經端處理所有訊息和輸出,使它擁有最短的反應時間並且可以有豐富情緒的方式以語音或文字來表達。同時微軟的Copilot也是用這個大語言模型來執行的。
再來是Meta的Llama,他們同樣擁有很快的反應速度而且特定條件下商業使用(每月使用次數不得超越7億次)可以免費使用的,唯一美中不足的是它再生成回應時不會有豐富的情感。
與前兩個不同的是Gemini雖然也是很高速的生成回應,但在許多網友的測試下數據卻不足以追上GPT和Llama。而它在有這樣劣勢的情況下卻擁有其他人沒有的Google龐大數據進行輔助,使它可以結合到Google的所有程式裡使用,同時它也會利用Google裡的大量資料查詢,並且也是可以免費使用。
這幾個是大眾最常聽到的大語言模型,明天我將會重新確定要使用的大語言模型和新的伺服器。如果這次的貼文有任何的問題希望大家可以幫助我修正。謝謝大家的支持。