使用生成式AI模型的一般方式通常涉及直接與模型互動,例如通過命令行界面(CLI)或特定的應用程序。而這種方法往往受限於本地計算資源,且難以整合到更大型的應用中。因此,我們需要使用API來與模型進行溝通。API提供了一個標準化的接口,使開發者能夠輕鬆地將LLM的功能整合到各種應用程序中,無需處理複雜的模型部署和維護問題。
平台在這個過程中扮演著重要的角色,不僅提供了訪問模型的API,通常還會提供如模型管理、版本控制、安全性設定、使用量監控和使用費用等等。且通常大多平台都會提供文檔、代碼和開發工具,進一步降低開發門檻。
生成式AI平台主要分為三大類:
AI應用服務
這類服務提供了現成的AI產品,如ChatGPT、New Bing、Claude、Amazon Q、Perplexity、Monica等。它們通常具有用戶友好的界面,無需編程知識即可使用。這些服務適合快速體驗AI能力,或用於非技術用戶的日常任務。然而,它們的自定義性較低,難以整合到特定的業務流程中。
Self-Hosted
簡單來說就是將模型下載並部屬至本地環境,如Ollama和LM Studio,通過在本地建設API服務,提供內部或外部應用程式調用。其特點包含:
雲服務(Cloud)
API Service: 使用第三方提供的語言模型API,如OpenAI API, Amazon Bedrock, Anthropic API, Google Cloud API, Microsoft Azure API等等
透過雲端基礎設施來Self-Hosted
雲基礎設施提供良好的便利性和強大的運算資源。API Service提供了簡單的街口來訪問先進的模型,而基礎設施除了能建構和訓練自己的模型,現在大多Cloud API Service也開始提供部署私人模型。
本文內容基於個人學習與實踐經驗,並非專門研究生成式 AI 或領域專家。若有任何內容上的錯誤或建議,誠摯歡迎友善交流與指正,讓我們共同探討與成長。感謝您的閱讀與支持!