Hello 大家好!歡迎回來!前三天剛剛分享完資料視覺化 (Data Visualization),那今天我打算跟大家分享數據挖掘 (Data Mining)。...
前面所說的 Sync Features 又可以再細分為 Streaming Features 和 Realtime Features
Streaming Fe...
由於昨天在訓練時沒有存檔路徑,因此訓練完10個epoch的結果存放在'./out/20230815_baike_pretrain/epoch_9.pth'。pr...
在前幾天的筆記中有介紹過線性回歸(Linear Regression),線性回歸中的因變數與自變數呈現直線關係(線性關係),但實際上直線並不一定能很好的展現因...
大型語言模型(LLM)是指包含數千億(或更多)參數的語言模型,這些參數是在大量文本數據上訓練的,LLM 建立在 Transformer 架構之上,其中多頭註意力...
接下來我們要學會的是一寫MNIST的基本訓練程式碼
首先是察看確認之前提到的訓練資料和測試資料分別為60000筆盒10000筆,相信有學過一點點Python的人...