哈囉大家好~~~
今天我們要談談批量大小和學習率,在我們訓練機器學習模型時,當整個訓練集訓練一次稱為一次迭代(iteration),但是我們不會使用一整個訓練集去訓練,我們會分成一個一個小的訓練子集去做訓練,一個一個小訓練子集也就是我們的批量大小,如果我們的批量大小很小,就代表我們沒有切成很多小子集,子集大小會越靠近用我們整個訓練集下去進行每次迭代,隨著數據集的越大和記憶體限制,使用這麼大量的數據進行會變得越來越不可行,如果我們的批量大小很大,就代表我們切成很多小子集,雖然機器學習模型的損失(我們的損失函數)收斂速度非常慢,訓練也將花費很長時間。學習率可以用來控制權重(w)變化的大小。如果太小,訓練將花費很長時間,如果太大,則可能會錯過最佳點。
那我們明天見!