iT邦幫忙

第 11 屆 iThome 鐵人賽

DAY 29
0
Google Developers Machine Learning

文組腦的機器學習異想世界系列 第 29

【Day29】文組腦談談批量大小和學習率

哈囉大家好~~~
今天我們要談談批量大小和學習率,在我們訓練機器學習模型時,當整個訓練集訓練一次稱為一次迭代(iteration),但是我們不會使用一整個訓練集去訓練,我們會分成一個一個小的訓練子集去做訓練,一個一個小訓練子集也就是我們的批量大小,如果我們的批量大小很小,就代表我們沒有切成很多小子集,子集大小會越靠近用我們整個訓練集下去進行每次迭代,隨著數據集的越大和記憶體限制,使用這麼大量的數據進行會變得越來越不可行,如果我們的批量大小很大,就代表我們切成很多小子集,雖然機器學習模型的損失(我們的損失函數)收斂速度非常慢,訓練也將花費很長時間。學習率可以用來控制權重(w)變化的大小。如果太小,訓練將花費很長時間,如果太大,則可能會錯過最佳點。

那我們明天見!


上一篇
【Day28】文組腦教你解決overfitting
下一篇
【Day30】文組腦最後談談機器學習模型的是超參數調整
系列文
文組腦的機器學習異想世界30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言