來簡單介紹兩者的區別,篇幅不會太長
訓練期間,會隨著運算過程隨之調整,以我們文章的 NN 來說就是 W, b
由於每個 Neuron 都各有 W, b 我們會將一層的 W, b 蒐集起來變成矩陣和向量,透過 Python 就可以達到快速的向量運算(雖然現在不只 Python 能做到就是了)
那一開始 Forward propagation 的 W, b 可以隨機分配,做出結果後會再透過 Backward propagation 去調整
所以整個過程的參數都會變動
訓練之前,就會設定好的參數,訓練過程結束以前都不會更動,如:
第一部分快結束了,還有第二部分完才進實作