早期研究者觀察「生物神經構造」後,發展出 BP 神經網路(Backpropagation Neural Network;用「反向傳遞」調整權重的人工神經網路)。它由輸入層(Input Layer)、隱藏層(Hidden Layer)、輸出層(Output Layer)組成,各自分工,透過學習資料來完成分類或預測。
依給定權重/偏置逐步代入後,輸出層得到 0.474(接近 0.5 但明顯低於期望的 1)。
原因:初始權重/偏置是隨機的,還沒學習。
BP 神經網路的靈魂在於:用隱藏層把不可分變可分、用反向傳遞系統化地修正權重與偏置、持續降低損失直到模型既不「背答案」、又能泛化。當問題更複雜時,加深隱藏層、加強特徵工程、善用正則化與良好初始化,才能兼顧表達力與穩定性。白話:把空間彎對了、參數調對了,模型就會「看懂」資料。
一句話總結:BP 神經網路(Backpropagation)是把「不可分的世界」用「隱藏層的座標魔法」變成「可分的世界」,再用線性刀法完成最後一劍;訓練時靠梯度慢慢把刀磨利,直到既鋒利又不傷人。