iT邦幫忙

2023 iThome 鐵人賽

DAY 17
0

深度學習

是機器學習的一個分支,通過多層神經網絡來模擬和學習複雜的資料

神經網絡( Neural Network )

深度學習的核心是神經網絡,這是由多個神經元(或稱為節點)組成的數學模型

神經元( Neuron )

神經網絡的基本構建塊是神經元,也被稱為節點。每個神經元接收一個或多個輸入,對這些輸入進行加權總和,然後通過激活函數進行非線性轉換,生成輸出,每個神經元具有一個權重(weight),這是一個數值,用來控制對輸入的加權重要性

深度
深度學習的"深度"
表示它通常包含多個隱藏層
而每個隱藏層都包含多個神經元

神經網絡的層次結構

神經網絡通常由多層組成,包括輸入層、隱藏層(可能有多層)、和輸出層。這些層次結構形成了一種前向傳播( Feedforward )結構

  • 輸入層( Input Layer ): 輸入層接受原始資料,每個輸入特徵通常對應到輸入層中的一個神經元
  • 隱藏層( Hidden Layer ): 隱藏層位於輸入層和輸出層之間,用於學習和提取資料的特徵表示,神經元之間存在多個權重和連接
  • 輸出層( Output Layer ): 輸出層生成最終的預測結果,其結構根據任務的不同而有不同

前向傳播( Forward Propagation )

前向傳播是神經網絡中的信息傳遞過程,從輸入層開始,將資料進行加權總和和激活函數的運算,然後將結果傳遞到下一層,一直傳遞到輸出層,產生最終的預測結果

激勵函數

神經元使用激勵函數來將輸入轉換成輸出,引入非線性性質,使神經網絡能夠學習非線性關係,常見函數有:

  • **Sigmoid :https://chart.googleapis.com/chart?cht=tx&chl=**%20%24f(x)%20%3D%20%5Cfrac%7B1%7D%7B1%20%2B%20e%5E%7B-x%7D%7D%24

將輸入映射到 0 到 1 之間。

  • ReLU ( Rectified Linear Unit ): https://chart.googleapis.com/chart?cht=tx&chl=%24f(x)%20%3D%20%5Cmax(0%2C%20x)%24

正數輸入保持不變,負數輸入為 0

  • Tanh : https://chart.googleapis.com/chart?cht=tx&chl=%24f(x)%20%3D%20%5Cfrac%7Be%5Ex%20-%20e%5E%7B-x%7D%7D%7Be%5Ex%20%2B%20e%5E%7B-x%7D%7D%24

將輸入映射到 -1 到 1 之間。

反向傳播(Backpropagation):

使用梯度下降法( Gradient Descent )來調整神經網絡中的權重,以最小化預測誤差,反向傳播計算預測誤差的梯度,然後反向傳播這些梯度到網絡中的每個神經元,來調整它們的權重,以最小化模型的預測誤差


上一篇
物以類聚~層次聚類
下一篇
探索神經~神經元與神經網路
系列文
機器學習新手行,相信你也行!30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言