iT邦幫忙

2024 iThome 鐵人賽

DAY 14
0

神經網路

前言

昨天提及了神經網路,也說到他在人工智慧領域中,類神經網路和深度學習是兩個密切相關且至關重要的概念。今天就會入探討這兩種技術,說明它們的關係,並探討它們在現代AI應用中的重要性。

什麼是神經網路

類神經網路(Neural Networks)是一種模仿人類大腦神經元結構和功能的計算模型。這種模型由多層神經元(也稱為節點或單元)組成,神經元之間通過連結(權重)傳遞訊息。類神經網路可以透過學習數據中的模式和特徵,來完成各種複雜的任務,像是圖片辨識、語音辨識和自然語言處理等。

神經網路的結構

從圖片中,我們可以看到這個神經網路的基本組成部分。這個網路包含三層主要的結構:輸入層、隱藏層與輸出層。
image

  1. 輸入層(Input Layer)
    位於最左側的綠色節點代表輸入層,該層負責接收外部數據,並將這些數據傳遞給網路進行處理。每個節點對應到一個輸入變量,這些變量可能是圖片的像素值、文字的特徵或其他可用來訓練模型的數據。輸入層的節點數目通常與數據集的特徵數量一致。

  2. 隱藏層(Hidden Layer)
    圖片中的藍色節點表示隱藏層,這是一個非常重要的層次。隱藏層負責處理從輸入層接收到的數據,並進行進一步的特徵提取和非線性轉換。隱藏層中的每個節點都會應用一個激活函數(Activation Function),如ReLU或Sigmoid,以確保神經網路能夠學習複雜的模式和關係。

  3. 輸出層(Output Layer)
    右側的黃色節點代表輸出層,它將隱藏層處理過的數據轉換為最終的結果。輸出層的節點數量取決於具體任務的需求。例如,在分類問題中,輸出層節點數量可能與類別數量相等,而在迴歸問題中,輸出層通常只有一個節點。

類神經網路的基本組成

類神經網路由三個核心部分組成,這些部分共同決定了網路的功能和學習能力:

  • 結構(Architecture):

    • 想象一下搭建一棟房子。結構就像是房子的設計圖,決定了有多少層、每層有多少房間、房間如何連接。
    • 在神經網路中,結構定義了網路的形狀:有多少層、每層有多少「神經元」、這些神經元如何相互連接。
    • 結構中最重要的變數是連接的強度(權重)和每個神經元的活躍程度(激活值)。
  • 激活函式(Activation Rule):

    • 如果把神經元比作一個決策者,激活函式就是這個決策者的「個性」。
    • 它決定了神經元在接收到輸入後,如何產生輸出。有些激活函式會將輸入「壓縮」到某個範圍(如Sigmoid),有些則會過濾掉部分信息(如ReLU)。
    • 常見的激活函式包括:
      • Sigmoid:將輸入轉換為0到1之間的值,常用於二元分類問題。
      • ReLU(Rectified Linear Unit):小於0的輸入會被置為0,大於0的保持不變。這種簡單的操作在實踐中非常有效。
      • Tanh:類似Sigmoid,但輸出範圍是-1到1。
  • 學習規則(Learning Rule):

    • 學習規則就像是網路的「成長策略」。它決定了網路如何從經驗中學習,不斷調整自己以提高性能。
    • 最常見的學習規則是反向傳播(Backpropagation)。它的工作原理是:
      • 計算網路的預測與實際結果之間的誤差。
      • 從輸出層開始,逐層向後計算每個神經元對誤差的貢獻。
      • 根據每個神經元的貢獻,微調連接的權重,以減小誤差。
  • 這三個部分緊密配合,使得神經網路能夠學習複雜的模式,如果用簡單的方法去描述這個三部分的話就是:

    • 結構提供了學習的「硬體」。
    • 激活函式把每個神經元賦予了處理訊息的能力。
    • 學習規則則指導整個網路如何逐步改進自己的性能。

結語

今天介紹了深度學習中的一個重要概念,類神經網路和深度學習代表了人工智能領域的重要突破。通過模仿人腦的工作方式,這些技術能夠處理複雜的模式識別和決策問題。未來幾天我會繼續深入介紹各個深度學習的方法,希望大家可以繼續閱讀我的文章,一起學習。


上一篇
[Day 13] 從機器學習到深度學習:人工智慧的下一步
下一篇
[Day 15] 卷積神經網路:影像識別的核心技術初探
系列文
深度學習的學習之旅:從理論到實作20
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言