iT邦幫忙

2019 iT 邦幫忙鐵人賽

DAY 24
0
AI & Data

大數據的世代需學會的幾件事系列 第 24

Day24-深度學習介紹(2)

今天要接續昨天講解的深度學習,在昨天講解都是以單一接收神經元的資料,今天要來講解如何以矩陣運算模擬多個神經元傳輸,如下圖:

https://ithelp.ithome.com.tw/upload/images/20181108/20107244qwzQgmv1GY.png

公式:
https://chart.googleapis.com/chart?cht=tx&chl=y1%3Dactivation%20function(x1w11%2Bx2w21%2Bx3*w31%2Bb1)
https://chart.googleapis.com/chart?cht=tx&chl=y21%3Dactivation%20function(x1w12%2Bx2w22%2Bx3*w32%2Bb1)

  • https://chart.googleapis.com/chart?cht=tx&chl=%5By1%20y2%5D%3Dactivation%7B%5Bx1%20x2%20x3%5D(w11%2F2%2Bw21%2F2%2Bw31%2F2)%7D%2B%5Bb1%20b2%5D

深度學習有相當多學習方式,像是Multilayer perceptron(MLP)、Backpropagation...之後會繼續詳細介紹,並結合今年相當常聽到又好用的Tensorflow、Keras模組範例。

  • Multilayer perceptron(MLP)
    多層感知器在語音辨識、圖像辨識...等多個領域應用,相當普遍,其流程如下:

https://ithelp.ithome.com.tw/upload/images/20181108/20107244O3TlXGkbhZ.png

圖片引用SKlearn:https://scikit-learn.org/stable/modules/neural_networks_supervised.html

根據上圖,可以很清楚明白,MLP就是以模擬神經網路來實作的

  1. 將特徵點(X)輸入
  2. 建立輸入層與隱藏層:https://chart.googleapis.com/chart?cht=tx&chl=a1%20%3D%20relu(X*W1%2Bb1)
  3. 中間經過1層或多層隱藏層,將特徵值從新運算
  4. 建立輸出層與隱藏層:https://chart.googleapis.com/chart?cht=tx&chl=function(x)%20%3D%20softmax(a1*W2%2Bb2)
  • Backpropagation
    反向傳播演算法,是一種監督式學習,必須輸入特徵值與真實的值來做訓練。簡單來說就是"從錯誤中去學習",以上圖來講解,就是透過function(x)回傳的確認值,將資料回傳至隱藏層從新運算,修正至最正確的解答。

上一篇
Day23-深度學習介紹(1)
下一篇
Day25-Tensorflow與Keras基本介紹
系列文
大數據的世代需學會的幾件事30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言