iT邦幫忙

鐵人檔案

2021 iThome 鐵人賽
回列表
自我挑戰組

Machine Learning With Me ,從零開始機器學習! 系列

Machine Learning 機器學習可說是目前資訊科技領域的主要技術,透過演算法對現有的資料進行分類與預測模型訓練。本系列文章主要介紹關於機器學習的各種基礎,包括優化器、超參數、以及基礎模型的架構等等,與筆者一起從零基礎慢慢開始成長吧!

鐵人鍊成 | 共 30 篇文章 | 14 人訂閱 訂閱系列文 RSS系列文
DAY 11

Day 11: 人工神經網路初探 基礎知識建立

前篇我們介紹了關於機器學習的基礎名詞以及分類總集,接下來就讓我們細講人工神經網路的運作原理及基礎結構吧! ※注意※ 英文專有名詞翻譯過來可能有許多種版本,筆者這...

2021-09-17 ‧ 由 shibainu274 分享
DAY 12

Day 12: 人工神經網路初探 深度學習

深度學習 深度學習是多層人工精神網路或多層感知器的另一種稱呼,還有多種不同型態的深度學習系統,根據神經網路的根基以及運作準則。如: 前饋神經網路(feed-f...

2021-09-18 ‧ 由 shibainu274 分享
DAY 13

Day 13: 人工神經網路初探 激活函數(上)

激活函數 Activation Function 數學方法去決定neuron輸出叫做激活函數(activation function)但neuron的輸出並不是...

2021-09-19 ‧ 由 shibainu274 分享
DAY 14

Day 14: 人工神經網路初探 激活函數(中)

激活函數 Activation Function 接下上篇,我們繼續介紹較為常見的激活函數。 TanH/Hyperbolic Tangent 雙曲正切 TanH...

2021-09-20 ‧ 由 shibainu274 分享
DAY 15

Day 15: 人工神經網路初探 激活函數(下)

激活函數 Activation Function Scaled Exponential Linear Unit 比例指數線性單元 Scaled exponent...

2021-09-21 ‧ 由 shibainu274 分享
DAY 16

Day 16: 人工神經網路初探 損失函數(上)

損失函數 Loss function 損失/誤差函數(loss function)又叫做代價函數(cost function),是用來評估模型的預測值與真實值不...

2021-09-22 ‧ 由 shibainu274 分享
DAY 17

Day 17: 人工神經網路初探 損失函數(下)

損失函數 Loss function Multiclass Classification Loss Function Multiclass cross-en...

2021-09-23 ‧ 由 shibainu274 分享
DAY 18

Day 18: 人工神經網路初探 前饋神經網路

Feedforward 前饋神經網路 前饋神經網路是一種neuron之間的連接並不形成循環的人工智慧網路。前饋神經網路是最簡單的神經網路,在這個網路中,資料流...

2021-09-24 ‧ 由 shibainu274 分享
DAY 19

Day 19: 人工智慧初探 優化器的作用

Optimizer 優化器 神經網路是由多個神經元節點組成,每個神經元(Neuron)都擁有自己的權重w,表示在某項任務中該神經元的重要程度。假設輸入數據為x,...

2021-09-25 ‧ 由 shibainu274 分享
DAY 20

Day 20: Convolutional Neural Networks — 卷積神經網路初探(上)

卷積神經網路 Convolutional Neural Networks 卷積神經網路(CNN)又被稱為 CNNs 或 ConvNets,它是目前深度神經網路(...

2021-09-26 ‧ 由 shibainu274 分享