iT邦幫忙

鐵人檔案

第 11 屆 iThome 鐵人賽
回列表
Google Developers Machine Learning

Google'sMachineLearning-挑戰機器智慧極限 系列

利用這次機會配合Google machine learning study jam
來看看Google是如何運用ML技術。

鐵人鍊成 | 共 30 篇文章 | 7 人訂閱 訂閱系列文 RSS系列文
DAY 21

[Day21]Perceptron感知機

Perceptron感知機 在線性回歸後,用來做預測的另外一種數學模型被開發了,感知機, 一個利用"單個"神經元運作的原理,被用來當成感知機...

DAY 22

[Day22]激活函數

終於進到了我們的重頭戲啦,在上一篇我們介紹到了我們的單層感知機!而我們知道單層感知機其實就類似是一個神經元,它能做簡單的判斷!那麼接下來,我們如果把多個感知機串...

DAY 23

[Day23]決策樹(Decision Tree)

在上一篇我們稍為介紹了神經網路之後,我們要來看看另外一個機器學習的分支,Decision Tree。 決策樹 Decision Tree 而要如何運用決策樹呢...

DAY 24

[Day24]Kernel函數

Kernel函數 在我們離開決策樹之後,我們要進到SVM了!SVM的中文全名叫做支援向量機!我們在兩組資料間,可以找到一條分界來對資料進行分界,而SVM利用了K...

DAY 25

[Day25]神經網路

我們終於走到ML歷史的最後一段了!這代表我們要來談談神經網路啦!其實神經網路並不是甚麼興新的技術!它其實在很久了,不過神經網路剛被提出時,那個年代不管是在儲存、...

DAY 26

[Day26]LossFunction

介紹完神經網路,現在我們要來談Loss Function啦!在神經網路裡,我們有輸入,並會得到神經網路的預測,不過我們要如何告訴神經網路,它哪裡做錯了?應該要改...

DAY 27

[Day27]梯度下降法

梯度下降是一種演算法專門讓Model進行學習,也就是更新內部參數的演算法,要調整Model裡的參數,首先我們必須要找到Model應該要往哪個方向調整,再來就是我...

DAY 28

[Day28]TensorFlow Playground視覺化神經網路

我們從Precentron了解了神經元,進而從神經元組成神經網路,介紹了誤差函數(LossFunction),再講解了誤差函數如何透過GradientDecen...

DAY 29

[Day29]Preceptron實作前整理

在前面的文章已經有介紹過Preceptron了,這是最簡單的神經網路,雖然課程裡面沒有要直接把Model實做出來的部分但是為了讓文章結尾精彩一點我們要來實作Pr...

DAY 30

[Day30]Preceptron實作(With Python)

import numpy as np from math import exp,pow 首先Import東西進來! class preceptron():...