iT邦幫忙

鐵人檔案

2018 iT 邦幫忙鐵人賽
回列表
AI & Machine Learning

Machine Learning 與 Deep Learning 筆記 系列

機器學習毫無疑問地已經成為 buzzword 了,在網路上也有多到數不清的教學文章,只要會一點程式就能夠透過函式庫兜出一個 model 來,甚至說點 AI、Deep learning 就可以把別人唬得不要不要的。

但問題是,許多文章及教學當中,都是直接跳過理論部分,直接把文件上的程式碼複製貼上,對於一位工程師來說,我們的確只要確定結果正確就好,不需要關心如何實作。

了解背後的理論對提升自己仍然有許多幫助,像是「是資料太少還是 overfitting?」這類的問題,如果不知道背後的 model 如何運作,那麼一般的工程師就是無腦地繼續塞更多資料或是胡亂修改參數而已。

參賽天數 10 天 | 共 10 篇文章 | 19 人訂閱 訂閱系列文 RSS系列文
DAY 1

[DAY1] Machine Learning 介紹與預計撰寫內容

Introduction 機器學習毫無疑問地已經成為 buzzword 了,在網路上也有多到數不清的教學文章,只要會一點程式就能夠透過函式庫兜出一個 model...

2017-12-20 ‧ 由 愷開 分享
DAY 2

[Day2] 什麼是機器學習?

前言 為了透過電腦強大的運算力幫助人們解決問題,首先我們的問題是需要能夠被量化與分析的。例如:給定歷年的房屋資料,預測之後的房價變化;由使用者過去的瀏覽紀錄,猜...

2017-12-21 ‧ 由 愷開 分享
DAY 3

[Day3] 線性迴歸(Linear Regression)

線性迴歸(Linear Regression) 線性迴歸,是個在機器學習常常聽到的一個專有名詞,如果有修過統計學相關的課程,對這個名詞也一定不陌生。 線性相信大...

2017-12-22 ‧ 由 愷開 分享
DAY 4

[Day4] 梯度下降法(Gradient Descent)

梯度下降 昨天我們提到,令我們的函數為: 則誤差為: 其中 x 為輸入,y 為輸出。我們想要將誤差最小化,因此可以透過微分來求算。 首先,我們先來回想一下微分的...

2017-12-23 ‧ 由 愷開 分享
DAY 5

[Day5] 用線性回歸模型預測明年的平均薪資

雖然昨天介紹了許多公式,看起來還挺嚇人的,不過實際寫 code 其實並不難實現。加上 python 有好用的 numpy 來簡化向量與矩陣的操作。詳細的實作可以...

2017-12-24 ‧ 由 愷開 分享
DAY 6

[Day6] Logistic Regression — 邏輯迴歸

Logistic Regression — 邏輯迴歸 前幾天我們介紹了第一個機器學習模型—線性迴歸,線性回歸的目的在於透過歷史資料來預測未來的資料。 而 log...

2017-12-25 ‧ 由 愷開 分享
DAY 7

[Day7] 邏輯回歸 - 2

(部分還未完成) 昨天我們已經介紹過 Logistic Regression 的模型已經成本函數,接下來就用 python 來實現一下吧! 詳細的過程可以到 n...

2017-12-26 ‧ 由 愷開 分享
DAY 8

[Day8] 如何正確訓練 Model

因為我們試圖最小化成本函數,所以電腦會盡量在資料當中找到最好的權重。不過這對真實狀況來說其實不合理,為什麼呢? 舉例來說,當新的資料進來,我們很容易因為原本的模...

2017-12-27 ‧ 由 愷開 分享
DAY 9

[Day9] SVM 支援向量機(Support Vector Machine)(尚未完成)

SVM 支援向量機(Support Vector Machine) 除了前幾天介紹的邏輯回歸可以幫助我們分類之外,在機器學習上還有一個相當流行且有用的方法叫做...

2017-12-28 ‧ 由 愷開 分享
DAY 10

[Day10] Nerual Network (尚未完成)

在進入神經網路之前,請先確定大家已經對 Logistic Regression 有一定的瞭解。 首先,我們先來介紹一下感知器。 感知器並沒有什麼特別的,只是一個...

2017-12-29 ‧ 由 愷開 分享