iT邦幫忙

鐵人檔案

2024 iThome 鐵人賽
回列表
AI/ ML & Data

Web仔也來學ML 系列

人類無法解決的問題,就丟給機器解決吧! ML是一個尋找函數的過程,通過訓練出來的模型,可以讓電腦執行極為複雜的任務,並且不需要人類輸入精確的指令。
本篇會從一個即將進入研究所的Web仔視角,帶領讀者一起入門,從ML的基礎觀念開始,深入淺出介紹原理與實作。

參賽天數 23 天 | 共 23 篇文章 | 0 人訂閱 訂閱系列文 RSS系列文 團隊真素有料
DAY 11

Web仔也來學ML [Day 11] - More About Cross-Entropy

在上一篇中,我們從一個Bernoulli distribution 的 Maximum Likelihood Estimation 的公式推導出了Cross-e...

2024-09-23 ‧ 由 dogcom0228 分享
DAY 12

Web仔也來學ML [Day 12] - How Cross-Entropy Do

昨天我們學習了關於熵的知識,知道了熵是一個用來衡量系統的混亂程度(即對信息量的不確定程度),這個熵就像是一個統一的貨幣,可以用來幫助我們衡量不同的模型,但我們還...

2024-09-24 ‧ 由 dogcom0228 分享
DAY 13

Web仔也來學ML [Day 13] - 梯度下降法(Gradient descent)(上)

今天我們終於要介紹梯度下降法了,可能會有的讀者有疑惑,爲什麽這麽晚才介紹梯度下降法?而且梯度下降法還有什麽好介紹的,不就是微積分求梯度嘛。不不不,這個梯度下降法...

2024-09-25 ‧ 由 dogcom0228 分享
DAY 14

Web仔也來學ML [Day 14] - 梯度下降法(Gradient descent)(下)

梯度到底是什麽 函數在某一點沿著不同的反向移動,函數值的變化率是不同的。梯度就是一個函數的全部偏導數構成的向量,梯度向量的方向是函數值變化率最大的方向,簡單來説...

2024-09-26 ‧ 由 dogcom0228 分享
DAY 15

Web仔也來學ML [Day 15] - 局部最小值 (local minima) 與鞍點 (saddle point)

在上一篇文章中,我們介紹了什麼是梯度 (Gradient) 和梯度下降 (Gradient Descent),並舉例說明了學習率 (learning rate)...

2024-09-27 ‧ 由 dogcom0228 分享
DAY 16

Web仔也來學ML [Day 16] - 批次 (batch) 與動量 (momentum)

在上一篇文章中,我們討論了局部最小值 (local minima) 和鞍點 (saddle point),解釋了為什麼在訓練模型時會卡住,以及如何判斷當前位置是...

2024-09-28 ‧ 由 dogcom0228 分享
DAY 17

Web仔也來學ML [Day 17] - Learning Rate的調整方法/策略

我們昨天討論了批次處理和Momentum,並解釋了如何藉由考慮過去的梯度下降來決定模型訓練的前進方向,這種方式能幫助我們在模型訓練時跨越一些Critical P...

2024-09-29 ‧ 由 dogcom0228 分享
DAY 18

Web仔也來學ML [Day 18] - Perceptron

在上一篇中,我們介紹了好幾種Learning Rate的調整方法和策略,我打算今天和明天再講解一些ML的基礎和做個小結,在第20天的時候,我們會進入Deep L...

2024-09-30 ‧ 由 dogcom0228 分享
DAY 19

Web仔也來學ML [Day 19] - 深度學習前的機器學習總復習:回歸/分類、激活函數、損失函數

明天放颱風假了!提醒中南部的各位明天沒事別出門,這次颱風感覺有點厲害……今天終於來到第19天,明天開始爲期10天我們將進入深度學習的部分,在今天這一章,我想我們...

2024-10-01 ‧ 由 dogcom0228 分享
DAY 20

Web仔也來學ML [Day 20] - 深度學習概論

什麼是深度學習? 深度學習是一種機器學習 (ML) 的技術,靈感來自於人腦處理資訊的方式。透過深度學習,我們可以自動化一些需要人類智慧的任務,例如圖像識別或語音...

2024-10-02 ‧ 由 dogcom0228 分享