iT邦幫忙

鐵人檔案

2023 iThome 鐵人賽
回列表
AI & Data

AI白話文運動系列之「A!給我那張Image!」 系列

整個系列將從0開始帶領讀者一步步了解AI技術,讓AI更貼近每個人的日常生活。具體內容涵蓋影像與電腦視覺中AI/機器學習/深度學習相關的數學概念介紹、經典論文導讀、pytorch實戰與熱門技術分享。

鐵人鍊成 | 共 30 篇文章 | 1 人訂閱 訂閱系列文 RSS系列文
DAY 11

唧唧復唧唧--AI中的機率統計之生成模型(Generative model)與判別模型(Discriminative model)

前言 在之前的系列中,我們介紹了微積分這個工具在AI模型當中的應用,也介紹了兩種AI模型架構:MLP與CNN。為了之後可以討論更多不同的AI模型,今天我們要來...

DAY 12

番外篇—AI模型怎麼學得好?欠擬合(Underfitting)與過擬合(Overfitting)

前言 昨天的內容我們討論了AI領域中機率與統計可能會應用在哪些方面,今天我們將接著往下討論,藉由訓練資料集所訓練出來的模型,是否能在實際應用中有好的表現?...

DAY 13

CNN經典論文導讀(一)--LeNet與AlexNet

前言 在之前的系列中,我們從最基礎的AI模型架構以及AI怎麼學習,一路討論到在影像任務中佔據霸主地位許多年的CNN架構。接下來的系列我們會著重在經典CNN架構...

DAY 14

CNN經典論文實戰(一)--LeNet與AlexNet

前言 昨天我們講了一些歷史故事,主要是在介紹CNN界的兩位始祖:LeNet與AlexNet,一來是讓大家知道CNN的歷史比我們想像的還要久,二來也是藉由他們說...

DAY 15

番外篇--AI學習的大麻煩--激勵函數(Activation Function)與梯度爆炸/梯度消失

前言 之前(https://ithelp.ithome.com.tw/articles/10330192)我們有稍微提到AlexNet利用了與以往不同的激勵函...

DAY 16

CNN經典論文導讀(二)--VGG

前言 之前我們介紹過CNN中的始祖:LeNet-5與AlexNet(https://ithelp.ithome.com.tw/articles/1033019...

DAY 17

CNN經典論文實戰(二)--VGG

前言 昨天我們介紹了繼LeNet-5與AlexNet之後的經典CNN模型:VGG,透過使用小捲積核取代大捲積核的方式,讓模型可以設計得更深更廣,也減少了一些參...

DAY 18

CNN經典論文導讀(三)--ResNet中的Residual結構

前言 自從1998年LeNet-5的問世,以及2012年異軍突起在ImageNet比賽上展露頭角的AlexNet之後,VGG架構的出現讓CNN的設計進入一個新...

DAY 19

CNN經典論文實戰(三)--ResNet

前言 昨天我們只有大致帶過ResNet的整體架構,內容基本上都是聚焦在殘差(Residual)架構上,今天我們會重新看一次ResNet模型的整體架構,並且利用...

DAY 20

CNN經典論文導讀(四)--自編碼器(Autoencoder)前篇

前言 今天我們要來講一個新的東西:自編碼器,它用到的是「非監督式學習」的概念,這和之前我們討論的內容都不太一樣,所以內容上會分成兩天來介紹,讓大家更好的吸收!...

理工哈士奇嗷嗚嗷嗚的收藏
理工哈士奇嗷嗚嗷嗚的追蹤
理工哈士奇嗷嗚嗷嗚的Like
理工哈士奇嗷嗚嗷嗚的紀錄