iT邦幫忙

人工智慧相關文章
共有 191 則文章
鐵人賽 AI & Data DAY 28
人機結合 數據與學習 系列 第 28

技術 淺談機器數位

人的科技文明發展始終來自於人性 現今的科技水平已經和以往不同了,以目前的科技水準來說大家都可以有好的網路與資訊接收,目前也有許許多多的應用與軟硬體設備可以使用,...

鐵人賽 影片教學 DAY 28
全民瘋AI系列 系列 第 28

技術 [Day 28] API前後端串接

API前後端串接 今日學習目標 API 前後端串接 建立一個鳶尾花朵分類器的網頁 API URL 採用 Day 26 部署在 Heroku 的 AP...

鐵人賽 影片教學 DAY 27
全民瘋AI系列 系列 第 27

技術 [Day 27] 使用GCP部署機器學習API

使用GCP部署機器學習API 此範例使用鳶尾花朵資料集進行 XGBoost 分類器模型訓練。將模型儲存起來,並使用 Flask 建置 API 介面提供輸入值預...

鐵人賽 AI & Data DAY 26
人機結合 數據與學習 系列 第 26

技術 淺談人機結合

人的科技文明發展始終來自於人性 在現今的科技與資訊發達的社會,人手一機已不再是奢望,連小小年紀的小朋友可能或多或少都接觸過智慧型手機,不論是直接亦或是間接,這也...

鐵人賽 影片教學 DAY 26
全民瘋AI系列 系列 第 26

技術 [Day 26] 使用Heroku部署機器學習API

使用 Heroku 部署機器學習 API 今日學習目標 動手部署自己的機器學習 API 使用 Heroku 免費雲端平台部署應用程式 Fork 專案...

鐵人賽 AI & Data DAY 25
人機結合 數據與學習 系列 第 25

技術 統計對大數據的影響

人的科技文明發展始終來自於人性 在人工智慧與大數據分析的領域之中,"統計"是很重要的,為甚麼呢?因為在大數據資料之中,所有的數據或是資料都有一定的效度,不可能完...

鐵人賽 影片教學 DAY 25
全民瘋AI系列 系列 第 25

技術 [Day 25] 使用Python Flask架設API吧!

使用Python Flask架設API吧! 這系列的 AI 文章快進入尾聲了,因此打算利用剩下來時間講解應用端的部分。同時也趁這幾次連假規劃了一些教學,希望接...

鐵人賽 影片教學 DAY 24
全民瘋AI系列 系列 第 24

技術 [Day 24] 儲存訓練好的模型

儲存訓練好的模型 今日學習目標 使用 pickle + gzip 儲存模型 將訓練好的模型打包並儲存 載入儲存的模型 讀取打包好的模型,並預測...

鐵人賽 影片教學 DAY 23
全民瘋AI系列 系列 第 23

技術 [Day 23] 免費雲端 Jupyter Notebook 資源

免費雲端 Jupyter Notebook 資源 今日學習目標 挖掘免費雲端 Jupyter Notebook 資源 Kaggle & Googl...

鐵人賽 影片教學 DAY 22
全民瘋AI系列 系列 第 22

技術 [Day 22] 機器學習模型技巧 Stacking

Stacking 今日學習目標 了解 Stacking 方法 堆疊法的學習機制為何 ? 利用 Stacking 實作分類器 透過 Stacking...

鐵人賽 影片教學 DAY 21
全民瘋AI系列 系列 第 21

技術 [Day 21] XGBoost (迴歸器)

XGBoost (迴歸器) 今日學習目標 了解 XGBoost Regression Boosting vs Decision tree & Ba...

鐵人賽 影片教學 DAY 20
全民瘋AI系列 系列 第 20

技術 [Day 20] XGBoost (分類器)

XGBoost (分類器) 今日學習目標 XGBoost 介紹 XGBoost 是什麼?為什麼它那麼強大? Bagging vs. Boosting...

鐵人賽 AI & Data DAY 19
人機結合 數據與學習 系列 第 19

技術 中秋小記

人的科技文明發展始終來自於人性 在這短短的連假之中,大家有沒有好好的充實自己啊,不論是工程師也好、學生也好、或是各個領域的人也好,好好充實自我充電自己的身心靈,...

鐵人賽 影片教學 DAY 19
全民瘋AI系列 系列 第 19

技術 [Day 19] 隨機森林 (迴歸器)

隨機森林 (迴歸器) 今日學習目標 迴歸隨機森林 了解隨機森林是如何處理連續性數值輸出 實作隨機森林迴歸器 觀察隨機森林中的樹的數量是否影響預測...

鐵人賽 影片教學 DAY 18
全民瘋AI系列 系列 第 18

技術 [Day 18] 隨機森林 (分類器)

隨機森林 (分類器) 今日學習目標 隨機森林介紹 隨機森林的樹是如何生成?隨機森林的優點? 實作隨機森林分類器 比較隨機森林與決策樹兩者差別...

鐵人賽 AI & Data DAY 17
人機結合 數據與學習 系列 第 17

技術 中秋隨筆

人的科技文明發展始終來自於人性 在這幾天的連假之中,雖然看似輕鬆卻也不輕鬆阿,有許許多多要面對的問題與課題,世界一樣的變化著,大家一樣的生活著,然而川普卻得到武...

鐵人賽 影片教學 DAY 17
全民瘋AI系列 系列 第 17

技術 [Day 17] 集成式學習

集成式學習 今日學習目標 了解集成式學習 何謂集成式學習? 三種不同的集成式學習 Bagging、Boosting、Stacking 集成學習...

鐵人賽 AI & Data DAY 16
人機結合 數據與學習 系列 第 16

技術 人工智慧之未來

人的科技文明發展始終來自於人性 在科技發達的現在社會,科技越來越發達,網路也越來越快速,網路的發展也越來越方便,各種的軟硬體持續不斷的進步與推出,持續不斷的推動...

鐵人賽 影片教學 DAY 16
全民瘋AI系列 系列 第 16

技術 [Day 16] 決策樹 (迴歸器)

決策樹 (迴歸器) 今日學習目標 迴歸決策樹 學習決策樹是如何處理連續性數值輸出 實作決策樹迴歸器 查看決策樹方法在簡單線性迴歸和非線性迴歸表現...

鐵人賽 AI & Data DAY 15
人機結合 數據與學習 系列 第 15

技術 演算法之淺談

人的科技文明發展始終來自於人性 在經過了大數據的分析與機器學習還有深度學習之後,所有人工智慧或是其它的載具就會開始發展出自己的一套演算法,有了一套演算法後就等於...

鐵人賽 影片教學 DAY 15
全民瘋AI系列 系列 第 15

技術 [Day 15] 決策樹 (分類器)

決策樹 (分類器) 今日學習目標 決策樹演算法介紹 決策樹如何生成?如何處理分類問題? 實作決策樹分類器 觀察決策樹是如何生成的 決策樹會根據...

鐵人賽 影片教學 DAY 14
全民瘋AI系列 系列 第 14

技術 [Day 14] SVR (迴歸器)

SVR (迴歸器) 今日學習目標 SVR 迴歸 學習 SVR 方法如何處理連續性輸出 實作 SVR 迴歸器 查看 SVR 方法在簡單線性迴歸和非線性...

鐵人賽 影片教學 DAY 13
全民瘋AI系列 系列 第 13

技術 [Day 13] SVM (分類器)

SVM (分類器) 今日學習目標 了解 SVM 分類器 何謂支持向量機 ? 非線性與線性? SVM 分類器手把手實作 藉由圖形化的邊界,來了解使用不...

鐵人賽 AI & Data DAY 12
人機結合 數據與學習 系列 第 12

技術 人工智慧之智慧

人的科技文明發展始終來自於人性 "人工智慧"之所以叫做人工智慧,顧名思義意思就是透過人為的發展與研究,研發出具有類人類智慧的平台或是工具,而...

鐵人賽 影片教學 DAY 12
全民瘋AI系列 系列 第 12

技術 [Day 12] KNN (迴歸器)

KNN (迴歸器) 今日學習目標 KNN 迴歸 學習 KNN 方法如何處理連續性輸出 實作 KNN 迴歸器 查看KNN方法在簡單線性迴歸和非線性迴歸...

鐵人賽 影片教學 DAY 11
全民瘋AI系列 系列 第 11

技術 [day 11] KNN (分類器)

KNN (分類器) 今日學習目標 K-近鄰演算法介紹 KNN 計算步驟解析 實作 KNN 分類器 觀察不同 K 值會對分類結果造成什麼影響...

鐵人賽 AI & Data DAY 11
人機結合 數據與學習 系列 第 11

技術 人工智慧之淺談

人的科技文明發展始終來自於人性 "人工智慧"之所以叫做人工智慧,顧名思義意思就是透過人為的發展與研究,研發出具有類人類智慧的平台或是工具,而...

鐵人賽 AI & Data DAY 10
人機結合 數據與學習 系列 第 10

技術 大數據之數據

人的科技文明發展始終來自於人性 現在的科技,人人都是隨手一台行動的網路手機,每個人每天一睜開眼睛,幾乎都在產生大量的數據及產生大量的網路行為,在這一些行為的背後...

鐵人賽 影片教學 DAY 10
全民瘋AI系列 系列 第 10

技術 [Day 10] Logistic regression

Logistic regression 今日學習目標 認識邏輯迴歸 線性分類器 邏輯迴歸程式手把手 使用邏輯迴歸建立鳶尾花朵分類器 羅輯迴歸(...

鐵人賽 AI & Data DAY 9
人機結合 數據與學習 系列 第 9

技術 大數據之大

人的科技文明發展始終來自於人性 近期讓我們來談談大數據 首先我們先來認識大 何謂大數據之大 大數據之所以被稱之為大,是因為其大量的數據但是"大&quo...