iT邦幫忙

鐵人檔案

第 11 屆 iThome 鐵人賽
回列表
AI & Data

人工智慧(RL系列) 完爆遊戲30天 系列

人工智慧遊戲起手式,30天用算法輕鬆play game!

鐵人鍊成 | 共 30 篇文章 | 14 人訂閱 訂閱系列文 RSS系列文
DAY 11

Day11 selenium

最近忙得有點沒法好好思考內容,不過對於內容品質還是會堅持的>< 可能讀者會發現變有點短哈哈哈哈XD今天介紹模擬環境的工具selenium~是當今很流...

2019-09-26 ‧ 由 皮卡喵 分享
DAY 12

Day12 Agent類別實作

好哩前面介紹完selenium功能,這裡就要介紹用python實作環境的類別囉! 架構 我們這會實作三個類別:Game、DinoAgent、Game_state...

2019-09-27 ‧ 由 皮卡喵 分享
DAY 13

Day13 視覺化&前處理

今天介紹對整個強化學習很重要的兩塊,視覺化方法跟資料前處理~前面如果有跑過unit3的朋友其實就有發現視覺化跟前處理的程式碼吧!他們的功能一個是讓訓練可視化與,...

2019-09-28 ‧ 由 皮卡喵 分享
DAY 14

Day14 keras layers(上)

這幾天我們要講如何搭DQN的model,如果有玩過CNN的同學可直接跳過這章節,這篇會盡可能用好理解方式,讓沒接觸過CNN的讀者能有些概念。 計算框架 稍微了解...

2019-09-29 ‧ 由 皮卡喵 分享
DAY 15

Day15 keras layers(下)

今天再把激活層、平展層跟隱藏層講完,要使用的layer就講差不多囉! 激活層 激活層(activate layer)的原理在於,讓網路中傳遞的值,不再僅是線性輸...

2019-09-30 ‧ 由 皮卡喵 分享
DAY 16

Day16 損失&優化函數

哈囉大家~我們今天把最後的損失跟優化函數講完。這章節聽完的讀者,不一定要侷限RL,學到的知識也可以放在其他影像辨識專案上,官網提供了些範例程式碼,有空就去晃晃吧...

2019-10-01 ‧ 由 皮卡喵 分享
DAY 17

Day17 DQN model

之前介紹過Q-table,今天我們講的DQN就是AI跟Q-learning的結合。Q-table比DQN好收斂很多,畢竟state是已定義好的,不過就是因為DQ...

2019-10-02 ‧ 由 皮卡喵 分享
DAY 18

Day18 Dion train(上)

之前的準備都是為了今天~或許接下來整個有點漫長,但最終一切辛苦皆是值得的~因為學會了整個訓練過程就可以算是掌握最基本RL囉!讓我們開始吧! 訓練參數 ACTIO...

2019-10-03 ‧ 由 皮卡喵 分享
DAY 19

Day19 Dion train(中)

上個章節介紹完前置設定跟資料備份,這張我們來講replay memory跟探索值epsilon! 觀察與訓練模式 if observe : # 是否進入觀察狀態...

2019-10-04 ‧ 由 皮卡喵 分享
DAY 20

Day20 Dino train(下)

大部分內容都講完哩,今天來講Q訓練部分來做收尾~ 訓練參數宣告 超過observe,就會開始訓練模型。 if t > OBSERVE: minib...

2019-10-05 ‧ 由 皮卡喵 分享