把相同結構的單元組合在一起,構成神經網路的層:輸入層,輸入向量中間層(隱含層)輸出層,輸出向量,用於預測,分類以及回歸 每一個隱含層都是向量輸入,向量輸出同層的...
接下來幾天將會介紹TF的語法,並均會使用TF2.0來示範。我們會從基本的data type到變數類型,以及資料的處理。首先先從基本的data type開始說明...
神經網路的結構 神經網路結構大概如下 我個人是把它從樹狀圖去理解以上圖為例傳統的程式執行順序是由上而下找到唯一解(EX:流程圖)神經網路的執行順序則是由下而上找...
大家好,我是Dan,目前就職於電信業並在公司負責資料科學及機器學習相關專案的執行。在因緣際會下接觸了DL以及 TF已經大概有四年多,而這次TF的大升版,萌生了想...
前言:本系列文基於Coursera上Google開設之課程編寫而成,主要針對ML(機器學習)基本概念與Tensorflow做基本介紹。希望能對於初入機器學習的...
那它是怎麼學習的呢?怎麼知道哪些特徵好哪些不好呢?我們說機器學習是一門專門研究計算機怎樣模擬或實現人類的學習行為的學科。那人類的視覺系統是怎麼工作的呢?人腦那麼...
Why DL?為什麼擁有大數據的互聯網公司爭相投入大量資源研發深度學習技術什麼是Deep Learning為什麼有Deep Learning它是怎麼來的?又能幹...
1.機器學習與人工智能 機器學習是人工智能研究發展到一定階段的必然產物 人工智能”推理期”:只要能賦予機器邏輯推理能力,機器就具有智能 人工智能”知識期”:要使...
前言 這次使用了之前介紹的CNN模型下去修改。主要參考[1]李弘毅老師的影片(內容圖文並茂),和[3]是屬於比較少圖片說明,但兩者其實大同小異,如果喜歡看公式可...
前言 網路上有許多介紹VAE的文章與影片,但許多解釋公式都無法得知為什麼,但這也是個人對於看paper的功力太差所以才能努力爬文觀看他人解析,而最後終於找到一個...
前言 在上一章介紹了PCA降維,但PCA是計算整體的特徵,然而主要特徵如果相同,而降為時非常細微的特徵被忽略掉,這時候PCA就無法達到所需的降維要求。而在人工智...
參加鐵人賽完全是一個契機,優秀好同事兼朋友 Rex 在報名最後一天的問我要不要參加,思考了一下,覺得是有東西想說的,大概擬了主題和大綱,就加入這屆 iT 邦幫忙...
鐵人賽第三十篇,想帶大家來探討聊天機器人(Chatbot)這塊的發展。 圖片來源:https://chatbotsmagazine.com/why-the-...
自然語言處理(NLP)的目標是設計演算法來讓電腦「理解」自然語言以執行一些任務,依難易度舉例如下: 簡單 拼寫檢查(Spell Checking) 關鍵字搜...
在理解 DQN 魔法陣的結構後,本篇來帶大家訓練 DQN 模型玩 Flappy Bird,引用參考的程式碼在此:https://github.com/yanpa...
在 魔法陣系列 中,有說明不同魔法陣的應用例子,而這篇想用圖表來帶出整體深度學習的應用幅度,讓各位準魔法使們一覽在深度學習在各行業的魔法效果有多強大。 深度學...
「Deep Learning模型最近若干年的重要进展」一文提到深度學習分四個脈絡: CV/Tensor 生成模型 Sequence Learning Deep...
本篇要來實作一個簡單版的 GAN 模型。如果忘記 GAN 是什麼的同學,傳送門在此: [魔法陣系列] Generative Adversarial Netw...
Yann LeCun (Facebook AI 研究院院長)曾對 GAN 表示讚賞: The most important one, in my opi...
在 [魔法陣系列] AutoEncoder 之術式解析 裡介紹了 AutoEncoder 魔法陣以及其變形夥伴們,對於 AutoEncoder 應用只用寥寥幾句...
不重要之交代:因為這兩天在台南抓寶可夢,所以出刊的比較晚,來抓寶可夢的外國人也好多呀~ 如果你跟我一樣追尋著 Data Scientist 的目標,你大概有...
在上篇介紹 AutoEncoder 的應用時有提到 VAE(Variational Autoencoder) 可以生成圖片,但是它有一些限制。VAE 實際上沒有...
基於教學性,本文選擇實作 Denoising AE,基於 Keras 官方提供的 tutorial 來做演練。 Denoising AE 是一種學習對圖片去噪(...
在上篇 [魔法小報] 深度學習 vs. 傳統機器學習的文末稍微提到可以用 AutoEncoder 做降維(Dimension Reduction),於是乎,本篇...
今天來談談深度學習跟傳統機器學習的比較,主要從 Data、計算資源、特徵萃取 等三個方向進行討論。 深度學習(Deep Learning)的成功主要是基於大量可...
在前面的 Transformer 的文章中有提到了 auto-regressive 的特質。 在 When Recurrent Models Don't Nee...
要介紹 Attention 機制,就不能錯過這篇經典:Google 在 NIPS2017 上發表的論文《Attention Is All You Need》。本...
[魔法陣系列] Recurrent Neural Network(RNN)之術式解析 中介紹了: Simple RNN LSTM GRU 本篇文章要帶各位見...
繼 Attention model 之後,由於 recurrent 架構的特性一直無法善用 GPU 的資源做加速。 這時 Google Brain 團隊就看到別...
接下來要開始探索深度學習(deep learning)究竟AlphaGO是如何辦到的?!再了解電腦如何擁有類似人類的神經網路系統可以去學習與修正前先來了解一下歷...