第十六屆 佳作

ai-ml-data
從零開始學AI:數學基礎與程式碼撰寫全攻略
austin70915

系列文章

DAY 11

【Day 10】用卷積神經網路解CIFAR10影像辨識 - 如何建立一個通識化神經網路

前言 在今天的內容中,我們主要討論以下兩個重點。第一個重點是如何建立一個通用的神經網路模型。因為在神經網路中,模型可能會因為色彩通道或長寬不相等的情況,需要不斷...

DAY 12

【Day 12】在深度學習中電腦是如何辨識文字資料的

前言 不知道你是否對模型進行了優化?如果效果還不理想,我可以給你個建議:我們應該降低學習率,以便模型能更好地收斂。如果出現過度擬合,可能是模型的複雜度過高。因此...

DAY 13

【Day 13】探索文字與時間依賴關係-時間序列模型介紹與數學推導

前言 在昨天的課程中,我們已經介紹完了自然語言處理的基礎名詞,因此今天將開始進入文字辨識的環節。不過在此之前,我們需要先理解為何文字與時間有關,並介紹處理時間序...

DAY 14

【Day 14】用LSTM解IMDB情緒分析- 排成器的使用與空白分詞

前言 IMDB情緒分析資料集是NLP領域中的入門磚,該資料集從IMDB網站抽取的電影評論,並以正面(positive)或負面(negative)方式標註。它包含...

DAY 15

【Day 15】圖片生成的老前輩-DCGAN介紹與數學推導

前言 現在我們的學習進度已經達到一半,並且已經完成了圖像與文字的辨識任務。接下來我們將進入一個更加特殊的單元生成式AI(Generative AI)。今天的課程...

DAY 16

【Day 17】文字生成的老前輩-Seq2Seq介紹與數學推導

前言 昨天提到生成式 AI 中生成器負責根據隨機噪聲生成逼真的數據或圖片,這種架構在早期的生成任務中有廣泛應用,不過隨著技術進步Encoder-Decoder架...

DAY 17

【Day 16】用DCGAN生成假的MNIST手寫辨識集

前言 在昨天我們介紹了DCGAN的原理,並且分享了一些訓練技巧。不過昨日的內容可能不夠詳盡,例如模型訓練過程中的各個步驟,如何調整鑑別器和生成器,並對其進行優化...

DAY 18

【Day 18】Seq2Seq中的上下文向量為何無法很好的傳遞訊息-Attention介紹與數學推導

前言 在學習時間序列模型時,我們了解到無論是長短期記憶還是循環神經網路,在經過多個時序運算後,都有可能出現梯度消失的問題。這意味著當我們的輸入到達最後一個隱藏狀...

DAY 19

【Day 19】用Seq2Seq+Attention進行文字翻譯

前言 在今天的內容中,我們將使用 ManyThings 這個網站中的中英文資料,來進行文字翻譯任務的訓練。在這次內容中,我們會分別使用兩個 Tokenizer...

DAY 20

【Day 20】主宰的AI世界強大模型架構-Transformer數學證明

前言 昨天我們學到的Seq2Seq架構中,其實有一個很嚴重的問題,該架構的核心是使用循環神經網路進行運算,撇開梯度消失的問題之蔡,其最大的缺點是運算速度非常緩慢...