今年可說是AI的元年,在這一年中我們見證了AI繪圖與聊天機器人等重要發展,而這些技術的本質就是數學的應用。因此當我們在撰寫程式碼或學習AI時,除了要閱讀困難的程式碼之外,還要理解這些複雜的數學。
而在這30天內,我會從基礎的AI模型告訴你其背後的數學公式原理,以及一些簡單的模型優化方式,讓你培養出模型的基礎概念與優化方向。我還會通過手刻程式碼的方式,向你展示如何在程式中實現這些數學公式,這樣你可以學習到最精通和完整的AI內容。
前言 在今天的內容中,我們主要討論以下兩個重點。第一個重點是如何建立一個通用的神經網路模型。因為在神經網路中,模型可能會因為色彩通道或長寬不相等的情況,需要不斷...
前言 不知道你是否對模型進行了優化?如果效果還不理想,我可以給你個建議:我們應該降低學習率,以便模型能更好地收斂。如果出現過度擬合,可能是模型的複雜度過高。因此...
前言 在昨天的課程中,我們已經介紹完了自然語言處理的基礎名詞,因此今天將開始進入文字辨識的環節。不過在此之前,我們需要先理解為何文字與時間有關,並介紹處理時間序...
前言 IMDB情緒分析資料集是NLP領域中的入門磚,該資料集從IMDB網站抽取的電影評論,並以正面(positive)或負面(negative)方式標註。它包含...
前言 現在我們的學習進度已經達到一半,並且已經完成了圖像與文字的辨識任務。接下來我們將進入一個更加特殊的單元生成式AI(Generative AI)。今天的課程...
前言 在昨天我們介紹了DCGAN的原理,並且分享了一些訓練技巧。不過昨日的內容可能不夠詳盡,例如模型訓練過程中的各個步驟,如何調整鑑別器和生成器,並對其進行優化...
前言 昨天提到生成式 AI 中生成器負責根據隨機噪聲生成逼真的數據或圖片,這種架構在早期的生成任務中有廣泛應用,不過隨著技術進步Encoder-Decoder架...
前言 在學習時間序列模型時,我們了解到無論是長短期記憶還是循環神經網路,在經過多個時序運算後,都有可能出現梯度消失的問題。這意味著當我們的輸入到達最後一個隱藏狀...
前言 在今天的內容中,我們將使用 ManyThings 這個網站中的中英文資料,來進行文字翻譯任務的訓練。在這次內容中,我們會分別使用兩個 Tokenizer...
前言 昨天我們學到的Seq2Seq架構中,其實有一個很嚴重的問題,該架構的核心是使用循環神經網路進行運算,撇開梯度消失的問題之蔡,其最大的缺點是運算速度非常緩慢...