今年可說是AI的元年,在這一年中我們見證了AI繪圖與聊天機器人等重要發展,而這些技術的本質就是數學的應用。因此當我們在撰寫程式碼或學習AI時,除了要閱讀困難的程式碼之外,還要理解這些複雜的數學。
而在這30天內,我會從基礎的AI模型告訴你其背後的數學公式原理,以及一些簡單的模型優化方式,讓你培養出模型的基礎概念與優化方向。我還會通過手刻程式碼的方式,向你展示如何在程式中實現這些數學公式,這樣你可以學習到最精通和完整的AI內容。
前言 在今天的內容中,我們不會像在Seq2Seq模型中那樣,所有元件都需要自己手寫。因為在Pytorch中,其實已經有幫我們定義好Transformer的框架。...
前言 在Seq2Seq與Transformer的章節中,如果你有跟著我們的內容進行訓練,你可能會發現:欸?怎麼訓練一個週期的時間都需要用到1小時呢?而我們花費這...
前言 在今天,我們要介紹一個在預訓練模型中相當經典的模型。基本上,我們可以認為這個模型就是一個Transformer模型,但它的預訓練策略非常強大,使其成為20...
前言 這次我們為了體驗BERT與我們最初學習的LSTM究竟有多少不同,今天依然使用IMDB這個資料集進行處理。而在本章節中,我們主要是讓你熟悉Hugging F...
前言 如果說BERT是Transformer的Encoder代表,那麼今天提到的GPT系列模型可以說是Decoder的代表。這些模型的架構與技術原理奠定了當今許...
前言 在今天的教學中,我會介紹如何訓練一個只有Decoder部分的模型。我們選用GPT系列中的GPT-2進行訓練,並使用squad_v2這個資料集進行語意理解和...
前言 在大型語言模型的領域,除了GPT-3中提到的Prompting與Few-shot等技術之外,還有許多衍生的應用。第一個應用是由於GPT-3生成的文字存在高...
前言 LLaMA(Large Language Model Meta AI)系列大型語言模型是Meta公司在自然語言處理領域的重要進展,每一代的開發都展示了強大...
前言 在最新的自然語言技術進展中,語言模型的規模變得越來越龐大,模型的參數量從數百萬到數十億,甚至上千億。雖然這些大型語言模型在許多任務中表現出卓越的能力,但也...
前言 今天是整個系列的最後一天啦,在系列結尾,我會告訴你如何訓練一個屬於自己的聊天機器人。這在企業的內部培訓或解答系統中非常有用。我們只需要請每位員工列出他們可...