深度學習並不是一項新技術,其概念起源於 1940 年代,最初旨在模仿人腦神經元的運作。然而,早期的淺層神經網路難以處理複雜資料,而 1980 年代出現的深度神經網路也因缺乏有效的訓練方法而未能普及。
直到 2006 年,Geoffrey Hinton 提出了訓練深度神經網路的新方法,才為這項技術帶來了突破。隨後幾年間,由於運算晶片性能的大幅提升以及網路時代資料量的爆炸性增長,深度學習的訓練效率得到了極大的提升,使其在語音辨識、圖像辨識和文本理解等領域取得了顛覆性的進展。
這股熱潮在 2017 年 Google 的圍棋程式擊敗人類棋手柯潔後,再次受到全球矚目。這次勝利凸顯了科技巨頭在深度學習領域的大力投入,並宣告了人工智慧新一輪的發展浪潮。
深度學習的本質是利用深度神經網路來處理海量資料,其中最典型的兩種結構是卷積神經網路 (CNN) 和循環神經網路 (RNN)。
深度學習的核心在於使用深度神經網路來處理大量資料。它與傳統的機器學習不同,傳統方法需要手動提取特徵,而深度學習模型能自己學習並提取有意義的特徵。這項技術的興起主要得益於三個要素:資料量的爆炸性增長、運算能力的顯著提升,以及演算法的進步。當資料量充足時,深度學習模型的表現通常優於傳統演算法。
神經網路是一種模仿人腦神經元結構的模型,其運算過程主要包含兩個關鍵步驟:
這兩個步驟會不斷重複,從輸入層到輸出層的運算過程稱為正向傳播 (forward propagation)。神經網路的所有參數都集中在線性組合的權重係數上。
訓練神經網路的目標是找到一組最佳的權重參數,使模型的預測值與真實值之間的偏離程度最小。這個偏離程度由價值函數 (Cost Function) 來衡量。訓練過程主要透過以下步驟來進行:
為了讓模型訓練得更快、效果更好,可以採用幾種最佳化策略: