深度學習可以看做是機器學習的一部份,透過多個處理層中的線性或非線性轉換,自動抽取出足以代表資料特性的特徵值,經由類神經網路來實踐,模擬人類大腦的神經元,用一堆函數的集合,放入輸入值(變數、權重、誤差),資料經過轉化最後得到預測模型。深度學習有一個最重要的原則就是權值共享(Weight Sharing),主要目的是減少參數的數量,有兩種最常見的方式:
• 遞迴神經網路(Recurrent Neural Network, RNN) - 為時間方面的權值共享,這一個時間點與下一個時間點可能使用相同權值。在時間上神經元連接有方向性,但如果單純只有一個方向就會遇到梯度消失的問題,因為在梯度下降的過程中會停留在local minimum,就無法再繼續共享權值,所以為了解決這個問題,會在隱藏層加上feedback的連接,透過循環反饋增加了記憶功能,就能看到前面的訊息,常用在語音、自然語言處理。
• 卷積神經網路(Convolutional Neural Network, CNN) - 為空間方面的權值共享,在局部空間裡使用同樣的權值,通常用在影像辨識。經過卷積層過濾挑選出特徵,然後在池化層將特徵矩陣變小、相似的特徵合併,來降低計算複雜度,多個串聯再加上全連接層,就能做圖形方面訓練。
未來挑戰
• 技術發展
弱AI轉為強AI
在深度學習架構加上記憶
• 資安及可信度
產生的漏洞或危機影響較大
• 與人溝通
有溝通、合作或互動能力
• 倫理道德
不能把所有事情交由AI來做
資源配置
一般在訓練過程裡,AI複雜的演算法與大量的資料在雲端做,然後推理引擎會放到前端,但如果數據太多或是基於網路的考量,資料來不及送到雲端,必須在邊緣處理,AI也可以放到邊緣。
參考資料
https://makerpro.cc/2019/05/introduction-to-ai/
https://www.youtube.com/watch?v=bY0uG_CiY-E&list=PLdSWxzxDhd3G1ZA1VG3zBUjiSHmjuRFdm&index=4
https://www.youtube.com/watch?v=imt_LovUcDo&list=PLdSWxzxDhd3Hacd6DgLQ2PpH9nvyIXVj5&index=4