iT邦幫忙

第 11 屆 iThome 鐵人賽

DAY 17
0
Google Developers Machine Learning

「Google Machine Learning」學習筆記系列 第 17

Google ML課程筆記 - 損失函數

  • 分享至 

  • xImage
  •  

優化的知識,損失函數。課程的這段還需要消化一下,先把資料列表一下。

  • RMSE
  • Cross Entropy

損失函數,這是我們在每個訓練步驟中量化測量和評估模型性能的方法

RMSE

每個點的"真實值"減去"預測值",用於衡量距回歸線數據點有多遠,平方是為了不要出現負數。把每個點的誤差加總起來算出平均,可測量誤差的平均幅度,就可以衡量這些殘差分佈的程度。

因為將(真實值-預測值)再平方,所以若 (真實值-預測值)>1,則平方後會進一步增大誤差。如果數據中存在異常點,那麼誤差值就會很大。所以再開根號減小異常點誤差。

雖然RMSE適用於線性回歸問題,但它不能作為分類的損失函數

Cross Entropy

分類的最常用的損失函數之一稱為交叉熵或對數丟失
與RMSE不同,交叉熵非常強烈地懲罰不良預測

信息量?

一個事件發生的概率越大,則它所攜帶的信息量就越小,而當p(x0)=1時,熵將等於0,也就是說該事件的發生不會導致任何信息量的增加

所以你可以這樣理解,就是這個消息會不會讓你覺得驚訝,像小明功課很好,常常考100分,那這次也考100。你會感覺很正常,對你來說這個消息沒什麼特別的。

熵(Entropy)?

熵其實是信息量的期望值,它是一個隨機變量的確定性的度量。熵越大,變量的取值越不確定,反之就越確定。

下面這幾張圖,也是用來說明 Cross Entropy 的作用,影片蠻短的,你可以連到 youtube 去了解一下。


(資料來源)


(資料來源)

1.輸入數據通過一個線性模型運算後 將被轉換為對數機率。運算很簡單 即輸入乘上一個矩陣 w 再加上一個偏置項 b。這些對數機率 也就是得分

2.通過 softmax 方法轉化為概率

3.緊接著我們通過交叉熵方法去比較,“輸出的概率向量”與“經過獨熱編碼的標籤向量”的差異

好,第17天,結束。

參考
coursera - Machine Learning with TensorFlow on Google Cloud Platform 專項課程
coursera - Launching into Machine Learning
Understand Cross Entropy Loss in Minutes
CSC 321 Winter 2018 / Lecture 4: Learning a Classifier
交叉熵(Cross-Entropy)
嗡嗡【Day 20】 Google ML - Lesson 6 - 使用損失函數(Loss Functions)來評估ML模型的好壞吧! MSE, RMSE, Cross Entropy的計算方法與特性
MAE and RMSE — Which Metric is Better?
機器學習大神最常用的 5 個回歸損失函數,你知道幾個?


上一篇
Google ML課程筆記 - 機器學習的發展歷程
下一篇
非監督式學習-聚類算法 K-means 筆記
系列文
「Google Machine Learning」學習筆記31
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言