根據前一篇的Learning Rate設定後,實際進行了訓練。獲得了結果後,今天的文章將實際解釋實驗產出。
除了上一篇最後提及的CosineAnnealingLR以外,這裡也額外進行了兩個實驗進行對比,具體Learning Rate,隨著訓練過程的變化可以參考下圖:
optimizer一樣都使用Adam,依序分別是
Machine Learning大多的方法都是圍繞在Loss的優化上,因此廢話不多說,先上loss圖:
看圖時大概可以搭配下列幾點服用:
其實上述的這些實驗結果,類似的情況反覆被我遇見,所以也是我個人近年來偏好使用CosineAnnealingLR的原因。
最後讓我們看一下,最主要的Metrics -- AUROC :
最好的那一個結果是在CosineAnnealingLR找到的AUROC = 0.7333。目前結果看起來還不錯了,雖然只是Validation set,但也十分接近MedMNIST裡頭最好的一樣也是使用28x28的0.769!
那到底Test的結果會如何?欲知後事如何,且待下回分解!