挑戰第二天~今天學校事情比較多,但是還是不能停止學習.
首先這部分的introduction把接下來貫穿整個課程的主題都點到了,在此我做個紀錄,幫助自己學習與回首整體架構.
首先會先介紹deep learning為甚麼這麼火熱與各種ML的model演變,如何開始調整ML model的weights? 如何最佳化loss function?(gradient descent ) 如何使用performance metrics評估model?
如何挑選ML model?
ML可能碰上之問題:Generalization problems
(work in train, but fail in production.)
-> create three identical datasets (解決方法之一?)
一個好的ML product: 可以generalize 各種情況.
EX: 在影像辨識中不會因為盤子不同而辦認錯誤食物.
supervised learning:
Give the model labeled examples what it should learn
unsupervised learning:
data does not be labeled
Regression: predict a continuous label
通常使用mean square error來衡量predict和label的誤差
classification: predict discrete numbers of values,set a boundry to seperate two different classes.
通常使用cross entropy衡量predict和label的誤差
Summary: 根據你的data來決定ML方向,根據你想預測的結果來定義你的問題
logistic regression: one dimensional linear regression, but do classification(0,1)
mean square error v.s cross entropy:
MSE:Euclidean distance
Cross entropy: 接近label-> linear, far form label -> expotential
在以前電腦算力不足時,linear regression 就出現了,當時可以各種公式解,線性代數去解,但放在現實中士仍然不足的,在現實中你可能碰上的問題能更加複雜,幸好現在有低度下降法.
在梯度下降法中:適當調控'Learning rate'能夠幫助你更快找到min.
未完待續...
Tomorror is short history of Perceptron.