iT邦幫忙

第 12 屆 iThome 鐵人賽

DAY 9
2

隨機程序
我最後修的一堂課
還是回歸到基本的數學
Henry Stark and John W. Woods, Probability and Random Processes with Applications to Signal Processing (3rd Edition),
image
random process 就是從一個random variable演算到一推 random variable(a family of random variables by wiki)
不過一開始還是又再從基本的機率與統計開始複習就是了
當然 現實中的問題絕對都不可能只有一個變數
所以這們數學的應用當然很廣

但細節還是忘了
只能說趁畢業前培養點基本的數學能力吧

機器學習
碩二下要專心在論文上
所以只有去旁聽這門感覺未來會很紅的課(事實證明也是)
課本是這本聖經本
Pattern Recognition and Machine Learning
by Christopher M. Bishop, Springer, 2007.

老師講得很仔細
包含一些數學基礎
然後會去推導各個演算法的原理
包含了線性回歸
Kernel method
SVM(Support vector machine)
Neural network等
雖然我現在只記得SVM而已
不過當時的確收穫挺多的


做論文心得
前陣子論文的主題超夯
論文真的很難生耶
你要先從你做的專案或是有興趣的東西開始先找出問題來
然後再去蒐集大量資料論文看有沒有相關的研究
從前人的研究慢慢去調整問題
最後才能變到正確的問題(或者是說教授認可的問題XD)
問到問題之後
怎麼去model這問題(畢竟還是學術論文)
又是一大堆的資料要survey
然後再來驗證你的solution對不對
當然這兩步驟會一直循環
甚至最後搞不好要回到定義問題的步驟也說不定Orz

但我覺得跟實際工作很不一樣的地方是
這過程是孤獨一個人面對
不像工作"通常"是一個團隊去解決一個問題
這也是我最大的感觸
(但我相信這不是絕對如此 只是我的個人的經驗而已)

Anyway, 我覺得我的碩士學習歷程不是個好的體驗就是...

決策理論
我那時候套的理論就是決策理論的模型配上機率論
我找了很久
但最後其實發現AI課本上其實有提過了阿阿阿
image

簡單的說
就是對每個結果給個偏好的函數(稱之為效用utility)
然後當然每個結果也有它發生的機率
而演算法的結果就是要去求他的最大期望效用(Maximum expected utility)
概念上很簡單
要怎麼用上去就到是個很麻煩的問題
每一句話都是花很多心思弄出來的
字字血淚阿 嗚嗚嗚


上一篇
新的開始:資工碩一課程
下一篇
初試啼聲:打工與實習
系列文
不前不後,不上不下,一個曾經交大資工書卷的軟體工程師成長之路30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言