監督式類神經網路常見的梯度下降法,是以誤差為基礎作為目標函數進行權重最佳化,往往能訓練出計算值與實際值誤差非常小的類神經網路模型,然而誤差極小化真的是實務中需要的嗎?本次分享中將會以較少見的訓練方式——啟發式演算法作為權重修正方式,使得目標函數的假設可以充分自由化,藉此更容易滿足實務上需求。
哇我居然可以連續堅持十一天發文,這真的太神奇了,感謝鐵人賽給我的磨練。儘管其中兩天 DAY5 DAY6 有點塘塞,在這幾天 DAY 8 , DAY 9 也沒什麼...
今日要來進入鐵人賽第二部分,也就是粒子群演算法的部分。在接下來十天內除了會探討啟發式演算法之外,也會希望漸漸讓讀者們建立一個「參數空間」的觀念,當你習慣用一種參...
關於昨日 DAY 11 已經分享了許多粒子群演算法的觀念,今天要來分享的是說,粒子群演算法如何來做初始化權重的部分。同時也會來分享粒子群演算法的基本公式,我覺得...
今天要來談的是怎麼用粒子群演算法來更新網路權重,其實昨日已經有討論到這個部分,因此今天主要會談的事情是 fitness function (配適函數)或是成本函...
今天原本主題是「從最佳粒子提取訓練後網路權重」,當初不知道為什麼會打這個題目,因為其實這個步驟非常簡單,就只需要把粒子群裡面的最佳解(Group Best, G...
好吧,我要去跨年了只好挖部落格先擋一下 XD ,題目算是只是吸引人的噱頭吧!無論如何還是希望能幫助到一些朋友。 我的影片在這邊哈哈:https://www.y...
DAY 15 原定的文章由於跨年關係用部落格文取代,為這點感到抱歉的同時來到了 DAY 16 ,今天仍然要談的事情是你可以怎麼樣來建構你的目標函數,也就是類神經...
鐵人賽到今天第十八天,我最痛苦的時間大概是在 DAY-5 到 DAY-6 因為覺得寫不出自己想要寫的文章,沒有充足的時間做準備,慢慢到 DAY-10 11 之後...
今天要來談動態類神經網路,什麼叫做動態類神經網路呢?也就是說在你的類神經網路訓練過程中,類神經網路的架構會做動態的調整,舉例來說,如果你建立了一個 RBFNN...
第二部分是我開始沒有太多時間細打的部分,不過我還是想挑戰看看三十天發文!今天 DAY 20 我會分享一些比較進階的概念,關於啟發式演算法在類神經網路上的應用中,...