之前提到了一個模型,也就是一個函式。
這邊把它擴展一下,變成
其中 sigmoid 為
當 很大的時候,這個函式就會是 1,反之,如果 很小,這個函式就會輸出為 。除此之外,這個式子還增加了很多不同的 和 ,就可以組合出更多不同的函式。又如果,我們有很多的特徵(features),那函式就可以由
再改寫成這樣
這樣也就可以輸入很多不同的特徵來得到輸出了。而這個式子也可以看做:我們將很多不同的 sigmoid 函式相加在一起來得到輸出。因此只要找到對的參數(parameters),同時由人設定好的超參數(hypyerparameters),就可以得到一個預測會正確的模型了。這邊也可以用矩陣的方式來表示。
到這裡已將做好了步驟一:找到一個函式。這個函式有著要尋找的未知數。再來要定義損失,這邊損失函式就用
第三個步驟,就是透過最佳化方法來找出未知數 。 也就是
然後,在計算最佳化的過程,可以隨機分批的餵入函式來找出 。 當所有的資料都用過一輪,就稱為一代(epoch)。
如果用了很多層來,就可以稱之為深度學習。