單純貝氏分類器 (Naive Bayes) 是以貝氏定理來解決機器學習上的分類問題。
不免俗在機器學習上,如何估計模型參數是一大重點,而這裡是透過最大概似估計 (Maximum likelihood estimation) 來解決這個問題。
最大概似估計是一個估計機率模型中母數的方法。
這裡先定義一個已知的機率分佈 ,其機率函數為 ,而分佈母數為 。
如何求出 likelihood function ?
我們從機率分佈 中,抽出 個值,,並透過 來計算:
不論 為離散分佈或是連續分佈,最大概似估計會尋找關於 的最可能的值,而這個值會使得概似函數取到最大值。
其中, 即是 的最大概似估計。但也要注意,最大概似估計不一定存在,也不一定唯一。
貝氏機率 (Bayesian probability) 是透過機率來解釋貝氏定理。
貝氏定理
在已知一些條件下,某一事件的發生機率。例如在事件發生事件的機率。
這裡先定義隨機事件 和
其中, 為 的後驗機率, 是 的先驗機率。
Naive Bayes 是一種建分類器的方法,主要透過特徵之間強獨立下,運用貝氏定理來分類各式類別。
如先前提及,貝式定理是描述某已知條件下,另一個事件發生的機率。
透過此定理而進行分類任務的模型可以被定義為
而此可以依照貝式定理等價於
即是
其中分子的部份可以等價於聯合分佈模型
接著使用連鎖律
便可以將此寫成條件機率
由於可能計算的特徵數量過多,為了計算後驗機率上的方便,這裡必須先假設特徵之間獨立,但也讓分類準確率下降一些,變得像是一種估計機率後分類的概念。
如此一來,有特徵相互獨立的條件後,可以將此模型表示為
而類別變數條件分佈可以寫成
這裡的 是會依據 改變的常數。
依據機率模型來建造分類器
藉由上述獨立分佈的特徵模型,我們可以將此視為 Naive Bayes 的模型,並透過最大事後機率(MAP)決策準則,來建構分類器,如下
明天就要開始開發 Navie Bayes Classifier 的演算法了!!!
歡迎更仔細閱讀以下相關內容以了解本篇知識