首先,專業(yè)人士提供的算法比我們自己寫的算法無論是效率還是正確率上都要高。
其次,對于數(shù)學不好的人來說,為了實現(xiàn)算法而去研究一堆公式是很痛苦的事情。
再次,除非他人提供的算法滿足不了自己的需求,否則沒必要"重復(fù)造輪子"。
下面言歸正傳,不了解貝葉斯算法的可以去查一下相關(guān)資料,這里只是簡單介紹一下:
1.貝葉斯公式:
P(A|B)=P(AB)/P(B)
2.貝葉斯推斷:
P(A|B)=P(A)×P(B|A)/P(B)
用文字表述:
后驗概率=先驗概率×相似度/標準化常量
而貝葉斯算法要解決的問題就是如何求出相似度,即:P(B|A)的值
3. 在scikit-learn包中提供了三種常用的樸素貝葉斯算法,下面依次說明:
1)高斯樸素貝葉斯:假設(shè)屬性/特征是服從正態(tài)分布的(如下圖),主要應(yīng)用于數(shù)值型特征。
使用scikit-learn包中自帶的數(shù)據(jù),代碼及說明如下:
>>>from sklearn import datasets ##導入包中的數(shù)據(jù) >>> iris=datasets.load_iris() ##加載數(shù)據(jù) >>> iris.feature_names ##顯示特征名字 ['sepal length (cm)', 'sepal width (cm)', 'petal length (cm)', 'petal width (cm)'] >>> iris.data ##顯示數(shù)據(jù) array([[ 5.1, 3.5, 1.4, 0.2],[ 4.9, 3. , 1.4, 0.2],[ 4.7, 3.2, 1.3, 0.2]............ >>> iris.data.size ##數(shù)據(jù)大小 ---600個 >>> iris.target_names ##顯示分類的名字 array(['setosa', 'versicolor', 'virginica'], dtype='<U10') >>> from sklearn.naive_bayes import GaussianNB ##導入高斯樸素貝葉斯算法 >>> clf = GaussianNB() ##給算法賦一個變量,主要是為了方便使用 >>> clf.fit(iris.data, iris.target) ##開始分類。對于量特別大的樣本,可以使用函數(shù)partial_fit分類,避免一次加載過多數(shù)據(jù)到內(nèi)存 >>> clf.predict(iris.data[0].reshape(1,-1)) ##驗證分類。標紅部分特別說明:因為predict的參數(shù)是數(shù)組,data[0]是列表,所以需要轉(zhuǎn)換一下 array([0]) >>> data=np.array([6,4,6,2]) ##驗證分類 >>> clf.predict(data.reshape(1,-1)) array([2])
這里涉及到一個問題:如何判斷數(shù)據(jù)符合正態(tài)分布? R語言里面有相關(guān)函數(shù)判斷,或者直接繪圖也可以看出來,但是都是P(x,y)這種可以在坐標系里面直接
畫出來的情況,而例子中的數(shù)據(jù)如何確定,目前還沒有搞明白,這部分后續(xù)會補上。
2)多項式分布樸素貝葉斯:常用于文本分類,特征是單詞,值是單詞出現(xiàn)的次數(shù)。
##示例來在官方文檔,詳細說明見第一個例子 >>> import numpy as np >>> X = np.random.randint(5, size=(6, 100)) ##返回隨機整數(shù)值:范圍[0,5) 大小6*100 6行100列 >>> y = np.array([1, 2, 3, 4, 5, 6]) >>> from sklearn.naive_bayes import MultinomialNB >>> clf = MultinomialNB() >>> clf.fit(X, y) MultinomialNB(alpha=1.0, class_prior=None, fit_prior=True) >>> print(clf.predict(X[2])) [3]
3)伯努力樸素貝葉斯:每個特征都是是布爾型,得出的結(jié)果是0或1,即出現(xiàn)沒出現(xiàn)
##示例來在官方文檔,詳細說明見第一個例子 >>> import numpy as np >>> X = np.random.randint(2, size=(6, 100)) >>> Y = np.array([1, 2, 3, 4, 4, 5]) >>> from sklearn.naive_bayes import BernoulliNB >>> clf = BernoulliNB() >>> clf.fit(X, Y) BernoulliNB(alpha=1.0, binarize=0.0, class_prior=None, fit_prior=True) >>> print(clf.predict(X[2])) [3]
聲明:本網(wǎng)頁內(nèi)容旨在傳播知識,若有侵權(quán)等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。TEL:177 7030 7066 E-MAIL:11247931@qq.com