国产精品电影_久久视频免费_欧美日韩国产激情_成年人视频免费在线播放_日本久久亚洲电影_久久都是精品_66av99_九色精品美女在线_蜜臀a∨国产成人精品_冲田杏梨av在线_欧美精品在线一区二区三区_麻豆mv在线看

使用Python從零實現多分類SVM

開發 前端
本文將首先簡要概述支持向量機及其訓練和推理方程,然后將其轉換為代碼以開發支持向量機模型。之后然后將其擴展成多分類的場景,并通過使用Sci-kit Learn測試我們的模型來結束。

本文將首先簡要概述支持向量機及其訓練和推理方程,然后將其轉換為代碼以開發支持向量機模型。之后然后將其擴展成多分類的場景,并通過使用Sci-kit Learn測試我們的模型來結束。

SVM概述

支持向量機的目標是擬合獲得最大邊緣的超平面(兩個類中最近點的距離)??梢灾庇^地表明,這樣的超平面(A)比沒有最大化邊際的超平面(B)具有更好的泛化特性和對噪聲的魯棒性。

為了實現這一點,SVM通過求解以下優化問題找到超平面的W和b:

它試圖找到W,b,使最近點的距離最大化,并正確分類所有內容(如y取±1的約束)。這可以被證明相當于以下優化問題:

可以寫出等價的對偶優化問題

這個問題的解決方案產生了一個拉格朗日乘數,我們假設數據集中的每個點的大小為m:(α 1, α 2,…,α _n)。目標函數在α中明顯是二次的,約束是線性的,這意味著它可以很容易地用二次規劃求解。一旦找到解,由對偶的推導可知:

注意,只有具有α>0的點才定義超平面(對和有貢獻)。這些被稱為支持向量。因此當給定一個新例子x時,返回其預測y=±1的預測方程為:

這種支持向量機的基本形式被稱為硬邊界支持向量機(hard margin SVM),因為它解決的優化問題(如上所述)強制要求訓練中的所有點必須被正確分類。但在實際場景中,可能存在一些噪聲,阻止或限制了完美分離數據的超平面,在這種情況下,優化問題將不返回或返回一個糟糕的解決方案。

軟邊界支持向量機(soft margin SVM)通過引入C常數(用戶給定的超參數)來適應優化問題,該常數控制它應該有多“硬”。特別地,它將原優化問題修改為:

它允許每個點產生一些錯誤λ(例如,在超平面的錯誤一側),并且通過將它們在目標函數中的總和加權C來減少它們。當C趨于無窮時(一般情況下肯定不會),它就等于硬邊界。與此同時,較小的C將允許更多的“違規行為”(以換取更大的支持;例如,更小的w (w)。

可以證明,等價對偶問題只有在約束每個點的α≤C時才會發生變化。

由于允許違例,支持向量(帶有α>0的點)不再都在邊界的邊緣。任何錯誤的支持向量都具有α=C,而非支持向量(α=0)不能發生錯誤。我們稱潛在錯誤(α=C)的支持向量為“非錯誤編劇支持向量”和其他純粹的支持向量(沒有違規;“邊界支持向量”(0<α<C)。

這樣推理方程不變:

現在(x?,y?)必須是一個沒有違規的支持向量,因為方程假設它在邊界的邊緣。

軟邊界支持向量機擴展了硬邊界支持向量機來處理噪聲,但通常由于噪聲以外的因素,例如自然非線性,數據不能被超平面分離。軟邊界支持向量機可以用于這樣的情況,但是最優解決方案的超平面,它允許的誤差遠遠超過現實中可以容忍的誤差。

例如,在左邊的例子中,無論C的設置如何,軟邊界支持向量機都找不到線性超平面。但是可以通過某種轉換函數z=Φ(x)將數據集中的每個點x映射到更高的維度,從而使數據在新的高維空間中更加線性(或完全線性)。這相當于用z替換x得到:

在現實中,特別是當Φ轉換為非常高維的空間時,計算z可能需要很長時間。所以就出現了核函數。它用一個數學函數(稱為核函數)的等效計算來取代z,并且更快(例如,對z進行代數簡化)。例如,這里有一些流行的核函數(每個都對應于一些轉換Φ到更高維度空間):

這樣,對偶優化問題就變成:

直觀地,推理方程(經過代數處理后)為:

上面所有方程的完整推導,有很多相關的文章了,我們就不詳細介紹了。

Python實現

對于實現,我們將使用下面這些庫:

import numpy as np                 # for basic operations over arrays
 from scipy.spatial import distance # to compute the Gaussian kernel
 import cvxopt                       # to solve the dual opt. problem
 import copy                         # to copy numpy arrays

定義核和SVM超參數,我們將實現常見的三個核函數:

class SVM:
    linear = lambda x, x? , c=0: x @ x?.T
    polynomial = lambda x, x? , Q=5: (1 + x @ x?.T)**Q
    rbf = lambda x, x?, γ=10: np.exp(-γ*distance.cdist(x, x?,'sqeuclidean'))
    kernel_funs = {'linear': linear, 'polynomial': polynomial, 'rbf': rbf}

為了與其他核保持一致,線性核采用了一個額外的無用的超參數。kernel_funs接受核函數名稱的字符串,并返回相應的內核函數。

繼續定義構造函數:

class SVM:
    linear = lambda x, x? , c=0: x @ x?.T
    polynomial = lambda x, x? , Q=5: (1 + x @ x?.T)**Q
    rbf = lambda x, x?, γ=10: np.exp(-γ*distance.cdist(x, x?,'sqeuclidean'))
    kernel_funs = {'linear': linear, 'polynomial': polynomial, 'rbf': rbf}
     
    def __init__(self, kernel='rbf', C=1, k=2):
        # set the hyperparameters
        self.kernel_str = kernel
        self.kernel = SVM.kernel_funs[kernel]
        self.C = C                 # regularization parameter
        self.k = k                 # kernel parameter
         
        # training data and support vectors (set later)
        self.X, y = None, None
        self.αs = None
         
        # for multi-class classification (set later)
        self.multiclass = False
        self.clfs = []

SVM有三個主要的超參數,核(我們存儲給定的字符串和相應的核函數),正則化參數C和核超參數(傳遞給核函數);它表示多項式核的Q和RBF核的γ。

為了兼容sklearn的形式,我們需要使用fit和predict函數來擴展這個類,定義以下函數,并在稍后將其用作裝飾器:

SVMClass = lambda func: setattr(SVM, func.__name__, func) or func

擬合SVM對應于通過求解對偶優化問題找到每個點的支持向量α:

設α為可變列向量(α?α?…α _n);y為標簽(y?α?…y_N)常數列向量;K為常數矩陣,其中K[n,m]計算核在(x, x)處的值。點積、外積和二次型分別基于索引的等價表達式:

可以將對偶優化問題寫成矩陣形式如下:

這是一個二次規劃,CVXOPT的文檔中解釋如下:

可以只使用(P,q)或(P,q,G,h)或(P,q,G,h, A, b)等等來調用它(任何未給出的都將由默認值設置,例如1)。

對于(P, q, G, h, A, b)的值,我們的例子可以做以下比較:

為了便于比較,將第一個重寫如下:

現在很明顯(0≤α等價于-α≤0):

我們就可以寫出如下的fit函數:

@SVMClass
 def fit(self, X, y, eval_train=False):
    # if more than two unique labels, call the multiclass version
    if len(np.unique(y)) > 2:
        self.multiclass = True
        return self.multi_fit(X, y, eval_train)
     
    # if labels given in {0,1} change it to {-1,1}
    if set(np.unique(y)) == {0, 1}: y[y == 0] = -1
 
    # ensure y is a Nx1 column vector (needed by CVXOPT)
    self.y = y.reshape(-1, 1).astype(np.double) # Has to be a column vector
    self.X = X
    N = X.shape[0] # Number of points
     
    # compute the kernel over all possible pairs of (x, x') in the data
    # by Numpy's vectorization this yields the matrix K
    self.K = self.kernel(X, X, self.k)
     
    ### Set up optimization parameters
    # For 1/2 x^T P x + q^T x
    P = cvxopt.matrix(self.y @ self.y.T * self.K)
    q = cvxopt.matrix(-np.ones((N, 1)))
     
    # For Ax = b
    A = cvxopt.matrix(self.y.T)
    b = cvxopt.matrix(np.zeros(1))
 
    # For Gx <= h
    G = cvxopt.matrix(np.vstack((-np.identity(N),
                                  np.identity(N))))
    h = cvxopt.matrix(np.vstack((np.zeros((N,1)),
                                  np.ones((N,1)) * self.C)))
 
    # Solve    
    cvxopt.solvers.options['show_progress'] = False
    sol = cvxopt.solvers.qp(P, q, G, h, A, b)
    self.αs = np.array(sol["x"])           # our solution
         
    # a Boolean array that flags points which are support vectors
    self.is_sv = ((self.αs-1e-3 > 0)&(self.αs <= self.C)).squeeze()
    # an index of some margin support vector
    self.margin_sv = np.argmax((0 < self.αs-1e-3)&(self.αs < self.C-1e-3))
     
    if eval_train:  
      print(f"Finished training with accuracy{self.evaluate(X, y)}")

我們確保這是一個二進制問題,并且二進制標簽按照支持向量機(±1)的假設設置,并且y是一個維數為(N,1)的列向量。然后求解求解(α?α?…α _n) 的優化問題。

使用(α?α?…α _n) _來獲得在與支持向量對應的任何索引處為1的標志數組,然后可以通過僅對支持向量和(x?,y?)的邊界支持向量的索引求和來應用預測方程。我們確實假設非支持向量可能不完全具有α=0,如果它的α≤1e-3,那么這是近似為零(CVXOPT結果可能不是最終精確的)。同樣假設非邊際支持向量可能不完全具有α=C。

下面就是預測的方法,預測方程為:

@SVMClass
 def predict(self, X_t):
    if self.multiclass: return self.multi_predict(X_t)
    # compute (x?, y?)
    x?, y? = self.X[self.margin_sv, np.newaxis], self.y[self.margin_sv]
    # find support vectors
    αs, y, X= self.αs[self.is_sv], self.y[self.is_sv], self.X[self.is_sv]
    # compute the second term
    b = y? - np.sum(αs * y * self.kernel(X, x?, self.k), axis=0)
    # compute the score
    score = np.sum(αs * y * self.kernel(X, X_t, self.k), axis=0) + b
    return np.sign(score).astype(int), score

我們還可以實現一個評估方法來計算精度(在上面的fit中使用)。

@SVMClass
 def evaluate(self, X,y):  
    outputs, _ = self.predict(X)
    accuracy = np.sum(outputs == y) / len(y)
    return round(accuracy, 2)

最后測試我們的完整代碼:

from sklearn.datasets import make_classification
 import numpy as np
 
 # Load the dataset
 np.random.seed(1)
 X, y = make_classification(n_samples=2500, n_features=5, 
                            n_redundant=0, n_informative=5, 
                            n_classes=2, class_sep=0.3)
 
 # Test Implemented SVM
 svm = SVM(kernel='rbf', k=1)
 svm.fit(X, y, eval_train=True)
 
 y_pred, _ = svm.predict(X)
 print(f"Accuracy: {np.sum(y==y_pred)/y.shape[0]}") #0.9108
 
 # Test with Scikit
 from sklearn.svm import SVC
 clf = SVC(kernel='rbf', C=1, gamma=1)
 clf.fit(X, y)
 y_pred = clf.predict(X)
 print(f"Accuracy: {sum(y==y_pred)/y.shape[0]}")   #0.9108

多分類SVM

我們都知道SVM的目標是二元分類,如果要將模型推廣到多類則需要為每個類訓練一個二元SVM分類器,然后對每個類進行循環,并將屬于它的點重新標記為+1,并將所有其他類的點重新標記為-1。

當給定k個類時,訓練的結果是k個分類器,其中第i個分類器在數據上進行訓練,第i個分類器被標記為+1,所有其他分類器被標記為-1。

@SVMClass
 def multi_fit(self, X, y, eval_train=False):
    self.k = len(np.unique(y))     # number of classes
    # for each pair of classes
    for i in range(self.k):
        # get the data for the pair
        Xs, Ys = X, copy.copy(y)
        # change the labels to -1 and 1
        Ys[Ys!=i], Ys[Ys==i] = -1, +1
        # fit the classifier
        clf = SVM(kernel=self.kernel_str, C=self.C, k=self.k)
        clf.fit(Xs, Ys)
        # save the classifier
        self.clfs.append(clf)
    if eval_train:  
        print(f"Finished training with accuracy {self.evaluate(X, y)}")

然后,為了對新示例執行預測,我們選擇相應分類器最自信(得分最高)的類。

@SVMClass
 def multi_predict(self, X):
    # get the predictions from all classifiers
    N = X.shape[0]
    preds = np.zeros((N, self.k))
    for i, clf in enumerate(self.clfs):
        _, preds[:, i] = clf.predict(X)
     
    # get the argmax and the corresponding score
    return np.argmax(preds, axis=1), np.max(preds, axis=1)

完整測試代碼:

from sklearn.datasets import make_classification
 import numpy as np
 
 # Load the dataset
 np.random.seed(1)
 X, y = make_classification(n_samples=500, n_features=2, 
                            n_redundant=0, n_informative=2, 
                            n_classes=4, n_clusters_per_class=1,  
                            class_sep=0.3)
 
 # Test SVM
 svm = SVM(kernel='rbf', k=4)
 svm.fit(X, y, eval_train=True)
 
 y_pred = svm.predict(X)
 print(f"Accuracy: {np.sum(y==y_pred)/y.shape[0]}") # 0.65
 
 # Test with Scikit
 from sklearn.multiclass import OneVsRestClassifier
 from sklearn.svm import SVC
 
 clf = OneVsRestClassifier(SVC(kernel='rbf', C=1, gamma=4)).fit(X, y)
 y_pred = clf.predict(X)
 print(f"Accuracy: {sum(y==y_pred)/y.shape[0]}")   # 0.65

繪制每個決策區域的圖示,得到以下圖:

可以看到,我們的實現與Sci-kit Learn結果相當,說明在算法實現上沒有問題。注意:SVM默認支持OVR(沒有如上所示的顯式調用),它是特定于SVM的進一步優化。

總結

我們使用Python實現了支持向量機(SVM)學習算法,并且包括了軟邊界和常用的三個核函數。我們還將SVM擴展到多分類的場景,并使用Sci-kit Learn驗證了我們的實現。希望通過本文你可以更好的了解SVM。


責任編輯:華軒 來源: DeepHub IMBA
相關推薦

2017-06-22 09:53:01

機器學習Python樸素貝葉斯

2023-04-18 08:27:16

日志級別日志包

2024-12-26 09:41:00

ML.NET圖像分類開發者

2020-09-24 11:46:03

Promise

2009-06-18 11:12:49

IP通信

2024-08-28 08:09:13

contextmetrics類型

2021-05-07 08:20:52

前端開發技術熱點

2023-01-07 08:09:41

零代碼Dooring組件

2021-06-22 14:47:19

electronDooring架構

2021-05-13 17:02:38

MDC腳手架日志

2024-09-25 08:28:45

2023-01-05 16:51:04

機器學習人工智能

2023-05-24 08:00:00

2025-01-03 09:00:00

代碼C++gTest

2025-05-15 01:00:00

2019-04-24 15:06:37

Http服務器協議

2024-08-23 08:57:13

PyTorch視覺轉換器ViT

2022-06-05 21:16:08

機器學習Python

2021-06-30 07:19:36

網絡安全

2022-07-27 14:59:20

原子化服務鴻蒙
點贊
收藏

51CTO技術棧公眾號

免费女人黄页| japanese在线播放| √天堂8在线网| 国产精品久久久久桃色tv| 国产精品污www一区二区三区| 国外成人福利视频| 91精品国产91久久综合桃花| jizz国产| 久久精品欧美一区二区三区不卡| 日韩一区二区电影在线观看| 亚洲精品网址| 日本一本a高清免费不卡| 青青伊人久久| 日韩精品极品在线观看| av在线资源站| 午夜激情综合网| 亚洲五月天综合| 国产揄拍国内精品对白| 91麻豆国产精品| 欧美男同视频网| 久久99久久久久久久噜噜| 96久久精品| 国产精品萝li| 制服诱惑一区| 欧美日韩国产探花| 永久免费精品影视网站| 天天干天天综合| 丝袜美腿一区| 亚洲精品国产电影| 桃乃木香奈av在线| 欧美国产在线观看| 9191国产视频| 精品夜夜嗨av一区二区三区| 精品久久久久久乱码天堂| 欧美顶级大胆免费视频| 日韩av色综合| 老司机在线精品视频| 欧美美女操人视频| 日韩成人精品| 国模精品视频一区二区| 久久激情视频免费观看| 毛片电影在线| 日韩国产高清污视频在线观看| 菠萝蜜视频国产在线播放| 欧美日韩精品一二三区| 国产在线一二| 欧美二区三区的天堂| 第一福利在线| 精品女同一区二区三区在线播放| 诱人的瑜伽老师3hd中字| 亚洲日韩欧美一区二区在线| 黄色成人羞羞视频| 亚洲靠逼com| 日本v片在线免费观看| 色综合色综合色综合 | 精品一二三四区| 青青草免费在线视频观看| 国产真实精品久久二三区| 国产一区二区三区小说| 99九九99九九九视频精品| 日韩欧美xxxx| 亚洲国产欧美在线| 黄色av网站在线| 精品国产乱子伦一区| 78精品国产综合久久香蕉| 久久精品夜夜夜夜夜久久| 国产一区二区三区不卡av| 成人www视频在线观看| 久久xxxx| 男人揉女人奶房视频60分| 亚洲一区二三区| 黄色大片在线播放| 一区二区三区无码高清视频| 成人爽a毛片免费啪啪红桃视频| 久久超级碰视频| 自拍网站在线观看| 日韩中文字幕网| 国产精品www994| 成年人免费视频观看| 亚洲欧美日韩久久| 国产911网站| 欧美巨大另类极品videosbest | 另类专区亚洲| 午夜精品一区二区三区在线播放| 美女视频第一区二区三区免费观看网站| 精品国产三区在线| 亚洲男人第一av网站| 91成人午夜| 亚洲va久久久噜噜噜| 欧美a级一区二区| 好男人www社区| 色综合久久综合网97色综合| 污污网站在线观看| 欧美激情视频一区二区| 亚洲中无吗在线| 99精品一区二区三区的区别| 亚洲天堂网中文字| 在线三级中文| 日本不卡高字幕在线2019| 久久综合五月| 四色永久免费网站| 亚洲国产精品成人av| 美女网站一区| 国产又粗又长又爽视频| 欧美日韩精品二区| 亚洲成人高清| 久久久久欧美| 亚洲午夜久久久久久久久电影院| 天堂网在线最新版www中文网| 国产精品av免费在线观看| 成人黄色网址在线观看| 国产天堂在线| 久久久久亚洲精品| 国内精品久久久久影院色| 日韩一二三四| 7m精品福利视频导航| 国产精品伊人色| 女女色综合影院| 国产综合久久久久久| 久久久久久久电影| 天堂在线中文网官网| 91老司机精品视频| 日本一区免费视频| 精品网站在线| 品久久久久久久久久96高清| 一区二区三区四区视频精品免费| 欧美色网一区| 欧美精品一区二区三区在线看午夜| 亚洲日本中文字幕区| av在线国产精品| 一区二区三区四区国产| 欧美综合欧美视频| 青青草91久久久久久久久| 妞干网在线免费视频| 亚洲美女av在线| 日韩电影免费在线看| 二人午夜免费观看在线视频| 国产精品mp4| 亚洲丝袜美腿综合| 精品视频一区二区三区在线观看| 黑人巨大国产9丨视频| 欧美一级视频精品观看| 亚洲欧美综合久久久| av一级二级| 国外成人性视频| 久久久国产一区二区三区四区小说| 欧美12一14sex性hd| 视频在线99| 精品久久国产精品| 中文字幕这里只有精品| 国产精品一区二区av| 最新中文字幕一区二区三区| 国产激情久久| 法国空姐在线观看免费| 亚洲成人免费网站| 日韩电影在线观看电影| 美女日批视频在线观看| 日本不卡二区| 日韩一区二区麻豆国产| 久久久久综合| 欧美人与性动交α欧美精品图片| 国产精品久久久久av福利动漫| 在线看日韩精品电影| 182在线视频观看| 丝袜视频国产在线播放| 精品在线视频一区二区| 亚洲日本在线视频观看| 九九在线视频| 亚洲一区二区三区香蕉| 亚洲在线一区二区三区| 亚洲裸色大胆大尺寸艺术写真| 中文字幕天天干| 久久99国产精品自在自在app| 国产三级一区二区| 风间由美一区二区av101| v888av成人| 成人h动漫免费观看网站| 色婷婷综合成人av| 福利视频久久| 51ⅴ精品国产91久久久久久| 老司机凹凸av亚洲导航| 精品国产亚洲一区二区三区在线观看| 精品福利免费观看| 欧美经典一区二区三区| 精品久久在线| 91最新在线观看| 性视频1819p久久| 亚洲欧洲99久久| 综合亚洲视频| 免费黄色电影在线观看| 亚洲欧洲日本国产| 亚洲欧美电影在线观看| 午夜天堂影视香蕉久久| 欧美视频你懂的| 日韩精品一区二区三区四区视频 | 手机成人在线| 精品美女调教视频| 天天影视久久综合| 成人看的视频| 欧美色电影在线|