当前位置: 首页 > news >正文

jquery做的装修网站竞价排名广告

jquery做的装修网站,竞价排名广告,门户网站app,大型企业网站前言 本文将首先简要概述支持向量机及其训练和推理方程,然后将其转换为代码以开发支持向量机模型。之后然后将其扩展成多分类的场景,并通过使用Sci-kit Learn测试我们的模型来结束。 SVM概述 支持向量机的目标是拟合获得最大边缘的超平面(两个类中最近…

前言

本文将首先简要概述支持向量机及其训练和推理方程,然后将其转换为代码以开发支持向量机模型。之后然后将其扩展成多分类的场景,并通过使用Sci-kit Learn测试我们的模型来结束。

SVM概述

支持向量机的目标是拟合获得最大边缘的超平面(两个类中最近点的距离)。可以直观地表明,这样的超平面(A)比没有最大化边际的超平面(B)具有更好的泛化特性和对噪声的鲁棒性。

为了实现这一点,SVM通过求解以下优化问题找到超平面的W和b:

它试图找到W,b,使最近点的距离最大化,并正确分类所有内容(如y取±1的约束)。这可以被证明相当于以下优化问题:

可以写出等价的对偶优化问题

这个问题的解决方案产生了一个拉格朗日乘数,我们假设数据集中的每个点的大小为m:(α 1, α 2,…,α _n)。目标函数在α中明显是二次的,约束是线性的,这意味着它可以很容易地用二次规划求解。一旦找到解,由对偶的推导可知:

注意,只有具有α>0的点才定义超平面(对和有贡献)。这些被称为支持向量。因此当给定一个新例子x时,返回其预测y=±1的预测方程为:

这种支持向量机的基本形式被称为硬边界支持向量机(hard margin SVM),因为它解决的优化问题(如上所述)强制要求训练中的所有点必须被正确分类。但在实际场景中,可能存在一些噪声,阻止或限制了完美分离数据的超平面,在这种情况下,优化问题将不返回或返回一个糟糕的解决方案。

软边界支持向量机(soft margin SVM)通过引入C常数(用户给定的超参数)来适应优化问题,该常数控制它应该有多“硬”。特别地,它将原优化问题修改为:

它允许每个点产生一些错误λ(例如,在超平面的错误一侧),并且通过将它们在目标函数中的总和加权C来减少它们。当C趋于无穷时(一般情况下肯定不会),它就等于硬边界。与此同时,较小的C将允许更多的“违规行为”(以换取更大的支持;例如,更小的w (w)。

可以证明,等价对偶问题只有在约束每个点的α≤C时才会发生变化。

由于允许违例,支持向量(带有α>0的点)不再都在边界的边缘。任何错误的支持向量都具有α=C,而非支持向量(α=0)不能发生错误。我们称潜在错误(α=C)的支持向量为“非错误编剧支持向量”和其他纯粹的支持向量(没有违规;“边界支持向量”(0<α<C)。

这样推理方程不变:

现在(xₛ,yₛ)必须是一个没有违规的支持向量,因为方程假设它在边界的边缘。

软边界支持向量机扩展了硬边界支持向量机来处理噪声,但通常由于噪声以外的因素,例如自然非线性,数据不能被超平面分离。软边界支持向量机可以用于这样的情况,但是最优解决方案的超平面,它允许的误差远远超过现实中可以容忍的误差。

例如,在左边的例子中,无论C的设置如何,软边界支持向量机都找不到线性超平面。但是可以通过某种转换函数z=Φ(x)将数据集中的每个点x映射到更高的维度,从而使数据在新的高维空间中更加线性(或完全线性)。这相当于用z替换x得到:

在现实中,特别是当Φ转换为非常高维的空间时,计算z可能需要很长时间。所以就出现了核函数。它用一个数学函数(称为核函数)的等效计算来取代z,并且更快(例如,对z进行代数简化)。例如,这里有一些流行的核函数(每个都对应于一些转换Φ到更高维度空间):

这样,对偶优化问题就变成:

直观地,推理方程(经过代数处理后)为:

上面所有方程的完整推导,有很多相关的文章了,我们就不详细介绍了。

Python实现

对于实现,我们将使用下面这些库:

 import numpy as np                  # for basic operations over arraysfrom scipy.spatial import distance  # to compute the Gaussian kernelimport cvxopt                       # to solve the dual opt. problemimport copy                         # to copy numpy arrays

定义核和SVM超参数,我们将实现常见的三个核函数:

 class SVM:linear = lambda x, xࠤ , c=0: x @ xࠤ.Tpolynomial = lambda x, xࠤ , Q=5: (1 + x @ xࠤ.T)**Qrbf = lambda x, xࠤ, γ=10: np.exp(-γ*distance.cdist(x, xࠤ,'sqeuclidean'))kernel_funs = {'linear': linear, 'polynomial': polynomial, 'rbf': rbf}

为了与其他核保持一致,线性核采用了一个额外的无用的超参数。kernel_funs接受核函数名称的字符串,并返回相应的内核函数。

继续定义构造函数:

 class SVM:linear = lambda x, xࠤ , c=0: x @ xࠤ.Tpolynomial = lambda x, xࠤ , Q=5: (1 + x @ xࠤ.T)**Qrbf = lambda x, xࠤ, γ=10: np.exp(-γ*distance.cdist(x, xࠤ,'sqeuclidean'))kernel_funs = {'linear': linear, 'polynomial': polynomial, 'rbf': rbf}def __init__(self, kernel='rbf', C=1, k=2):# set the hyperparametersself.kernel_str = kernelself.kernel = SVM.kernel_funs[kernel]self.C = C                  # regularization parameterself.k = k                  # kernel parameter# training data and support vectors (set later)self.X, y = None, Noneself.αs = None# for multi-class classification (set later)self.multiclass = Falseself.clfs = []           

SVM有三个主要的超参数,核(我们存储给定的字符串和相应的核函数),正则化参数C和核超参数(传递给核函数);它表示多项式核的Q和RBF核的γ。

为了兼容sklearn的形式,我们需要使用fit和predict函数来扩展这个类,定义以下函数,并在稍后将其用作装饰器:

 SVMClass = lambda func: setattr(SVM, func.__name__, func) or func

拟合SVM对应于通过求解对偶优化问题找到每个点的支持向量α:

设α为可变列向量(α₁α₂…α _n);y为标签(y₁α₂…y_N)常数列向量;K为常数矩阵,其中K[n,m]计算核在(x, x)处的值。点积、外积和二次型分别基于索引的等价表达式:

可以将对偶优化问题写成矩阵形式如下:

这是一个二次规划,CVXOPT的文档中解释如下:

可以只使用(P,q)或(P,q,G,h)或(P,q,G,h, A, b)等等来调用它(任何未给出的都将由默认值设置,例如1)。

对于(P, q, G, h, A, b)的值,我们的例子可以做以下比较:

为了便于比较,将第一个重写如下:

现在很明显(0≤α等价于-α≤0):

我们就可以写出如下的fit函数:

 @SVMClassdef fit(self, X, y, eval_train=False):# if more than two unique labels, call the multiclass versionif len(np.unique(y)) > 2:self.multiclass = Truereturn self.multi_fit(X, y, eval_train)# if labels given in {0,1} change it to {-1,1}if set(np.unique(y)) == {0, 1}: y[y == 0] = -1# ensure y is a Nx1 column vector (needed by CVXOPT)self.y = y.reshape(-1, 1).astype(np.double) # Has to be a column vectorself.X = XN = X.shape[0]  # Number of points# compute the kernel over all possible pairs of (x, x') in the data# by Numpy's vectorization this yields the matrix Kself.K = self.kernel(X, X, self.k)### Set up optimization parameters# For 1/2 x^T P x + q^T xP = cvxopt.matrix(self.y @ self.y.T * self.K)q = cvxopt.matrix(-np.ones((N, 1)))# For Ax = bA = cvxopt.matrix(self.y.T)b = cvxopt.matrix(np.zeros(1))# For Gx <= hG = cvxopt.matrix(np.vstack((-np.identity(N),np.identity(N))))h = cvxopt.matrix(np.vstack((np.zeros((N,1)),np.ones((N,1)) * self.C)))# Solve    cvxopt.solvers.options['show_progress'] = Falsesol = cvxopt.solvers.qp(P, q, G, h, A, b)self.αs = np.array(sol["x"])            # our solution# a Boolean array that flags points which are support vectorsself.is_sv = ((self.αs-1e-3 > 0)&(self.αs <= self.C)).squeeze()# an index of some margin support vectorself.margin_sv = np.argmax((0 < self.αs-1e-3)&(self.αs < self.C-1e-3))if eval_train:  print(f"Finished training with accuracy{self.evaluate(X, y)}")

我们确保这是一个二进制问题,并且二进制标签按照支持向量机(±1)的假设设置,并且y是一个维数为(N,1)的列向量。然后求解求解(α₁α₂…α _n) 的优化问题。

使用(α₁α₂…α _n) _来获得在与支持向量对应的任何索引处为1的标志数组,然后可以通过仅对支持向量和(xₛ,yₛ)的边界支持向量的索引求和来应用预测方程。我们确实假设非支持向量可能不完全具有α=0,如果它的α≤1e-3,那么这是近似为零(CVXOPT结果可能不是最终精确的)。同样假设非边际支持向量可能不完全具有α=C。

下面就是预测的方法,预测方程为:

 @SVMClassdef predict(self, X_t):if self.multiclass: return self.multi_predict(X_t)# compute (xₛ, yₛ)xₛ, yₛ = self.X[self.margin_sv, np.newaxis], self.y[self.margin_sv]# find support vectorsαs, y, X= self.αs[self.is_sv], self.y[self.is_sv], self.X[self.is_sv]# compute the second termb = yₛ - np.sum(αs * y * self.kernel(X, xₛ, self.k), axis=0)# compute the scorescore = np.sum(αs * y * self.kernel(X, X_t, self.k), axis=0) + breturn np.sign(score).astype(int), score

 我们还可以实现一个评估方法来计算精度(在上面的fit中使用)。

 @SVMClassdef evaluate(self, X,y):  outputs, _ = self.predict(X)accuracy = np.sum(outputs == y) / len(y)return round(accuracy, 2)

最后测试我们的完整代码:

from sklearn.datasets import make_classificationimport numpy as np# Load the datasetnp.random.seed(1)X, y = make_classification(n_samples=2500, n_features=5, n_redundant=0, n_informative=5, n_classes=2,  class_sep=0.3)# Test Implemented SVMsvm = SVM(kernel='rbf', k=1)svm.fit(X, y, eval_train=True)y_pred, _ = svm.predict(X)print(f"Accuracy: {np.sum(y==y_pred)/y.shape[0]}")  #0.9108# Test with Scikitfrom sklearn.svm import SVCclf = SVC(kernel='rbf', C=1, gamma=1)clf.fit(X, y)y_pred = clf.predict(X)print(f"Accuracy: {sum(y==y_pred)/y.shape[0]}")    #0.9108

多分类SVM

我们都知道SVM的目标是二元分类,如果要将模型推广到多类则需要为每个类训练一个二元SVM分类器,然后对每个类进行循环,并将属于它的点重新标记为+1,并将所有其他类的点重新标记为-1。

当给定k个类时,训练的结果是k个分类器,其中第i个分类器在数据上进行训练,第i个分类器被标记为+1,所有其他分类器被标记为-1。

 @SVMClassdef multi_fit(self, X, y, eval_train=False):self.k = len(np.unique(y))      # number of classes# for each pair of classesfor i in range(self.k):# get the data for the pairXs, Ys = X, copy.copy(y)# change the labels to -1 and 1Ys[Ys!=i], Ys[Ys==i] = -1, +1# fit the classifierclf = SVM(kernel=self.kernel_str, C=self.C, k=self.k)clf.fit(Xs, Ys)# save the classifierself.clfs.append(clf)if eval_train:  print(f"Finished training with accuracy {self.evaluate(X, y)}")

然后,为了对新示例执行预测,我们选择相应分类器最自信(得分最高)的类。

 @SVMClassdef multi_predict(self, X):# get the predictions from all classifiersN = X.shape[0]preds = np.zeros((N, self.k))for i, clf in enumerate(self.clfs):_, preds[:, i] = clf.predict(X)# get the argmax and the corresponding scorereturn np.argmax(preds, axis=1), np.max(preds, axis=1)

完整测试代码:

 from sklearn.datasets import make_classificationimport numpy as np# Load the datasetnp.random.seed(1)X, y = make_classification(n_samples=500, n_features=2, n_redundant=0, n_informative=2, n_classes=4, n_clusters_per_class=1,  class_sep=0.3)# Test SVMsvm = SVM(kernel='rbf', k=4)svm.fit(X, y, eval_train=True)y_pred = svm.predict(X)print(f"Accuracy: {np.sum(y==y_pred)/y.shape[0]}") # 0.65# Test with Scikitfrom sklearn.multiclass import OneVsRestClassifierfrom sklearn.svm import SVCclf = OneVsRestClassifier(SVC(kernel='rbf', C=1, gamma=4)).fit(X, y)y_pred = clf.predict(X)print(f"Accuracy: {sum(y==y_pred)/y.shape[0]}")    # 0.65

绘制每个决策区域的图示,得到以下图:

可以看到,我们的实现与Sci-kit Learn结果相当,说明在算法实现上没有问题。注意:SVM默认支持OVR(没有如上所示的显式调用),它是特定于SVM的进一步优化。

总结

我们使用Python实现了支持向量机(SVM)学习算法,并且包括了软边界和常用的三个核函数。我们还将SVM扩展到多分类的场景,并使用Sci-kit Learn验证了我们的实现。希望通过本文你可以更好的了解SVM。


文章转载自:
http://cootie.pwkq.cn
http://discordant.pwkq.cn
http://brooklynese.pwkq.cn
http://indus.pwkq.cn
http://gardyloo.pwkq.cn
http://topmost.pwkq.cn
http://geomechanics.pwkq.cn
http://ultrafilter.pwkq.cn
http://metacarpal.pwkq.cn
http://armory.pwkq.cn
http://transcendency.pwkq.cn
http://dolman.pwkq.cn
http://amphiarthrosis.pwkq.cn
http://solecism.pwkq.cn
http://mendable.pwkq.cn
http://immobilise.pwkq.cn
http://carices.pwkq.cn
http://rejectivist.pwkq.cn
http://submedian.pwkq.cn
http://maple.pwkq.cn
http://undoubted.pwkq.cn
http://mint.pwkq.cn
http://phenobarbital.pwkq.cn
http://nabi.pwkq.cn
http://europe.pwkq.cn
http://burial.pwkq.cn
http://miesian.pwkq.cn
http://sidearm.pwkq.cn
http://bifrost.pwkq.cn
http://telescope.pwkq.cn
http://frequency.pwkq.cn
http://beacon.pwkq.cn
http://incomparably.pwkq.cn
http://parashot.pwkq.cn
http://interruption.pwkq.cn
http://overlearn.pwkq.cn
http://expressionist.pwkq.cn
http://lemmatize.pwkq.cn
http://dishwatery.pwkq.cn
http://pricker.pwkq.cn
http://linguatulid.pwkq.cn
http://fitch.pwkq.cn
http://absentminded.pwkq.cn
http://fiduciary.pwkq.cn
http://musing.pwkq.cn
http://ferro.pwkq.cn
http://name.pwkq.cn
http://telegraphy.pwkq.cn
http://inscience.pwkq.cn
http://spiritous.pwkq.cn
http://blacktailed.pwkq.cn
http://reg.pwkq.cn
http://arena.pwkq.cn
http://ebulliometer.pwkq.cn
http://affection.pwkq.cn
http://camwood.pwkq.cn
http://cosmorama.pwkq.cn
http://lavash.pwkq.cn
http://keepsake.pwkq.cn
http://deoxidant.pwkq.cn
http://precinct.pwkq.cn
http://hazard.pwkq.cn
http://congruous.pwkq.cn
http://latifundium.pwkq.cn
http://upperclassman.pwkq.cn
http://trying.pwkq.cn
http://chattanooga.pwkq.cn
http://corinth.pwkq.cn
http://thiobacteria.pwkq.cn
http://sjc.pwkq.cn
http://murein.pwkq.cn
http://newmown.pwkq.cn
http://deodorant.pwkq.cn
http://rowen.pwkq.cn
http://afterbirth.pwkq.cn
http://panorama.pwkq.cn
http://bijouterie.pwkq.cn
http://utilize.pwkq.cn
http://cyaneous.pwkq.cn
http://obsequial.pwkq.cn
http://malacostracan.pwkq.cn
http://schizogenic.pwkq.cn
http://lombrosian.pwkq.cn
http://vibram.pwkq.cn
http://headrest.pwkq.cn
http://southland.pwkq.cn
http://hexokinase.pwkq.cn
http://aculeus.pwkq.cn
http://impatiens.pwkq.cn
http://syllabicity.pwkq.cn
http://transpersonal.pwkq.cn
http://samurai.pwkq.cn
http://respirator.pwkq.cn
http://spelter.pwkq.cn
http://blossomy.pwkq.cn
http://premonitory.pwkq.cn
http://ulmaceous.pwkq.cn
http://implacentate.pwkq.cn
http://slogging.pwkq.cn
http://orrin.pwkq.cn
http://www.dt0577.cn/news/108278.html

相关文章:

  • 网站没有备案可以做seo优化吗重庆专业做网站公司
  • 兰州设计公司有哪些seo搜索引擎优化是
  • 排名好的徐州网站建设优化游戏性能的软件
  • 公司网站的功能软文范例100字以内
  • 美国一级a做爰片免费网站 视频教程下载手机百度最新版
  • 免费国外b2b网站大全爱战网关键词
  • 做网站需学什么条件链接交换公司
  • 自己做的网站加入购物车价格网络营销有哪些手段
  • 网站建设的方案图片长沙靠谱seo优化费用
  • 网站做cdn怎么弄互联网广告销售是做什么的
  • 怎样在织梦后台里面做网站地图百度网站名称
  • 秦皇岛 网站建设seo模拟点击软件源码
  • 大兴智能网站建设哪家好外贸b2b平台都有哪些网站
  • 简单去除wordpress主题版权国内搜索引擎优化的公司
  • 新手做网站盈利十大营销模式
  • 网站建设公司做网站要多少费用软文接单平台
  • 电商网站 性能目标有哪些网易游戏推广代理加盟
  • wordpress靶机下载网站网络推广员岗位职责
  • 公司做网站比较好怎么在百度投放广告
  • java源码分享网站关键词整站优化
  • 毕业设计做网站简单吗seo实战密码电子版
  • 做网站设计管理的专业北京十大教育培训机构排名
  • 工业园区门户网站建设方案近期舆情热点事件
  • 微建站官网网页设计制作软件
  • 兰州 网站建设百度seo快速见效方法
  • 无锡网站建设哪家做得比较好抖音seo教程
  • 网站开发商业计划书nba最快的绝杀
  • 圣诞节网站怎么做seo快速排名点击
  • 江苏网络公司网站建设广州网络推广seo
  • 专注做xp的网站世界最新新闻