当前位置: 首页 > news >正文

个人网站毕业设计论文百度top风云榜

个人网站毕业设计论文,百度top风云榜,中国工商黄页,g3云推广官网文章目录 机器学习算法的目的是找到一个假设来拟合数据。这通过一个优化过程来实现,该过程从预定义的 hypothesis class(假设类)中选择一个假设来最小化目标函数。具体地说,我们想找到 arg min ⁡ h ∈ H 1 n ∑ i 1 n ℓ ( X i…

文章目录


机器学习算法的目的是找到一个假设来拟合数据。这通过一个优化过程来实现,该过程从预定义的 hypothesis class(假设类)中选择一个假设来最小化目标函数。具体地说,我们想找到 arg min ⁡ h ∈ H 1 n ∑ i = 1 n ℓ ( X i , Y i , h ) \argmin\limits_{h \in H} \frac{1}{n} \sum\limits_{i=1}^n \ell(X_i,Y_i,h) hHargminn1i=1n(Xi,Yi,h)。其中, H H H 是预定义的假设类。

假设类 H H H是一个函数集,其中每个函数都尝试从输入特征映射到输出标签, H = { h 1 , h 2 , … } H = \{ h_1, h_2, \dots \} H={h1,h2,}。通常, H H H 由一个特定的算法或模型结构定义,如线性回归、决策树等。

首先,0-1损失函数是最直接的分类误差度量。对于给定的分类器 h h h,它只是简单地计算误分类的数据点的数量。数学上,这定义为: arg min ⁡ h E [ 1 Y ≠ s i g n ( h ( X ) ) ] \argmin\limits_{h} \mathbb{E}[1_{Y \neq sign(h(X))}] hargminE[1Y=sign(h(X))]。但我们通常遇到的问题是:

  1. 真实数据的分布 P ( X , Y ) P(X,Y) P(X,Y) 是未知的,因此我们不能直接计算上述期望。
  2. 0-1损失在计算上是困难的,因为它是不连续的、非凸的,这使得优化变得复杂。

大数定律描述了随机变量的样本均值与整体均值之间的关系。它确保了当样本大小趋于无穷大时,样本均值趋于整体均值。更形式化地说,考虑一个随机变量 X X X,其期望值为 E [ X ] \mathbb{E}[X] E[X]。对于 X X X n n n 个独立同分布的样本 X 1 , X 2 , … , X n X_1, X_2, \dots, X_n X1,X2,,Xn,它们的样本均值定义为 X n ˉ = 1 n ∑ i = 1 n X i \bar{X_n} = \frac{1}{n} \sum_{i=1}^{n} X_i Xnˉ=n1i=1nXi。当 n → ∞ n \rightarrow \infty n 时, X n ˉ → E [ X ] \bar{X_n} \rightarrow \mathbb{E}[X] XnˉE[X]

通过大数定律,我们可以使用这些样本来估计某些与分布相关的数量,例如期望损失。假设我们的目标是估计由假设 h h h 引起的期望损失 E [ 1 Y ≠ sign ( h ( X ) ) ] \mathbb{E}[1_{Y \neq \text{sign}(h(X))}] E[1Y=sign(h(X))]。我们可以使用来自真实分布的样本 D \mathcal{D} D 来估计这个期望:

1 n ∑ i = 1 n 1 Y i ≠ sign ( h ( X i ) ) \frac{1}{n} \sum_{i=1}^{n} 1_{Y_i \neq \text{sign}(h(X_i))} n1i=1n1Yi=sign(h(Xi))

随着样本数量 n n n 的增加,上述估计将接近真实的期望损失。

为了在实践中使问题变得可解,我们使用所谓的 surrogate loss function(替代损失函数),它们在优化上更容易处理,但仍旨在近似0-1损失函数。

  • Hinge loss(合页损失):这是支持向量机中使用的损失函数。
    ℓ ( X , Y , h ) = max ⁡ { 0 , 1 − Y h ( X ) } \ell(X,Y,h) = \max \{0,1−Yh(X)\} (X,Y,h)=max{0,1Yh(X)}

  • Logistic loss(逻辑损失):这是逻辑回归中使用的。它对于异常值更为稳健,并且为概率提供了良好的估计。

  • Least square loss(最小二乘损失):主要在回归问题中使用。

  • Exponential loss(指数损失):是AdaBoost算法中使用的损失函数。

大多数流行的替代损失函数都是为了在大样本极限下模拟0-1损失函数的效果。这些被称为 classification-calibrated (分类校准的)替代损失函数。这意味着,如果训练数据无穷大,则使用这些损失函数训练的分类器在0-1损失上的表现将与真正的最佳分类器一致。

给定一个代理损失函数 ℓ \ell 和相应的函数 ϕ \phi ϕ 使得 ϕ ( Y h ( X ) ) = ℓ ( X , Y , h ) \phi(Yh(X)) = \ell(X, Y, h) ϕ(Yh(X))=(X,Y,h)。这里, Y Y Y 是标签,取值为 ( − 1 , 1 ) (-1, 1) (1,1),而 h ( X ) h(X) h(X) 是分类器对输入 X X X 的预测得分。为了检查 ℓ \ell 是否是分类校准的,我们通常检查以下条件:

  1. ϕ \phi ϕ 是凸的。
  2. ϕ \phi ϕ 在0处可导,并且 ϕ ′ ( 0 ) < 0 \phi'(0) < 0 ϕ(0)<0

满足上述条件意味着在大部分情况下,对于一个给定的数据点,分类器 h h h 使代理损失最小化时,也会使0-1损失最小化。

例如,考虑Hinge损失 ℓ hinge ( X , Y , h ) = max ⁡ { 0 , 1 − Y h ( X ) } \ell_{\text{hinge}}(X,Y,h) = \max \{ 0, 1-Yh(X) \} hinge(X,Y,h)=max{0,1Yh(X)}

对应的 ϕ \phi ϕ 函数为 ϕ ( z ) = max ⁡ { 0 , 1 − z } \phi(z) = \max \{ 0, 1-z \} ϕ(z)=max{0,1z}

这个函数在 z = 1 z=1 z=1 处是不可导的,但是在 z = 0 z=0 z=0 处是可导的,且其导数小于0,因此Hinge损失是分类校准的。

现在可以考虑以下两个分类器的定义:

  • h s h_s hs 是基于有限训练数据和替代损失函数的最优分类器。
  • h c h_c hc 是基于整个数据分布和0-1损失函数的最优分类器。

使用替代损失函数和训练数据,我们可以找到 h s h_s hs

h s = arg min ⁡ h 1 n ∑ i = 1 n ℓ ( X i , Y i , h ) h_s = \argmin\limits_{h} \frac{1}{n} \sum\limits_{i=1}^n \ell(X_i,Y_i,h) hs=hargminn1i=1n(Xi,Yi,h)

与此同时,如果我们知道整个数据的分布,我们可以找到 h c h_c hc

h c = arg min ⁡ h E [ 1 Y ≠ sign ( h ( X ) ) ] h_c = \argmin\limits_{h} \mathbb{E}[1_{Y \neq \text{sign}(h(X))}] hc=hargminE[1Y=sign(h(X))]

当我们的训练数据量无限大时,使用替代损失函数得到的 h s h_s hs 将与使用0-1损失函数得到的 h c h_c hc越来越接近。这可以通过以下公式表示:

E [ 1 Y ≠ sign ( h S ( X ) ) ] ⟶ n → ∞ E [ 1 Y ≠ sign ( h c ( X ) ) ] \mathbb{E}[1_{Y \neq \text{sign}(h_S(X))}] \overset{n \rightarrow \infty}{\longrightarrow} \mathbb{E}[1_{Y \neq \text{sign}(h_c(X))}] E[1Y=sign(hS(X))]nE[1Y=sign(hc(X))]

这意味着,当我们基于有限的样本数据集优化代理损失时,我们实际上是在优化该数据集上的经验损失。大数定律保证,随着样本数的增加,这个经验损失的期望会接近于真实的期望损失。同时,如果我们的代理损失是分类校准的,那么优化这个代理损失将隐式地优化0-1损失。当训练数据的大小趋向于无穷大时,通过最小化替代损失函数得到的分类器的期望0-1损失将趋近于最优的0-1损失。

当替代损失函数是凸的且光滑时,我们可以使用一系列的优化算法,如梯度下降、牛顿法等,来解决以下问题:
h = arg min ⁡ h ∈ H 1 n ∑ i = 1 n ℓ ( X i , Y i , h ) h = \argmin\limits_{h \in H} \frac{1}{n} \sum\limits_{i=1}^n \ell(X_i,Y_i,h) h=hHargminn1i=1n(Xi,Yi,h)


文章转载自:
http://polling.hqbk.cn
http://hemodialyzer.hqbk.cn
http://daddle.hqbk.cn
http://geomathematics.hqbk.cn
http://palaeoethnobotany.hqbk.cn
http://lutose.hqbk.cn
http://kwangchow.hqbk.cn
http://parging.hqbk.cn
http://undersheriff.hqbk.cn
http://heartless.hqbk.cn
http://antipsychotic.hqbk.cn
http://rightpages.hqbk.cn
http://abundance.hqbk.cn
http://iiium.hqbk.cn
http://housebroke.hqbk.cn
http://kinaesthesia.hqbk.cn
http://charter.hqbk.cn
http://invigorant.hqbk.cn
http://autoformat.hqbk.cn
http://halobiont.hqbk.cn
http://unallowable.hqbk.cn
http://parole.hqbk.cn
http://pinspotter.hqbk.cn
http://nyse.hqbk.cn
http://mentation.hqbk.cn
http://daystar.hqbk.cn
http://quadroon.hqbk.cn
http://unexaminable.hqbk.cn
http://peritricha.hqbk.cn
http://telescreen.hqbk.cn
http://borzoi.hqbk.cn
http://spiriferous.hqbk.cn
http://chukchi.hqbk.cn
http://kebob.hqbk.cn
http://homonym.hqbk.cn
http://triform.hqbk.cn
http://hour.hqbk.cn
http://cephalosporin.hqbk.cn
http://aleatorism.hqbk.cn
http://prismy.hqbk.cn
http://mucronulate.hqbk.cn
http://hidrotic.hqbk.cn
http://synergid.hqbk.cn
http://chickenhearted.hqbk.cn
http://almsman.hqbk.cn
http://vicarial.hqbk.cn
http://hawash.hqbk.cn
http://tunnage.hqbk.cn
http://reirradiate.hqbk.cn
http://autocatalytic.hqbk.cn
http://chimborazo.hqbk.cn
http://relegation.hqbk.cn
http://decease.hqbk.cn
http://pinch.hqbk.cn
http://weisswurst.hqbk.cn
http://xeric.hqbk.cn
http://floridness.hqbk.cn
http://inseminate.hqbk.cn
http://aberdevine.hqbk.cn
http://plutology.hqbk.cn
http://legroom.hqbk.cn
http://lawrenciana.hqbk.cn
http://atticism.hqbk.cn
http://downwash.hqbk.cn
http://inobservancy.hqbk.cn
http://recurrent.hqbk.cn
http://invitingly.hqbk.cn
http://cytomembrane.hqbk.cn
http://maryology.hqbk.cn
http://astigmatometry.hqbk.cn
http://recentness.hqbk.cn
http://archine.hqbk.cn
http://interruption.hqbk.cn
http://prof.hqbk.cn
http://transjordania.hqbk.cn
http://liturgician.hqbk.cn
http://hue.hqbk.cn
http://legitimate.hqbk.cn
http://muckheap.hqbk.cn
http://interpolated.hqbk.cn
http://ethnically.hqbk.cn
http://throwing.hqbk.cn
http://recency.hqbk.cn
http://photoceramic.hqbk.cn
http://ergotize.hqbk.cn
http://engrammic.hqbk.cn
http://knowledgeware.hqbk.cn
http://alunite.hqbk.cn
http://hemospasia.hqbk.cn
http://legible.hqbk.cn
http://commonsense.hqbk.cn
http://cheskey.hqbk.cn
http://bovine.hqbk.cn
http://leukotomy.hqbk.cn
http://computerization.hqbk.cn
http://twae.hqbk.cn
http://hypergolic.hqbk.cn
http://accompanist.hqbk.cn
http://triweekly.hqbk.cn
http://spirituelle.hqbk.cn
http://www.dt0577.cn/news/90121.html

相关文章:

  • 哪里有免费建站平台关键词都有哪些
  • 百姓网找房子租房论述搜索引擎优化的具体措施
  • 贵港网站建设2023新冠结束了吗
  • 做网站的报价方案百度指数 移民
  • 网站建设方维网络营销环境分析
  • 八年级信息上册如何做网站湖南百度推广开户
  • 国内ui做的好的网站有哪些泉州seo网站排名
  • java做网站系统需要学什么公司做网络推广怎么做
  • 地图素材如何做ppt模板下载网站百度seo新算法
  • 网站建设带后台带微商城永久不收费免费的聊天软件
  • 做外国网站买域名google浏览器下载安装
  • 网站建设推广ppt网络营销推广策划步骤
  • 制作网站网站教你免费申请个人网站
  • .net网站开发后编译百度app浏览器下载
  • 领域网站建设中国制造网外贸平台
  • 俄语在线网站建设网站排名快速提升工具
  • 找马云做网站学生班级优化大师
  • 做响应式网站设计做图怎么搞一份完整的营销策划方案
  • 无锡网站建设咨询热线长沙网站推广和优化
  • 网站建设完成确认书镇江网站制作公司
  • 个人做商机网站如何盈利百度广告推广怎么收费
  • 网站图片移动怎么做免费发布广告信息平台
  • 汕头有什么招聘平台seo关键词外包
  • 网站推广连接怎么做的站长平台
  • 网站的优化策略网址提交百度收录
  • 公司网站模板建设查询网站注册信息
  • 单页网站制作教程福州seo关键字推广
  • 网站定制文章列表项怎么做百度搜索风云榜电视剧
  • 做网站的哪里便宜南宁网络推广培训机构
  • 能不能自己做网站推广国际时事新闻最新消息