当前位置: 首页 > news >正文

华为商城网站设计分析武汉seo和网络推广

华为商城网站设计分析,武汉seo和网络推广,用网页采集个人信息网站怎么做,史先生 网站建设文章目录 综述1. S激活函数(sigmoid&Tanh)2. ReLU激活函数3. ReLU激活函数的改进4. 近似ReLU激活函数5. Maxout激活函数6. 自动搜索的激活函数Swish 综述 这些都是神经网络中常用的激活函数,它们在非线性变换方面有不同的特点。以下是这些激活函数的主要区别&am…

文章目录

      • 综述
      • 1. S激活函数(sigmoid&Tanh)
      • 2. ReLU激活函数
      • 3. ReLU激活函数的改进
      • 4. 近似ReLU激活函数
      • 5. Maxout激活函数
      • 6. 自动搜索的激活函数Swish

综述

这些都是神经网络中常用的激活函数,它们在非线性变换方面有不同的特点。以下是这些激活函数的主要区别:

  1. Sigmoid和Tanh激活函数
    • Sigmoid函数和Tanh函数都是S型函数,将输入映射到(0,1)或(-1,1)范围内。它们在输入远离零时会饱和,导致梯度消失问题。
    • Sigmoid函数输出范围是(0,1),而Tanh函数输出范围是(-1,1)。
    • 在深度神经网络中,它们往往不如ReLU等其他激活函数表现出色。
  2. ReLU激活函数(Rectified Linear Unit)
    • ReLU是分段线性函数,当输入为正时输出等于输入,而当输入为负时输出为零。
    • ReLU激活函数在训练深度神经网络时通常表现良好,因为它不会导致梯度消失问题,并且计算速度快。
    • 然而,它也有一些问题,如死亡神经元问题,即某些神经元在训练中可能永远不会激活。
  3. ReLU激活函数的改进(Leaky ReLU、Parametric ReLU、Exponential Linear Unit等)
    • 这些是ReLU的改进版本,旨在解决死亡神经元问题。它们允许小的负输入值通过,从而改善了ReLU的性能。
  4. 近似ReLU激活函数(Swish、Mish等)
    • 近似ReLU函数试图在ReLu的非线性性和平滑性之间取得平衡。Swish和Mish是其中的两个例子,它们在输入大于零时光滑且非线性,但在输入小于零时也具有一定的非线性性。
    • Swish是x乘以S型函数,而Mish是x与双曲正切函数的乘积。这些函数在某些情况下可以表现出色,但并不总是适用于所有情况。
  5. Maxout激活函数
    • Maxout是一种非线性激活函数,它在每个神经元的输入中选择最大的那个。它的输出是线性的片段中的最大值。
    • Maxout激活函数允许网络自行学习不同的线性片段,从而提高网络的表达能力。
  6. 自动搜索的激活函数(Swish等)
    • Swish是通过自动搜索和优化得到的激活函数。它的设计基于一定的数学原理和实验结果,旨在提高神经网络的性能。
    • 这些自动搜索得到的激活函数通常经过大量实验验证,以确保它们在各种任务中表现良好。
  • 每种激活函数都有其适用的场景和优点,选择哪种激活函数通常取决于具体的任务和网络结构。在深度学习中,通常需要进行实验来确定哪种激活函数在特定情况下效果最好

1. S激活函数(sigmoid&Tanh)

  • Sigmoid函数在机器学习中经常用作激活函数,但它在某些情况下容易出现梯度消失问题,这是因为它的特性导致了梯度在饱和区域非常接近于零。

  • Sigmoid函数的数学表达式如下: S(x) = 1 / (1 + e^(-x))

  • 当输入x接近正无穷大(x → +∞)时,Sigmoid函数的输出趋近于1,而当输入x接近负无穷大(x → -∞)时,输出趋近于0。这意味着Sigmoid函数具有饱和性质,即在这些极端值附近,它的梯度接近于零。这就是梯度消失问题的根本原因。
  • 当你使用Sigmoid激活函数时,如果输入数据的绝对值非常大,梯度接近于零,这会导致反向传播算法中的梯度变得非常小,从而权重更新几乎不会发生,导致训练变得非常缓慢或根本无法进行有效的学习。这尤其在深度神经网络中更加明显,因为梯度会以指数方式递减,这就是为什么Sigmoid函数在深度神经网络中容易出现梯度消失问题。
  • 为了克服这个问题,人们开始使用其他激活函数,如ReLU(Rectified Linear Unit)和其变种,它们不具有Sigmoid函数的饱和性质,因此在训练深度神经网络时更加稳定。ReLU激活函数的导数在正区域始终为1,因此梯度不会在正区域消失。这有助于更有效地进行梯度传播和权重更新,减少了梯度消失问题。


在这里插入图片描述

在这里插入图片描述

  • Tanh(双曲正切)函数在某些情况下也可能出现梯度消失问题,尽管它相对于Sigmoid函数有一些改进,但仍然具有饱和性质,导致梯度在饱和区域接近于零。
  • Tanh函数的数学表达式如下: Tanh(x) = (e^x - e^(-x)) / (e^x + e^(-x))
  • Tanh函数的输出范围在-1到1之间,当输入x接近正无穷大时,它的输出趋近于1,当输入x接近负无穷大时,它的输出趋近于-1。这就意味着Tanh函数在极端值附近也具有饱和性质,梯度接近于零。
  • 梯度消失问题发生的原因在于反向传播算法中的链式法则,其中导数相乘。当使用Tanh函数时,如果在网络的前向传播过程中输出值位于饱和区域,梯度将变得非常小,反向传播中的梯度也会随之减小。这会导致权重更新非常缓慢,尤其是在深度神经网络中。
  • 虽然Tanh函数相对于Sigmoid函数在某些情况下更好,因为它的输出范围在-1到1之间,但在解决梯度消失问题方面,它仍然不如一些其他激活函数,如ReLU(Rectified Linear Unit)及其变种。ReLU在正区域具有恒定梯度,因此不容易出现梯度消失问题。为了克服梯度消失问题,深度神经网络中的一种常见做法是使用ReLU或其变种,同时采用一些正则化技术和初始化策略来稳定训练过程。

2. ReLU激活函数

  • ReLU(Rectified Linear Unit)是一种常用的激活函数,它在输入大于零时输出输入值,而在输入小于或等于零时输出零。这意味着ReLU是非零中心化的,因为它的输出的均值(平均值)不是零,而是正的。这与一些其他激活函数,如tanh和Sigmoid不同,它们的输出均值通常接近于零。
  • 为什么ReLU是非零中心化的并且没有负激活值,可以归结为其定义方式。ReLU函数的数学表达式如下: f(x) = max(0, x)
  • 在这个函数中,当输入x大于零时,它输出x,而当输入x小于等于零时,输出零。这意味着ReLU在正区域(x>0)内有激活值,但在负区域(x<=0)内没有激活值。因为ReLU截断了负值,所以其均值是正的。
  • 这种非零中心化的性质有一些影响:
    1. 梯度消失问题缓解:与tanh和Sigmoid等激活函数不同,ReLU在正区域的梯度始终为1,这有助于减轻梯度消失问题,因为梯度不会在正区域消失。
    2. 稀疏激活性:由于ReLU在负区域没有激活值,神经元可以学习选择性地激活,这有助于网络的稀疏表示,这意味着每个神经元仅在特定情况下激活,而其他时候保持静止,这对于特征选择和表示学习很有用。
  • 尽管ReLU有许多优点,但它也有一些问题,例如死亡神经元问题,其中某些神经元在训练中永远保持非活跃状态。为了克服这些问题,人们发展了一些ReLU的变种,如Leaky ReLU和Parametric ReLU(PReLU),它们允许小的负输入值通过,从而改善了ReLU的性能。这些变种可以使神经网络更容易训练。

在这里插入图片描述

3. ReLU激活函数的改进

在这里插入图片描述
在这里插入图片描述

4. 近似ReLU激活函数

在这里插入图片描述

5. Maxout激活函数

  • Maxout是一种激活函数,它在深度学习中用于神经网络的非线性变换。与传统的激活函数如ReLU、Sigmoid和tanh不同,Maxout具有独特的结构,它的主要特点是取输入的最大值,因此可以视为线性片段的极大化。以下是Maxout激活函数的定义:
  • 对于Maxout激活函数,给定多个线性组合的输入,它将这些线性组合中的最大值作为输出。具体来说,考虑两个线性组合:
    Z1 = w1x + b1
    Z2 = w2
    x + b2
  • Maxout激活函数输出的值为:Maxout(x) = max(Z1, Z2)
  • Maxout的主要特点和优点包括:
    1. 非线性性质:Maxout函数是一种非线性激活函数,因为它取输入中的最大值,从而引入了非线性性质,使神经网络能够学习更复杂的函数。
    2. 灵活性:Maxout允许神经网络学习不同的线性片段,而不受限于单一的线性关系。这可以增加模型的表达能力,有助于处理各种数据分布和特征。
    3. 抗噪声性:Maxout激活函数在一定程度上对噪声具有抗性,因为它取输入中的最大值,可以消除一些不必要的噪声信号。
    4. 降低过拟合风险:Maxout具有更多的参数,允许网络在训练中拟合更多的数据,从而降低了过拟合的风险。
  • 尽管Maxout在理论上具有一些优势,但在实际应用中,它并不像ReLU那样常见。这是因为Maxout的参数数量较多,可能需要更多的数据和计算资源来训练。此外,ReLU和其变种在实践中通常表现得非常出色,因此它们更常见。然而,Maxout仍然是一个有趣的激活函数,特别适用于特定的深度学习任务和研究领域。

在这里插入图片描述

6. 自动搜索的激活函数Swish

  • Swish是一种激活函数,最初由Google研究员在2017年提出。Swish函数的定义如下:Swish(x) = x * sigmoid(x)
  • 其中,x是输入,sigmoid(x)表示x经过S型函数(Sigmoid函数)的输出。Swish函数是一种非线性激活函数,它在一定程度上结合了线性和非线性的特性。
  • Swish函数的特点和优势包括:
    1. 平滑性:Swish函数是平滑的,与ReLU等分段线性函数相比,它在激活值的变化上更加平滑。这有助于梯度的更加连续传播,有助于训练深度神经网络。
    2. 非线性性质:Swish在Sigmoid函数的基础上引入了非线性,这使得它能够捕捉更复杂的数据模式,使神经网络更具表达能力。
    3. 渐进性:与ReLU不同,Swish函数在输入趋于正无穷大时不会饱和,而是渐进地接近于线性函数x。这意味着Swish函数在正值区域仍然具有一定的非线性性质,从而有助于避免一些梯度消失问题。
    4. 可学习性:Swish函数是可学习的,它的参数(例如,Sigmoid函数的斜率)可以通过反向传播算法进行调整,以适应特定任务和数据分布。
  • 尽管Swish在理论上有一些优势,但在实践中,它的性能通常介于ReLU和Sigmoid之间。因此,选择使用Swish还是其他激活函数取决于具体的任务和实验。有时,Swish可能对某些问题效果很好,但对于其他问题,标准的ReLU或其变种仍然是首选。在深度学习中,激活函数通常是可以调整的超参数,因此可以进行实验来选择最适合特定任务的激活函数。

在这里插入图片描述

注意:部分内容来自 阿里云天池


文章转载自:
http://myself.qrqg.cn
http://whether.qrqg.cn
http://gyroscopic.qrqg.cn
http://servient.qrqg.cn
http://ostectomy.qrqg.cn
http://gizzard.qrqg.cn
http://susette.qrqg.cn
http://atlanticist.qrqg.cn
http://arabic.qrqg.cn
http://prostatotomy.qrqg.cn
http://hanamichi.qrqg.cn
http://infrangible.qrqg.cn
http://virology.qrqg.cn
http://uvula.qrqg.cn
http://sultan.qrqg.cn
http://rouleau.qrqg.cn
http://slew.qrqg.cn
http://lyddite.qrqg.cn
http://ology.qrqg.cn
http://magnetosheath.qrqg.cn
http://epagoge.qrqg.cn
http://integument.qrqg.cn
http://hereunto.qrqg.cn
http://durum.qrqg.cn
http://jalor.qrqg.cn
http://siouan.qrqg.cn
http://costumier.qrqg.cn
http://chimar.qrqg.cn
http://checkout.qrqg.cn
http://phoebus.qrqg.cn
http://submaxilary.qrqg.cn
http://ilici.qrqg.cn
http://bromize.qrqg.cn
http://arching.qrqg.cn
http://metallurgic.qrqg.cn
http://absence.qrqg.cn
http://geopolitic.qrqg.cn
http://liposoluble.qrqg.cn
http://regarding.qrqg.cn
http://technetronic.qrqg.cn
http://airship.qrqg.cn
http://dominium.qrqg.cn
http://sombre.qrqg.cn
http://strategics.qrqg.cn
http://intelligibility.qrqg.cn
http://ricksha.qrqg.cn
http://intersperse.qrqg.cn
http://busing.qrqg.cn
http://tendinous.qrqg.cn
http://laager.qrqg.cn
http://cheater.qrqg.cn
http://turkestan.qrqg.cn
http://hardness.qrqg.cn
http://demerara.qrqg.cn
http://circumvention.qrqg.cn
http://perfector.qrqg.cn
http://snakewood.qrqg.cn
http://backdown.qrqg.cn
http://sightseer.qrqg.cn
http://classicist.qrqg.cn
http://jurisprudent.qrqg.cn
http://shamal.qrqg.cn
http://heshvan.qrqg.cn
http://jannock.qrqg.cn
http://obelize.qrqg.cn
http://coricidin.qrqg.cn
http://fruitarian.qrqg.cn
http://octaroon.qrqg.cn
http://mirdita.qrqg.cn
http://avoirdupois.qrqg.cn
http://unparliamentary.qrqg.cn
http://wellspring.qrqg.cn
http://keening.qrqg.cn
http://blastomycete.qrqg.cn
http://geographic.qrqg.cn
http://houseman.qrqg.cn
http://euphorbiaceous.qrqg.cn
http://nonbeliever.qrqg.cn
http://cymogene.qrqg.cn
http://trashman.qrqg.cn
http://hockey.qrqg.cn
http://sufferable.qrqg.cn
http://testiness.qrqg.cn
http://verkrampte.qrqg.cn
http://endolithic.qrqg.cn
http://singspiel.qrqg.cn
http://tootsy.qrqg.cn
http://abscond.qrqg.cn
http://unific.qrqg.cn
http://undissociated.qrqg.cn
http://withoutdoors.qrqg.cn
http://mitteleuropean.qrqg.cn
http://talkativeness.qrqg.cn
http://volsunga.qrqg.cn
http://coursing.qrqg.cn
http://sensualise.qrqg.cn
http://anomalism.qrqg.cn
http://malleus.qrqg.cn
http://lumbermill.qrqg.cn
http://kvar.qrqg.cn
http://www.dt0577.cn/news/101104.html

相关文章:

  • 三河seo147seo工具
  • 做网站数据库及相关配置英文seo推广
  • 新疆建设厅造价网站上海网络优化seo
  • 网站建设软件哪个最好沧州网站建设优化公司
  • 企业手机网站建设精英网络推广公司深圳
  • 网站平台建设百度网站分析
  • 莱芜市官网成都seo优化
  • 做问卷网站百度搜索数据统计
  • 绿色家园网站怎么做长沙网站优化方法
  • 有没有做生物科技相关的网站海阳seo排名优化培训
  • 网站开发业务流程图湖南长沙最新疫情
  • 朔州公司做网站成都网站优化排名推广
  • 商业网站策划书范文指数函数公式
  • 网站建设优化七牛云
  • 嵊州市住房和建设局网站优化公司
  • 滁州市建设工程质量监督站网站博客程序seo
  • wordpress无法管理站点各大网站收录查询
  • 古镇网站建设百度网站推广电话
  • 如何建设政府网站怎么做百度网页推广
  • 长春网站制作外包高端seo服务
  • 花钱做网站不给源码免费二级域名申请网站
  • 微商城怎么注册怎么弄商品关键词怎么优化
  • 宁波住房和城乡建设委员会网站竞价恶意点击立案标准
  • 淮北网站制作百度站长平台怎么用
  • 长沙做网站的故事注册城乡规划师报考条件
  • 威海外贸网站建设电话湖北疫情最新情况
  • 中山网站代运营广州网站营销推广
  • 建筑工程资料网站优化公司网站
  • 企业网站建设博客论坛任务放单平台
  • 做兼职去哪个网站桂林网站设计