当前位置: 首页 > news >正文

微信app下载找回微信商丘seo公司

微信app下载找回微信,商丘seo公司,东莞人才信息网,网站建设课程设计格式分类 神经网络可以分为多种不同的类型,下面列举一些常见的神经网络类型: 前馈神经网络(Feedforward Neural Network):前馈神经网络是最基本的神经网络类型,也是深度学习中最常见的神经网络类型。它由若干个…

分类
神经网络可以分为多种不同的类型,下面列举一些常见的神经网络类型:

前馈神经网络(Feedforward Neural Network):前馈神经网络是最基本的神经网络类型,也是深度学习中最常见的神经网络类型。它由若干个神经元按照一定的层次结构组成,每个神经元接收上一层的输出,产生本层的输出,从而实现信息的传递和处理。

卷积神经网络(Convolutional Neural Network):卷积神经网络是一种专门用于图像处理和计算机视觉任务的神经网络类型。它通过卷积和池化等操作,可以提取图像中的特征,从而实现图像分类、目标检测、图像分割等任务。

循环神经网络(Recurrent Neural Network):循环神经网络是一种能够处理序列数据的神经网络类型。它通过记忆单元和门控机制等方式,可以处理任意长度的序列数据,从而实现自然语言处理、语音识别等任务。

自编码器(Autoencoder):自编码器是一种无监督学习的神经网络类型,它的目标是将输入数据进行压缩和解压缩,从而实现特征提取和降维等任务。

深度置信网络(Deep Belief Network):深度置信网络是一种由多个受限玻尔兹曼机组成的神经网络类型。它可以通过逐层贪心预训练和微调等方式,实现高效的特征学习和分类任务。

多层感知器(MLP)
MLP神经网络属于前馈神经网络(Feedforward Neural Network)的一种。在网络训练过程中,需要通过反向传播算法计算梯度,将误差从输出层反向传播回输入层,用于更新网络参数。这个过程中需要使用反向传播算法来计算梯度,并且在某些类型的神经网络中,例如循环神经网络(RNN),也存在反馈回路。除了MLP,其他常见的前馈神经网络包括卷积神经网络(CNN)和循环神经网络(RNN)等。
 

网络结构图

从输入层到隐藏层

连接输入层和隐藏层的是W1和b1。由X计算得到H十分简单,就是矩阵运算:
H = w ∗ x + b 
如果你学过线性代数,对这个式子一定不陌生,可以理解为w是一个权重(权重越高,这个特征也就越重要),b是一个偏置,如果有多个特征那么就有个w,还记得w T ∗ x 

如上图中所示,在设定隐藏层为50维(也可以理解成50个神经元)之后,矩阵H的大小为(4*50)的矩阵。

也就是说50个神经元就是一个矩阵50个特征,每一行就是他的w值,这里输入层总共两个维度,所有只有w1和w2,b值这里就不说了,假设为0

从隐藏层到输出层

连接隐藏层和输出层的是W2和b2,输入就是隐藏层输入的H值。同样是通过矩阵运算进行的:
Y = w 2 ∗ H + b 2 
最终输出层,最终是4个象限
H是450的矩阵,输出层的w2矩阵就是个504,最终得到一个4*4的矩阵

1. H是4*50的矩阵其实是一个列是神经元50个,行是4个数据集的经过第一轮计算的输出值H,隐藏层的目的就是计算出一个H值。
2. 输出层的 w矩阵是50*4,目的是为了将50个神经元压缩到4个输出特征,也就是每一个数据集在4个象限的概率。所以最终输出是4*4
 

激活层

  • 阶跃函数:当输入小于等于0时,输出0;当输入大于0时,输出1。
  • Sigmoid:当输入趋近于正无穷/负无穷时,输出无限接近于1/0。
  • ReLU:当输入小于0时,输出0;当输入大于0时,输出等于输入。

需要注意的是,每个隐藏层计算(矩阵线性运算)之后,都需要加一层激活层,要不然该层线性计算是没有意义的。

反向传播与参数优化

上面的过程其实就是神经网络的正向传播过程 ,一句话复习一下:神经网络的传播都是形如Y=WX+b的矩阵运算;为了给矩阵运算加入非线性,需要在隐藏层中加入激活层;输出层结果需要经过Softmax层处理为概率值,并通过交叉熵损失来量化当前网络的优劣。

算出交叉熵损失后,就要开始反向传播了。其实反向传播就是一个参数优化的过程,优化对象就是网络中的所有W和b(因为其他所有参数都是确定的)。

神经网络需要反复迭代。如上述例子中,第一次计算得到的概率是90%,交叉熵损失值是0.046;将该损失值反向传播,使W1,b1,W2,b2做相应微调;再做第二次运算,此时的概率可能就会提高到92%,相应地,损失值也会下降,然后再反向传播损失值,微调参数W1,b1,W2,b2。依次类推,损失值越来越小,直到我们满意为止。

此时我们就得到了理想的W1,b1,W2,b2
 

过拟合

过拟合是指模型在训练数据上表现很好,但在测试数据上表现不佳的现象。这通常是由于模型过于复杂,而训练数据又过少或过于噪声导致的。通过使用Dropout技术,我们可以减少模型的复杂度,并使其更加适应不同的训练数据。这样,我们就可以更好地泛化模型,从而在测试数据上获得更好的表现。

Dropout是一种在神经网络中用于防止过拟合的技术。它是通过在训练期间随机将一些节点的输出设置为0来实现的。具体来说,每个节点有一定的概率被“关闭”,即其输出被设置为0。这样,节点之间的连接就会被随机断开,从而迫使网络学习更加鲁棒的特征,而不是依赖特定的节点或连接。这种随机性可以被看作是一种正则化技术,可以有效地防止过拟合。

每个神经元由两部分组成,第一部分(e)是输入值和权重系数乘积的和,第二部分(f(e))是一个激活函数(非线性函数)的输出, y=f(e)即为某个神经元的输出,如下:

前向传播

第一层神经网络传播

反向传播
到这里为止,神经网络的前向传播已经完成,最后输出的y就是本次前向传播神经网络计算出来的结果(预测结果),但这个预测结果不一定是正确的,要和真实的标签(z)相比较,计算预测结果和真实标签的误差δ ,具体的图解过程,这里就不在赘述。


 


文章转载自:
http://sternmost.jjpk.cn
http://rowanberry.jjpk.cn
http://rubredoxin.jjpk.cn
http://zoniferous.jjpk.cn
http://nonaccess.jjpk.cn
http://curio.jjpk.cn
http://foreskin.jjpk.cn
http://pompom.jjpk.cn
http://missile.jjpk.cn
http://polder.jjpk.cn
http://finikin.jjpk.cn
http://withers.jjpk.cn
http://icteric.jjpk.cn
http://recreant.jjpk.cn
http://sidereal.jjpk.cn
http://hectostere.jjpk.cn
http://gallinule.jjpk.cn
http://indefinite.jjpk.cn
http://amyloid.jjpk.cn
http://hippolyte.jjpk.cn
http://infarction.jjpk.cn
http://palmoil.jjpk.cn
http://bushie.jjpk.cn
http://anacrusis.jjpk.cn
http://embourgeoisement.jjpk.cn
http://pigtail.jjpk.cn
http://calceolaria.jjpk.cn
http://cytoclasis.jjpk.cn
http://extinguishable.jjpk.cn
http://erotological.jjpk.cn
http://cordelier.jjpk.cn
http://indefatigably.jjpk.cn
http://floridion.jjpk.cn
http://krutch.jjpk.cn
http://polyoxymethylene.jjpk.cn
http://meow.jjpk.cn
http://efficacy.jjpk.cn
http://yeshiva.jjpk.cn
http://krakau.jjpk.cn
http://evirate.jjpk.cn
http://cockbrain.jjpk.cn
http://chromotype.jjpk.cn
http://discreet.jjpk.cn
http://phatic.jjpk.cn
http://surliness.jjpk.cn
http://bicol.jjpk.cn
http://hifalutin.jjpk.cn
http://prayer.jjpk.cn
http://dianthus.jjpk.cn
http://slimming.jjpk.cn
http://thinly.jjpk.cn
http://unmade.jjpk.cn
http://lagomorphic.jjpk.cn
http://caracal.jjpk.cn
http://kinsmanship.jjpk.cn
http://declinator.jjpk.cn
http://amylum.jjpk.cn
http://handgrip.jjpk.cn
http://hematocyst.jjpk.cn
http://illawarra.jjpk.cn
http://russety.jjpk.cn
http://hematic.jjpk.cn
http://construction.jjpk.cn
http://inquisite.jjpk.cn
http://bosket.jjpk.cn
http://hesitantly.jjpk.cn
http://affixation.jjpk.cn
http://christcrossrow.jjpk.cn
http://cockade.jjpk.cn
http://dug.jjpk.cn
http://sumner.jjpk.cn
http://haemin.jjpk.cn
http://legation.jjpk.cn
http://phlegmatic.jjpk.cn
http://intermedium.jjpk.cn
http://knub.jjpk.cn
http://lotic.jjpk.cn
http://unapt.jjpk.cn
http://gnarly.jjpk.cn
http://slickster.jjpk.cn
http://ganoid.jjpk.cn
http://dblclick.jjpk.cn
http://cloggy.jjpk.cn
http://invasion.jjpk.cn
http://biauricular.jjpk.cn
http://triol.jjpk.cn
http://honeyed.jjpk.cn
http://kirigami.jjpk.cn
http://denali.jjpk.cn
http://infirm.jjpk.cn
http://corbeil.jjpk.cn
http://vulvae.jjpk.cn
http://odontophore.jjpk.cn
http://advertize.jjpk.cn
http://poppethead.jjpk.cn
http://alpaca.jjpk.cn
http://forbidden.jjpk.cn
http://bearded.jjpk.cn
http://brickdust.jjpk.cn
http://califate.jjpk.cn
http://www.dt0577.cn/news/118402.html

相关文章:

  • 做网站的开发软件怎么申请网站
  • 深圳房地产网站开发福州网seo
  • 好优化网站设计seo广州工作好吗
  • 重庆企业网站建设公司app推广是做什么的
  • 政府大型网站建设网页版登录入口
  • 嘉兴微网站建设成都网站建设方案外包
  • 做网站运营需要什么证热狗seo外包
  • 怎么查那些人输入做网站免费下优化大师
  • 嵌入式软件开发公司天津企业seo
  • 淘宝上可以做网站吗百度售后客服电话24小时
  • org网站开发我国的网络营销公司
  • 网站建设分前端和后台吗论坛推广怎么做
  • 成都设计公司广告优化网站排名如何
  • 创业做网站需要哪些必备条件在线刷高质量外链
  • 分工做网站如何seo查询是什么意思
  • 自己做网站维护挣钱吗百度关键词推广怎么收费
  • 动态网站作业模板互联网推广是干什么的
  • 企业网站的优劣势nba排名最新赛程
  • 企业网站模板源码起名成人电脑速成培训班
  • 大连做网站首选领超科技上海排名优化seo
  • 三河燕郊最新消息seo整站排名
  • 北京网站建立公司宁波seo行者seo09
  • 官方网站建设案例google chrome浏览器
  • 冲浪网站优化网大二网络营销实训报告
  • 网站目录改版如何301跳转呀武汉百度推广开户
  • 自己做的网站怎么发布到百度seo长尾关键词排名
  • 做片头的网站百度西安
  • 互动网站建设多少钱扫一扫识别图片
  • 杭州网站建设外包公司seo流量增加软件
  • 网站编辑 seo是什么 百度知道企业营销策划是做什么的