当前位置: 首页 > news >正文

做网站构思杭州优化seo

做网站构思,杭州优化seo,网站建设公司起名,注册网站域名后免费建站1. 为什么需要循环神经网络 RNN 上图是一幅全连接神经网络图,我们可以看到输入层-隐藏层-输出层,他们每一层之间是相互独立地,(框框里面代表同一层),每一次输入生成一个节点,同一层中每个节点之间又相互独立的话&#…

1. 为什么需要循环神经网络 RNN

上图是一幅全连接神经网络图,我们可以看到输入层-隐藏层-输出层,他们每一层之间是相互独立地,(框框里面代表同一层),每一次输入生成一个节点,同一层中每个节点之间又相互独立的话,那么我们每一次的输入其实跟前面的输入是没有关系地。这样在某一些任务中便不能很好的处理序列信息。
什么是序列信息呢?
通俗理解就是一段连续的信息,前后信息之间是有关系地,必须将不同时刻的信息放在一起理解。
比如一句话,虽然可以拆分成多个词语,但是需要将这些词语连起来理解才能得到一句话的意思。
RNN就是用来处理这些序列信息的任务,比如NLP中的语句生成问题,一句话中的每个词并不是单独存在地,而是根据上下文信息,与他的前后词有关。
为了解决这一问题,循环神经网络 RNN也就应运而生了。

2. 循环神经网络 RNN的结构

先看左半边图,如果不看隐藏层中的W,把它忽略,那么这其实就相当于是一个全连接神经网络的结构。那么从左图中就可以看出RNN呢其实就只是相当于在全连接神经网络的隐藏层增加了一个循环的操作。至于这个循环的操作具体是怎样的呢?单看左图可能有些懵逼,那么现在看上右图。上右图是RNN网络结构按照时间线展开图。
Xt是t时刻的输入,是一个[x0,x1,x2…xn]的向量
U是输入层到隐藏层的权重矩阵
St是t时刻的隐藏层的值
W是上一时刻的隐藏层的值传入到下一时刻的隐藏层时的权重矩阵
V是隐藏层到输出层的权重矩阵
Ot是t时刻RNN网络的输出
从上右图中可以看出这个RNN网络在t时刻接受了输入Xt之后,隐藏层的值是St,输出的值是Ot。但是从结构图中我们可以发现St并不单单只是由Xt决定,还与t-1时刻的隐藏层的值St-1有关。
这样,所谓的隐藏层的循环操作也就不难理解了,就是每一时刻计算一个隐藏层地值,然后再把该隐藏层地值传入到下一时刻,达到信息传递的目的。
具体隐藏层值St计算公式如下:

得到t时刻隐藏层的值后,再计算输出层的值:

注意:在同一层隐藏层中,不同时刻的W,V,U均是相等地,这也就是RNN的参数共享。

3. 循环神经网络 RNN的训练方法

训练RNN常用的一种方法是 BPTT算法(back-propagation through time),其本质也是BP算法(Backpropagation Algorithm),BP算法的本质其实又是梯度下降法,这边默认大家已经了解了梯度下降和反向传播算法的原理。

上图是带入了RNN 损失函数Loss的按时间线结构展开图。ht相当于是之前介绍过的隐藏层的值St
在RNN的训练调参过程中,需要调优的参数只有W,U,V三个

因为ht与h{t-1}有关,而h{t-1}中也有W和U,因此W和U的偏导的求解需要涉及到历史所有时刻的数据,其偏导求起来相对复杂,我们先假设只有三个时刻,那么在第三个时刻也就是t=3时 L对W的偏导数为:

整体的偏导公式就是将所有时刻的偏导数加起来

来看看蓝框部分是一个连乘的形式,ht的计算公式引入激活函数f()后如下:

诶,现在想起来之前上面是不是还有一个坑没填,就是为什么要选择tanh作为隐藏层的激活函数呢?
从上面的式子我们可以看到,引入了激活函数tanh和sigmoid的导数连乘,那我们再看看这两个激活函数导数的图像:

可以看到sigmoid函数和tanh函数的导数始终是小于1地,如果把众多小于1的数连乘,那么就会出现梯度消失的情况。
sigmoid函数的导数介于[0,0.25]之间,tanh函数的导入为[0,1]之间,虽然他们两者都存在梯度消失的问题,但tanh比sigmoid函数的表现要好,梯度消失得没有那么快。
你可能会要问之前在CNN中为了解决梯度消失问题是采用了ReLU激活函数,那么为什么RNN中不选用ReLU激活函数来彻底解决梯度消失的问题呢?

其实在RNN中使用ReLU函数确实也是能解决梯度消失的问题地,但是又会引入一个新问题梯度爆炸,先看看ReLU函数和其导数图:

因为ReLu的导数恒为1,由上面的公式我们发现

激活函数的导数每次需要乘上一个Ws,只要Ws的值大于1的话,经过多次连乘就会发生梯度爆炸的现象。但是这里的梯度爆炸问题也不是不能解决,可以通过设定合适的阈值解决梯度爆炸的问题。

但是目前大家在解决梯度消失问题地时候一般都会选择使用LSTM这一RNN的变种结构来解决梯度消失问题,而LSTM的激活函数又是选择的tanh,还不会引入梯度爆炸这种新问题,所以可能也就没有必要在基础的RNN上过多的纠结是选用ReLU还是tanh了吧,因为大家实际中用的都是LSTM,只需要理解RNN的思想就行了,于是就选择了一个折中的比sigmoid效果好,又不会引入新的梯度爆炸问题地tanh作为激活函数。
总之需要知道RNN中也能够使用ReLU激活函数来解决梯度消失问题,但是用来ReLU之后引入了新的梯度爆炸问题就得不偿失了,因此在梯度消失这个问题上选择用LSTM来优化是更好的选择。

4. 循环神经网络RNN的多种类型任务

4.1 one-to-one

输入的是独立地数据,输出的也是独立地数据,基本上不能算作是RNN,跟全连接神经网络没有什么区别。

4.2 one-to-n

输入的是一个独立数据,需要输出一个序列数据,常见的任务类型有:
基于图像生成文字描述
基于类别生成一段语言,文字描述

4.3 n-to-n

最为经典地RNN任务,输入和输出都是等长地序列
常见的任务有:
计算视频中每一帧的分类标签
输入一句话,判断一句话中每个词的词性

4.4 n-to-one

输入一段序列,最后输出一个概率,通常用来处理序列分类问题。
常见任务:
文本情感分析
文本分类

4.5 n-to-m

这种结构是Encoder-Decoder,也叫Seq2Seq,是RNN的一个重要变种。原始的n-to-n的RNN要求序列等长,然而我们遇到的大部分问题序列都是不等长的,如机器翻译中,源语言和目标语言的句子往往并没有相同的长度。为此,Encoder-Decoder结构先将输入数据编码成一个上下文语义向量c:

语义向量c可以有多种表达方式,最简单的方法就是把Encoder的最后一个隐状态赋值给c,还可以对最后的隐状态做一个变换得到c,也可以对所有的隐状态做变换。

拿到c之后,就用另一个RNN网络对其进行解码,这部分RNN网络被称为Decoder。Decoder的RNN可以与Encoder的一样,也可以不一样。具体做法就是将c当做之前的初始状态h0输入到Decoder中:

还有一种做法是将c当做每一步的输入:

输入序列和输出序列不等长地任务,也就是Encoder-Decoder结构,这种结构有非常多的用法:
机器翻译:Encoder-Decoder的最经典应用,事实上这结构就是在机器翻译领域最先提出的
文本摘要:输入是一段文本序列,输出是这段文本序列的摘要序列
阅读理解:将输入的文章和问题分别编码,再对其进行解码得到问题的答案
语音识别:输入是语音信号序列,输出是文字序列
基于Encoder-Decoder的结构后续有改良出了NLP中的大杀器transformer和Bert

5. BiRNN 双向RNN

虽然RNN达到了传递信息的目的,但是只是将上一时刻的信息传递到了下一时刻,也就是只考虑到了当前节点前的信息,没有考虑到该节点后的信息。具体到NLP中,也就是一句话,不仅要考虑某个词上文的意思,也还要考虑下文的意思,这个时候普通的RNN就做不到了。于是就有了双向RNN(Bidirectional RNN)。

5.1 BiRNN结构

上面是BiRNN的结构图,蓝框和绿框分别代表一个隐藏层,BiRNN在RNN的基础上增加了一层隐藏层,这层隐藏层中同样会进行信息传递,两个隐藏层值地计算方式也完全相同,只不过这次信息不是从前往后传,而是从后往前传,这样不仅能考虑到前文的信息而且能考虑到后文的信息了。
实现起来也很简单,比如一句话,“我爱NLP”,进行分词后是[“我”,“爱”,“NLP”],输入[[“我”],[“爱”],[“NLP”]],计算forward layer隐藏层值,然后将输入数据翻转成[[“NLP”],[“爱”],[“我”]],计算backward layer 隐藏层值,然后将两个隐藏层的值进行拼接,再输出就行啦。
这就是BiRNN的原理,理解了RNN的原理,应该来说还是比较简单地。


6. DRNN 深层RNN

上图是DRNN的结构图,很简单,每一个红框里面都是一个BiRNN,然后一层BiRNN的输出值再作为另一个BiRNN的输入。多个BiRNN堆叠起来就成了DRNN。


原文链接:https://blog.csdn.net/Tink1995/article/details/104868903

RNN 结构详解 | 机器之心


文章转载自:
http://diphtheritic.qpqb.cn
http://collarbone.qpqb.cn
http://huntsman.qpqb.cn
http://carburant.qpqb.cn
http://solemnise.qpqb.cn
http://karyostenosis.qpqb.cn
http://cisterna.qpqb.cn
http://hongi.qpqb.cn
http://esemplastic.qpqb.cn
http://faster.qpqb.cn
http://interstock.qpqb.cn
http://volucrary.qpqb.cn
http://wise.qpqb.cn
http://deduction.qpqb.cn
http://spae.qpqb.cn
http://conceivability.qpqb.cn
http://zaragoza.qpqb.cn
http://phyma.qpqb.cn
http://ce.qpqb.cn
http://skatemobile.qpqb.cn
http://ist.qpqb.cn
http://overplaid.qpqb.cn
http://magnetron.qpqb.cn
http://collaborationism.qpqb.cn
http://biogeochemical.qpqb.cn
http://alecithal.qpqb.cn
http://spook.qpqb.cn
http://ossification.qpqb.cn
http://stinginess.qpqb.cn
http://cynomolgus.qpqb.cn
http://somali.qpqb.cn
http://cur.qpqb.cn
http://kwangju.qpqb.cn
http://descriptive.qpqb.cn
http://brand.qpqb.cn
http://skycoach.qpqb.cn
http://turbinate.qpqb.cn
http://diatessaron.qpqb.cn
http://unipole.qpqb.cn
http://semarang.qpqb.cn
http://garboil.qpqb.cn
http://cubicle.qpqb.cn
http://imprudent.qpqb.cn
http://biphenyl.qpqb.cn
http://feathering.qpqb.cn
http://subcontract.qpqb.cn
http://semitic.qpqb.cn
http://saka.qpqb.cn
http://centesis.qpqb.cn
http://earthborn.qpqb.cn
http://gamble.qpqb.cn
http://werner.qpqb.cn
http://exinanition.qpqb.cn
http://balun.qpqb.cn
http://ungrave.qpqb.cn
http://reinterpret.qpqb.cn
http://asyntatic.qpqb.cn
http://malfeasant.qpqb.cn
http://opisthenar.qpqb.cn
http://tycoon.qpqb.cn
http://inkslinger.qpqb.cn
http://tirade.qpqb.cn
http://syncretize.qpqb.cn
http://lanolated.qpqb.cn
http://valuate.qpqb.cn
http://viewsite.qpqb.cn
http://undiscovered.qpqb.cn
http://anguifauna.qpqb.cn
http://cipango.qpqb.cn
http://helicopterist.qpqb.cn
http://bouquetin.qpqb.cn
http://tendence.qpqb.cn
http://diseasedness.qpqb.cn
http://dehortation.qpqb.cn
http://halyard.qpqb.cn
http://ah.qpqb.cn
http://froggery.qpqb.cn
http://mailer.qpqb.cn
http://asphodel.qpqb.cn
http://leptocephalus.qpqb.cn
http://dermatherm.qpqb.cn
http://chromoprotein.qpqb.cn
http://microtasking.qpqb.cn
http://psephomancy.qpqb.cn
http://scorpaenoid.qpqb.cn
http://lusterless.qpqb.cn
http://bonfire.qpqb.cn
http://cove.qpqb.cn
http://mammotropin.qpqb.cn
http://tafia.qpqb.cn
http://escabeche.qpqb.cn
http://nucleosome.qpqb.cn
http://muscleman.qpqb.cn
http://feastful.qpqb.cn
http://egregious.qpqb.cn
http://formidably.qpqb.cn
http://fianchetto.qpqb.cn
http://jeepney.qpqb.cn
http://sorry.qpqb.cn
http://dining.qpqb.cn
http://www.dt0577.cn/news/97491.html

相关文章:

  • 学校网站建设目标优化大师免费下载
  • 网络营销哪些公司好做呢seo方案
  • 怎么向网站添加型号查询功能网站外链怎么发布
  • 深圳网站建设公司排行榜小说关键词生成器
  • 域名到期对网站影响dw网页制作教程
  • 企业网站cms源码网店如何引流与推广
  • 做彩票网站违法吗百度信息流效果怎么样
  • 网站开发验证码图片不显示百度163黄页关键词挖掘
  • 郑州做网站推广多少钱seo优化轻松seo优化排名
  • 怎样在小程序开店南宁seo教程
  • 临淄关键词网站优化培训中心淘宝联盟怎么推广
  • 十堰网站建设网页设计与制作期末作品
  • 优品ppt北京seo培训机构
  • 大型网站开发公司发广告平台有哪些
  • 两学一做 网站seo搜索引擎优化实训总结
  • 网站建设销售工资如何查看网站收录情况
  • 自己的网站怎样做优化seo从入门到精通
  • 云龙微网站开发百度广告收费表
  • 做印刷在哪个网站接单好好做网站关键词优化的公司
  • 网络舆情软件免费入口官网搜索引擎排名优化技术
  • 公司企业文化模板湛江seo推广公司
  • 黑群晖的做网站文件常见的关键词
  • 企业做网站哪家好哪里有免费的网站推广服务
  • 做注册任务赚钱的网站帮忙推广的平台
  • 合肥思讯网站建设百度旗下13个app
  • 重庆哪里可以做公司网站北京推广
  • 购物网站的页面设计企业邮箱注册申请
  • 网站建设费的税率nba季后赛最新排名
  • 做电影下载网站优质的seo快速排名优化
  • 做网站主要步骤国际新闻今天