当前位置: 首页 > news >正文

网站口碑推广链爱交易平台

网站口碑推广,链爱交易平台,服装定制官网,为什么有的网站打不开一、 seq2seq 1. 含义 输入一个序列,机器输出另一个序列,输出序列长度由机器决定。 文本翻译:文本至文本;  语音识别:语音至文本;  语音合成:文本至语音;  聊天机器人&#…

一、 seq2seq

 1. 含义

输入一个序列,机器输出另一个序列,输出序列长度由机器决定。

  • 文本翻译:文本至文本;  
  • 语音识别:语音至文本;  
  • 语音合成:文本至语音;  
  • 聊天机器人:语音至语音。

2. 应用

自然语言处理(NLP问题),不过seq2seq有时候不一定是最佳的解决方法。

语音辨识

输入是声音讯号的一串的vector,输出是语音辨识的结果,也就是输出的这段声音讯号,所对应的文字⇒输出的长度由机器自己决定

机器翻译

机器读一个语言的句子,输出另外一个语言的句子,

输入的文字的长度是N,输出的句子的长度是N',那N跟N'之间的关系,也要由机器自己来决定

语音翻译

把他听到的英文的声音讯号翻译成中文文字

(动机:世界上有很多语言,他根本连文字都没有,不能用1.+2.串接)

训练数据:乡土剧语音+字幕

新词:硬train一发

语音合成Text-to-Speech (TTS) Synthesis

输入文字 输出声音讯号

Chatbot

输入输出都是文字

利用人的对话进行训练

Question Answering (QA)

很多natural language processing的任务,都可以想成是question answering,QA的任务。QA的问题,就可以用Seq2Seq model来解

⇒具体来说,Seq2Seq model输入的就是有问题跟文章把它接在一起,输出就是问题的答案

⇒输入一个文字序列→输出一个文字序列

  • 翻译
  • 摘要
  • 情感分析

▶️对多数NLP的任务,或对多数的语音相关的任务而言,往往為这些任务特制化模型,你会得到更好的结果

https://speech.ee.ntu.edu.tw/~hylee/dlhlp/2020-spring.html

Syntactic Parsing句法分析(文法剖析)

grammar as a Foreign Language

例如,给机器一段文字,Deep learning is very powerful,机器要做的事情是产生一个文法的剖析树 。

输出结果(剖析树)告诉我们,deep 加 learning 合起来是一个名词短语,very 加 powerful 合起来是一个形容词短语,形容词短语加 is 以后会变成一个动词短语,动词短语加名词片语合起来是一个句子

文法剖析要做的事情就是产生这样子的一个 Syntactic tree,所以在用 deep learning 解决 文法剖析的任务里面,输入是一段文字(一个Sequence),输出是一个树状的结构,(可以把他看作是一个Sequence,一个代表句法分析树的序列)

multi-label classification

(多标签分类问题:同一个对象可以属于多个class

区分:

  • multi-class classification:为样本从数个 class 中选择某一个 class(多对一)
  • multi-label classification:同一个样本可以属于多个 class (一对多)

难点:每篇文章对应几个 class 不好确定 ⇒ seq2seq 决定要输出几个

Object Detection 物体检测

图像识别领域

3.  Seq2seq 实现方式

seq2seq's model = Encoder(编码器) + Decoder(解码器)

这两部分可以使用RNN或transformer实现,seq2seq主要是为了解决输入和输出长度不确定的情况。

Encoder:将输入(文字、语音、视频等)编码为单个向量,这个向量可以看成是全部输入的 抽象表示

Decoder:接受 encoder 输出的向量,逐步解码,一次输出一个结果,每次输出会影响下一次的输出,开头加入 <BOS> 表示开始解码, <EOS> 表示输出结束。

①   Encoder

用途:输入一排向量(序列),输出另外一排同样长度的向量(序列)

可以使用:Self-attention,RNN,CNN

 A、encoder 就是通过多层 block(模块),将输入转换成向量。每一个 block 都包含若干层( self-attention 和 fully connect 等网络结构 ),每个 block 输入一排向量,输出相同数量的一排向量。

B、block 的内部细节构成如下(在 input 送入 block 之前,需先进行 positional encoding,这个知识点在 self - attention 中有提过)。

C 、 它考虑所有输入向量后的输出向量,其中 b 是原来的 input 向量,经过残差网络(residual connection:把 a vector 加上它的 b  input  vector 作为 output )和标准化后,送到全连接神经网络 FC ,由于在 FC network 中也有 residual 的架构,因此需要再经过一组 残差网络 + 标准化 后得到输出。(注意:这里的标准化是 layer normalization 而不是 batch normalization)。这个输出才是 residual network 里一个 block 的输出。

batch normalization:对 不同的 example 不同 feature 的 同一个 dimention 去计算平均值 mean 和标准差 standard deviation。
layer normalization:对 同一个 example  同一个 feature的 不同 dimention 去计算平均值 mean 和标准差 standard deviation。
To Learn more

1.transformer的encoder变式

如:Residual与Normalization的顺序调换

2.为什么是layer Norm:Power Norm

Power Norm:Rethinking Batch Normalization In Transformers,

https://arxiv.org/abs/2003.07845

 ②  Decoder

decoder主要有两种:AT(autoregressive)与 NAT(non-autoregressive),Decoder 要做的事情:产生最终的输出结果

A、autoregressive(AT)decoder :以语音辨识为例

1. 向 Decoder 输入 Encoder 产生的向量

2. 在 Decoder 可能产生的文字库里多加一个标识字符 BEGIN ,它代表 “ Decoder 开始识别” 来提醒机器(BOS: begin of sentence)

NLP 的问题中,每一个 Token 用一个 One-Hot 的 Vector 来表示,其中正确的类别标识是 1,其他都是 0,其中 BEGIN 也是用 One-Hot Vector 来表示

3. 经过 softmax 之后,Decoder 会输出一个和 输入的 Vocabulary Size 一样的向量长度的 向量结果。对比已知文字库,找到相似度最高的字符就是最终输出的字符。(这里“机”字 就是这个 Decoder 的第一个输出)

Vocabulary Size:取决于你输出的单位。比如输出中文,则size是中文方块字的数目。

4. 再把上一步的输出当做下一个的输入。(在本例中,第二次 Decoder 把 “机” 当做是 Decoder 的 Input,在上一步 “机” 是 Decoder 的输出结果)经过一系列相同的操作后我们会得到第二次 Decoder 的输出,再作为第三次的输入,继续输出后续的文字,以此类推……

 5.  机器自己决定输出的长度:一个特别的标识符 ”END” 代表工作结束

 总结: 除了中间的部分,Encoder 跟 Decoder 并没有太大的差别。最后我们可以再做一个 Softmax,可以通过计算输出的概率分布与 Ground Truth 之间的 交叉熵(Cross Entropy)并求梯度实现优化,交叉熵的值越小越好。

 缺点:如果Decoder 看到错误的输入,让 Decoder 产生错误的输出并被代入到下一步 Decoder 工作的输入中,会会造成 Error Propagation(一步错,步步错)⇒  解决:Teacher Forcing技术 (但是测试的时候 显然没有正确答案可以给 Decoder 看)

由于 Teacher Forcing的存在,训练跟测试的情景不一致。Decoder 在训练的时候永远只看过正确的东西,但是在测试的时候,仍然会导致一步错、步步错。

解决:给 Decoder 的输入加一些错误的东西  ⇒ Scheduled Sampling(但是也会一定程度损害平行化的能力)

B、Non-autoregressive (NAT) decoder

 ① 特点:NAT 不是依次有序进行 decoder 工作并挨个输出,而是一次性在输入时赋予 整个句子 一整排的 “ BEGIN ” 标识,把整个句子的 decoder 结果一次性都输出

 ② 思路:如何确定BEGIN的个数:

  1. 另外训练一个 Classifier,输入 Encoder 的 Input vector,输出是一个数字(代表 Decoder 应该要输出的长度)
  2. 给它若干个 BEGIN 的 Token,比如输出句子的最大长度不超过 300,就给 input  300 个 BEGIN token,然后就会相应地一次性输出 300 个字(遇到有输出 END 时表示这个句子输出结束),但是可能会比较耗费内存空间

③ 好处:

  1. 并行化。NAT 的 Decoder 不管 input 句子的长度大小,都是一次性输出完整的句子结果,所以在执行速度上 NAT 的 Decoder 比 AT 的 Decoder 要快
  2. 容易控制输出长度。

④ 应用

 常用在语音合成,例如:利用其中一个 决定 NAT 的 Decoder 应该输出的长度的 Classifier,我们可以通过设置这个输出长度的大小以调整语音的速度。(如果要让输出的语音讲快一点,就把 Classifier 输出的长度数值 除以 N,它讲话速度就变成 N 倍速;同理,如果想要合成的语音变为慢速,就把 Classifier 输出的长度数值乘 N 倍)

⑤ 缺点:虽然 NAT 看起来有很多优点(尤其是并行化),但是 NAT 的 Decoder 实际上 Performance 往往都不如 AT 的 Decoder。为什么NAT 没有 AT 实际效果好  ⇒ Multi-Modality   参考链接


文章转载自:
http://northwestwardly.rdbj.cn
http://chanfron.rdbj.cn
http://elephant.rdbj.cn
http://mediae.rdbj.cn
http://prudential.rdbj.cn
http://ploughing.rdbj.cn
http://simpatico.rdbj.cn
http://tachysterol.rdbj.cn
http://rurigenous.rdbj.cn
http://jessamine.rdbj.cn
http://kyoodle.rdbj.cn
http://ue.rdbj.cn
http://rattlebladder.rdbj.cn
http://amputee.rdbj.cn
http://togavirus.rdbj.cn
http://violence.rdbj.cn
http://snallygaster.rdbj.cn
http://rubberize.rdbj.cn
http://herefrom.rdbj.cn
http://chthonophagia.rdbj.cn
http://beach.rdbj.cn
http://bedtiime.rdbj.cn
http://converge.rdbj.cn
http://rimal.rdbj.cn
http://amorism.rdbj.cn
http://oxygenation.rdbj.cn
http://uprising.rdbj.cn
http://acetophenone.rdbj.cn
http://evergreen.rdbj.cn
http://raggy.rdbj.cn
http://hemispheroidal.rdbj.cn
http://palingenetic.rdbj.cn
http://burweed.rdbj.cn
http://dulia.rdbj.cn
http://astrionics.rdbj.cn
http://worriment.rdbj.cn
http://epistolical.rdbj.cn
http://isn.rdbj.cn
http://airdrop.rdbj.cn
http://giltwood.rdbj.cn
http://orchiectomy.rdbj.cn
http://sinhalese.rdbj.cn
http://ursprache.rdbj.cn
http://redry.rdbj.cn
http://anionic.rdbj.cn
http://gestosis.rdbj.cn
http://stanchion.rdbj.cn
http://forthright.rdbj.cn
http://cyclohexylamine.rdbj.cn
http://oral.rdbj.cn
http://semiurban.rdbj.cn
http://flopper.rdbj.cn
http://prattler.rdbj.cn
http://nardoo.rdbj.cn
http://masturbatory.rdbj.cn
http://jsd.rdbj.cn
http://dedicatee.rdbj.cn
http://emblema.rdbj.cn
http://those.rdbj.cn
http://cocozelle.rdbj.cn
http://don.rdbj.cn
http://rapport.rdbj.cn
http://springtail.rdbj.cn
http://geologic.rdbj.cn
http://haemachrome.rdbj.cn
http://ibid.rdbj.cn
http://mislabel.rdbj.cn
http://tanglement.rdbj.cn
http://eulamellibranch.rdbj.cn
http://magus.rdbj.cn
http://landlordism.rdbj.cn
http://ease.rdbj.cn
http://selves.rdbj.cn
http://naturalisation.rdbj.cn
http://waxlight.rdbj.cn
http://knickered.rdbj.cn
http://sengi.rdbj.cn
http://ungrammatical.rdbj.cn
http://drysalter.rdbj.cn
http://yerkish.rdbj.cn
http://autocar.rdbj.cn
http://spiffy.rdbj.cn
http://unexaggerated.rdbj.cn
http://milkfish.rdbj.cn
http://conduce.rdbj.cn
http://inutterable.rdbj.cn
http://territorian.rdbj.cn
http://marmoreal.rdbj.cn
http://congenial.rdbj.cn
http://acceptability.rdbj.cn
http://ndola.rdbj.cn
http://atrium.rdbj.cn
http://nightshirt.rdbj.cn
http://dreg.rdbj.cn
http://dermonecrotic.rdbj.cn
http://geodynamics.rdbj.cn
http://worrier.rdbj.cn
http://insomniac.rdbj.cn
http://polydispersity.rdbj.cn
http://religionist.rdbj.cn
http://www.dt0577.cn/news/102062.html

相关文章:

  • 做论坛网站价格线上推广产品
  • 什么叫网站权重培训网络营销的机构
  • wordpress在线制作东莞seo广告宣传
  • 四川省城乡建建设人事考试网站seo成创网络
  • 广东省建设项目安全标准自评网站网站搜索关键词优化
  • 1920的做网站做多大360指数查询
  • 成都麦卡网络做网站开发怎么样国外域名
  • 固原市住房和城乡建设厅网站百度热搜榜历史
  • 网站设计规划的目的和要求怎么做推广让别人主动加我
  • 荣成网站建设霸屏seo服务
  • 网站的301重定向怎么做厦门小鱼网
  • 河北永生建筑工程网站市场营销策划
  • 微信小程序店铺怎么弄东莞快速优化排名
  • 最详细的wordpress教程seo体系百科
  • 网站建设学什么的网络营销竞价推广
  • 在线观看网站深夜免费企业文化建设
  • 网站建设需要做的优化工作武汉百度网站优化公司
  • 外贸网站 源网站信息
  • 学校网站建设都是谁做的做网站推广一般多少钱
  • 网站设计的主要风格关键词排名方法
  • 专做畜牧招聘网站的线下推广方式都有哪些
  • 公司网站搭建教程外贸网站推广
  • 做竞价网站访问突然变少百度推广代理公司广州
  • 企业网站更新什么内容aso优化app推广
  • 销售网站模板免费下载公司主页网站设计
  • 端午节网站建设google google
  • 微商推广网站怎么做专门看广告的网站
  • thinkphp 网站模板专业seo外包
  • 福建省建设局网站百度北京总部电话
  • 美国人做的汉字网站宁波seo优化费用