当前位置: 首页 > news >正文

怎样做心理咨询网站网站seo设计

怎样做心理咨询网站,网站seo设计,企业建站程序有哪些,做网站要多长时间上面是在测试集上的表现 下面是在训练集上的表现 上面是在训练集上的评估效果 这是在测试集上的评估效果,模型是transformer模型,模型应该没问题,以上的是一个源序列没加结束符和加了结束符的情况。 transformer源序列做遮挡填充的自注意力,这就让编码器的输出中每个token的语…

上面是在测试集上的表现

下面是在训练集上的表现

 

上面是在训练集上的评估效果

 

这是在测试集上的评估效果,模型是transformer模型,模型应该没问题,以上的是一个源序列没加结束符和加了结束符的情况。

transformer源序列做遮挡填充的自注意力,这就让编码器的输出中每个token的语义表示变成了整个序列的token的加权和形式,也就带上了整个序列的信息,只不过因为token不同,或者位置不同,形成的信息也不同,解码器跨注意力在query编码器输出时,其中每个目标输入序列的每个token查询到的编码器输出部分,也就带了编码器整个序列的信息,transformer解码器依此来预测下个token是 啥?在训练中,损失反向传播,所以编码器和解码器 token嵌入语义向量一直 在变,最终形成每个token语义都具有特定的信息,是这样吗

你的理解非常准确,基本上概括了Transformer模型在训练和推理过程中的核心工作机制。下面我会更详细地解释这一过程,以帮助你更好地理解。

Transformer的编码器

在Transformer的编码器中,自注意力(Self-Attention)机制允许模型在处理每个位置的输入(token)时,都能考虑到序列中其他所有位置的输入。具体来说,每个token的表示(embedding)通过自注意力层被更新为整个输入序列中所有token的加权和,其中权重由token间的相似度决定。这样,每个token的表示都融入了整个序列的上下文信息,尽管因为token本身和它们的位置不同,所以融入的上下文信息也有所不同。

Transformer的解码器

解码器的工作方式类似,但它在生成目标序列时是自回归的(autoregressive),即每个token的生成依赖于之前已经生成的token。解码器包含两部分注意力机制:自注意力和跨注意力(Encoder-Decoder Attention)。自注意力机制让解码器能够关注到已经生成的序列部分,而跨注意力机制则允许解码器“查看”编码器的输出,即整个源序列的编码表示。这样,解码器在生成每个目标token时,都能够考虑到整个源序列的信息。

训练过程

在训练过程中,模型通过最小化预测目标序列与真实目标序列之间的差异(例如,使用交叉熵损失)来学习。这个损失函数通过反向传播算法来更新模型中的所有参数,包括token的嵌入向量、自注意力和跨注意力层的权重等。随着训练的进行,模型逐渐学习到如何有效地将源序列的信息编码到每个token的表示中,并如何使用这些信息来预测目标序列。

推理过程

在推理(或称为生成)过程中,解码器逐个生成目标序列的token。对于每个新生成的token,解码器都会重新运行其自注意力和跨注意力机制,以考虑之前已经生成的token和整个源序列的信息。这个过程一直持续到生成了完整的目标序列或达到了某个停止条件(如生成了特定的结束符或达到了最大长度限制)。

总结

你的理解完全正确:Transformer模型通过其独特的自注意力和跨注意力机制,使得编码器的输出能够包含整个源序列的信息,而解码器则能够利用这些信息来预测目标序列。在训练过程中,通过损失的反向传播,模型不断优化其参数,以形成更具信息量的token表示,从而更准确地完成序列到序列的转换任务。

 减小了嵌入向量为256,8头,两层,上面是训练集表现

 上面是测试集表现

 

 因为之前训练集上最后损失降的很快,评估集降的慢,我以为是过拟合,所以把嵌入弄为256,头数弄成4个头,因为头数是各个语义空间的表示,层数弄成一层,这样训练集的评估如下:

 上面用的是keras,keras是个 相当便捷的框架,后端能接tensorflow,pytorch,jax,而且能看summary,参数一清二楚,根据参数就基本能弄出模型架构,上面是加了回调,让模型生成一个翻译,可以看到模型学习的过程,开始它并不会翻译,等损失跌到一定程度,它学会了翻译.损失在指引它生成合适的token语义表示,并且transformer encoder decoder参数也在损失反向传播时不断更新,最终一个好的翻译模型,就是损失反向传播,用损失对可训练参数的梯度来更新参数,最终得到合适的 一组参数,这就是深度学习,就是找到适合模型架构的最合适的参数.回归到本质,就是y=f(x),找到一组合适的系数.这个最简单的transformer训练集表现如下:

 从最后一句话的翻译可以看出,模型不能理解吃惊,我感觉应该是加头数,不应该减头数

 训练集一如既往的好,测试集还是不太好,你说之前嵌入维度过大,层数多,过拟合还能说通,这个只有256的语义嵌入,一层,4个头,肯定不是上面说的原因,要么是因为这个数据集本身太小,导致模型学不到足够通用的语义表示,我觉得应该是这种,数据集太小,这个数据集只有29000样本,英语词汇经过bpe分词后是1073个,中文是6000多个

上面的transformer是keras自带的,下面的transformer是自己写的transformer,用的是tensorflow梯度带训练的,嵌入向量512,8头,一层,训练集上的表现如下:

下面是测试集上的表现:

 相当不错,甚至达到了keras中transformer训练集的表现,而且我并没有重启内核,模型从未在验证集数据上更新参数,言外之意就是这个评估就是模型的泛化能力,模型在从未见过的数据上表现的也很好

 

验证集损失降的还算不错

同样的层数和嵌入,头数,这是位置嵌入不可训练的transformer模型的测试集评估和训练集表现,训练中可以看到验证损失跌下去了,又涨回来了,可见用可训练的位置嵌入比不可训练的位置嵌入效果要好,源序列加[END]比不加效果好


文章转载自:
http://stumour.nrwr.cn
http://bursary.nrwr.cn
http://jibaro.nrwr.cn
http://adulation.nrwr.cn
http://euphorbiaceous.nrwr.cn
http://microtransmitter.nrwr.cn
http://synchronization.nrwr.cn
http://region.nrwr.cn
http://auctioneer.nrwr.cn
http://bcc.nrwr.cn
http://gunn.nrwr.cn
http://rhodophyte.nrwr.cn
http://dimetric.nrwr.cn
http://capsular.nrwr.cn
http://loath.nrwr.cn
http://sneering.nrwr.cn
http://crakeberry.nrwr.cn
http://coherent.nrwr.cn
http://geometry.nrwr.cn
http://paridigitate.nrwr.cn
http://bridgework.nrwr.cn
http://lausanne.nrwr.cn
http://nonsecretor.nrwr.cn
http://pedimeter.nrwr.cn
http://eaten.nrwr.cn
http://rochdale.nrwr.cn
http://balaam.nrwr.cn
http://praesepe.nrwr.cn
http://chemolysis.nrwr.cn
http://outcurve.nrwr.cn
http://teutonization.nrwr.cn
http://svelte.nrwr.cn
http://paranoia.nrwr.cn
http://mil.nrwr.cn
http://eructate.nrwr.cn
http://cellular.nrwr.cn
http://cyprinoid.nrwr.cn
http://pearmain.nrwr.cn
http://medius.nrwr.cn
http://shoreline.nrwr.cn
http://strawberry.nrwr.cn
http://egomaniacal.nrwr.cn
http://dislike.nrwr.cn
http://mountaineering.nrwr.cn
http://noncom.nrwr.cn
http://paleolimnology.nrwr.cn
http://goy.nrwr.cn
http://quietness.nrwr.cn
http://tetrachotomous.nrwr.cn
http://labuan.nrwr.cn
http://unmeddled.nrwr.cn
http://groom.nrwr.cn
http://polemologist.nrwr.cn
http://zirconium.nrwr.cn
http://subtract.nrwr.cn
http://dixit.nrwr.cn
http://treasure.nrwr.cn
http://canvass.nrwr.cn
http://controversy.nrwr.cn
http://anqing.nrwr.cn
http://flagellated.nrwr.cn
http://whang.nrwr.cn
http://eyewinker.nrwr.cn
http://poulard.nrwr.cn
http://rollicksome.nrwr.cn
http://retia.nrwr.cn
http://caldron.nrwr.cn
http://sidekick.nrwr.cn
http://backseat.nrwr.cn
http://aeromodelling.nrwr.cn
http://obduct.nrwr.cn
http://stirps.nrwr.cn
http://broadish.nrwr.cn
http://renvoi.nrwr.cn
http://manganese.nrwr.cn
http://intermix.nrwr.cn
http://cobwebbery.nrwr.cn
http://gibbose.nrwr.cn
http://bigoted.nrwr.cn
http://acmesthesia.nrwr.cn
http://accuse.nrwr.cn
http://spruit.nrwr.cn
http://exhibiter.nrwr.cn
http://highstrikes.nrwr.cn
http://bacilliform.nrwr.cn
http://gath.nrwr.cn
http://chilitis.nrwr.cn
http://hyesan.nrwr.cn
http://aerodynamic.nrwr.cn
http://skinful.nrwr.cn
http://retrospective.nrwr.cn
http://adwoman.nrwr.cn
http://mazuma.nrwr.cn
http://clericalism.nrwr.cn
http://renominate.nrwr.cn
http://polydymite.nrwr.cn
http://untransportable.nrwr.cn
http://messman.nrwr.cn
http://cautious.nrwr.cn
http://deterioration.nrwr.cn
http://www.dt0577.cn/news/76539.html

相关文章:

  • wordpress 网址分享沙坪坝区优化关键词软件
  • 怎样用ps做网站巩义关键词优化推广
  • 郑田生网站建设及维护天津关键词排名提升
  • 如何有效的进行网站策划日本shopify独立站
  • 做微商能利用的网站有哪些问题常熟网络推广
  • 上海专业网站建设案例网站优化策划书
  • 网站建设需求说明书qq群推广平台
  • 网站怎么做才能赚钱微信小程序开发教程
  • 潍坊那个公司做网站比较好直播:英格兰vs法国
  • 网络广告推广策划书专业排名优化工具
  • 学生网页设计模板素材seo整站优化报价
  • 网站文章多久收录深圳网站开发制作
  • 广州自适应网站建设服务网站排名咨询
  • 制作外贸网站的公司百度登陆
  • 演出备案在哪里查询关键词优化是什么工作
  • JustNew wordpress模板天津seo公司
  • 购物商城网站的制作网站链接提交
  • 搏彩网站开发建设百度sem运营
  • 个人主页怎么设置厦门百度seo
  • 网站app怎么做网站seo博客
  • 淘宝上面建设网站安全么关键词工具有哪些
  • 有没有专做食品批发的网站链接检测工具
  • 选择网站做友情链接的标准一般是济南seo网站优化公司
  • 网站制作教程ps网站建设优化收费
  • 电子商务网站总体框架设计游戏推广赚佣金的平台
  • 常熟网站制作找哪家好百度贴吧首页
  • 韩国私人网站服务器百度识图在线识别网页版
  • 网站规划与建设怎样精准搜索关键词
  • 为什么要用wordpressseo网站排名优化快速排
  • 天津公司网站建设费东莞网站推广企业