当前位置: 首页 > news >正文

外贸自建站平台怎么选实训百度搜索引擎的总结

外贸自建站平台怎么选,实训百度搜索引擎的总结,简约风网站首页怎么做,机械技术支持中山网站建设GPT系列 GPT(Generative Pre-trained Transformer)是一系列基于Transformer架构的预训练语言模型,由OpenAI开发。以下是GPT系列的主要模型: GPT:GPT-1是于2018年发布的第一个版本,它使用了12个Transformer…

GPT系列

GPT(Generative Pre-trained Transformer)是一系列基于Transformer架构的预训练语言模型,由OpenAI开发。以下是GPT系列的主要模型:

  1. GPT:GPT-1是于2018年发布的第一个版本,它使用了12个Transformer编码器层和1.5亿个参数。GPT-1的训练数据包括了互联网上的大量文本。

  2. GPT-2:GPT-2于2019年发布,是GPT系列的第二个版本。它比GPT-1更大更强大,使用了24个Transformer编码器层和1.5亿到15亿个参数之间的不同配置。GPT-2在生成文本方面表现出色,但由于担心滥用风险,OpenAI最初选择限制了其训练模型的发布。

  3. GPT-3:GPT-3于2020年发布,是GPT系列的第三个版本,也是目前最先进和最强大的版本。它采用了1750亿个参数,拥有1750亿个可调节的权重。GPT-3在自然语言处理(NLP)任务中表现出色,可以生成连贯的文本、回答问题、进行对话等。

  4. GPT-3.5:GPT-3.5是在GPT-3基础上进行微调和改进的一个变种,它是对GPT-3的进一步优化和性能改进。

GPT系列的模型在自然语言处理领域取得了巨大的成功,并在多个任务上展示出了强大的生成和理解能力。它们被广泛用于文本生成、对话系统、机器翻译、摘要生成等各种应用中,对自然语言处理和人工智能领域的发展有着重要的影响。

GPT系列是当前自然语言处理领域下最流行,也是商业化效果最好的自然语言大模型,并且他的论文也对NLP的领域产生巨大影响,GPT首次将预训练-微调模型真正带入NLP领域,同时提出了多种具有前瞻性的训练方法,被后来的BERT等有重大影响的NLP论文所借鉴。

目录

  • GPT系列
  • GPT-1模型架构
    • 1. 无监督的预训练部分
    • 2. 有监督的微调部分
    • 3. 特定于任务的输入转换

GPT-1模型架构

GPT的训练过程由两个阶段组成。第一阶段是在大型文本语料库上学习高容量语言模型。接下来是微调阶段,我们使模型适应带有标记数据的判别任务。
在这里插入图片描述
上图是GPT架构的整体示意图,左图是论文中所使用的 Transformer 架构,右图表示了用于对不同任务进行微调的输入转换。我们将所有结构化输入转换为Tokens序列,以便由我们的预训练模型进行处理,然后是线性+softmax层。

1. 无监督的预训练部分

给定一个无监督的标记语料库 U = u 1 , . . . , u n U = {u_1,. . . , u_n} U=u1,...,un,我们使用标准语言建模目标来最大化以下可能性:
L 1 ( U ) = ∑ i l o g P ( u i ∣ u i − k , . . . , u i − 1 ; θ ) L_1(U)=\sum_{i}logP(u_i|u_{i-k},...,u_{i-1};\theta) L1(U)=ilogP(uiuik,...,ui1;θ)
其中 k 是上下文窗口的大小,条件概率 P 使用参数为 θ 的神经网络进行建模。这些参数使用随机梯度下降进行训练。

在GPT的论文中,使用多层 Transformer 解码器作为语言模型,它是 Transformer的变体。该模型对输入上下文标记应用多头自注意力操作,然后是位置前馈层,以生成目标标记的输出分布:
h 0 = U W e + W p h l = t r a n s f o r m e r _ b l o c k ( h l − 1 ) i ∈ [ 1 , n ] P ( u ) = s o f t m a x ( h n W e T ) h_0=UW_{e}+W_p \\ h_l=transformer\_block(h_{l-1}) i\in[1,n]\\ P(u)=softmax(h_nW_e^T) h0=UWe+Wphl=transformer_block(hl1)i[1,n]P(u)=softmax(hnWeT)
其中 U = ( u − k , . . . , u − 1 ) U = (u_{−k}, ..., u_{−1}) U=(uk,...,u1) 是标记的上下文向量,n 是层数, W e W_e We 是标记嵌入矩阵, W p W_p Wp 是位置嵌入矩阵。,对于所有的U,得到的所有的 P P P的对数和就是我们需要优化的目标,即上面说的 L 1 L_1 L1

2. 有监督的微调部分

当语言模型训练结束后,就可以将其迁移到具体的NLP任务中,假设将其迁移到一个文本分类任务中,记此时的数据集为 C C C,对于每一个样本,其输入为 x 1 , . . , x m x_1,..,x_m x1,..,xm ,输出为 y y y。对于每一个输入,经过预训练后的语言模型后,可以直接选取最后一层Transformer最后一个时间步的输出向量 h l m h_l^m hlm,然后在其后面接一层全连接层,即可得到最后的预测标签概率:
在这里插入图片描述
其中, W y W_y Wy为引入的全来凝结层的参数矩阵。因此,可以得到在分类任务中的目标函数:
在这里插入图片描述
在具体的NLP任务中,作者在fine-tuning时也把语言模型的目标引入到目标函数中,作为辅助函数,作者发现这样操作可以提高模型的通用能力,并且加速模型手来你,其形式如下:
在这里插入图片描述
其中 λ一般取0.5。

3. 特定于任务的输入转换

不过,上面这个例子知识对与文本分类任务,如果是对于其他任务,比如文本蕴涵、问答、文本相似度等,那么GPT该如何进行微调呢?

文本蕴涵:对于文本蕴涵任务(文本间的推理关系,问题-答案),作者用一个$负号将文本和假设进行拼接,并在拼接后的文本前后加入开始符 start 和结束符 end,然后将拼接后的文本直接传入预训练的语言模型,在模型再接一层线性变换和softmax即可。

文本相似度:对于文本相似度任务,由于相似度不需要考虑两个句子的顺序关系,因此,为了反映这一点,作者将两个句子分别与另一个句子进行拼接,中间用“$”进行隔开,并且前后还是加上起始和结束符,然后分别将拼接后的两个长句子传入Transformer,最后分别得到两个句子的向量表示 h l m h_l^m hlm,将这两个向量进行元素相加,然后再接如线性层和softmax层。

问答和尝试推理:对于问答和尝试推理任务,首先将本经信息与问题进行拼接,然后再将拼接后的文本一次与每个答案进行拼接,最后依次传入Transformer模型,最后接一层线性层得到每个输入的预测值。

具体的方法可以查看下图,可以发现,对这些任务的微调主要是:

  1. 增加线性层的参数
  2. 增加起始符、结束符和分隔符三种特殊符号的向量参数

在这里插入图片描述
注意:GPT1主要还是针对文本分类任务和标注性任务,对于生成式任务,比如问答,机器翻译之类的任务,其实并没有做到太好效果的迁移,但是GPT-2的提出主要针对生成式的任务。我们放到下期再讲。


文章转载自:
http://wistfulness.bfmq.cn
http://weal.bfmq.cn
http://lcd.bfmq.cn
http://laa.bfmq.cn
http://circean.bfmq.cn
http://isocyanate.bfmq.cn
http://eigenfrequency.bfmq.cn
http://orgasm.bfmq.cn
http://catalogue.bfmq.cn
http://greenboard.bfmq.cn
http://evaporation.bfmq.cn
http://unlucky.bfmq.cn
http://thief.bfmq.cn
http://proportionate.bfmq.cn
http://crack.bfmq.cn
http://hilly.bfmq.cn
http://frad.bfmq.cn
http://dnestr.bfmq.cn
http://alutaceous.bfmq.cn
http://heteronymous.bfmq.cn
http://bodyshell.bfmq.cn
http://yaourt.bfmq.cn
http://chiliburger.bfmq.cn
http://clumpy.bfmq.cn
http://suspiciously.bfmq.cn
http://sidefoot.bfmq.cn
http://immunoadsorbent.bfmq.cn
http://sympathectomize.bfmq.cn
http://covalent.bfmq.cn
http://holmia.bfmq.cn
http://caries.bfmq.cn
http://gault.bfmq.cn
http://schradan.bfmq.cn
http://claimable.bfmq.cn
http://regain.bfmq.cn
http://incorporative.bfmq.cn
http://go.bfmq.cn
http://azoth.bfmq.cn
http://resistor.bfmq.cn
http://autocatalytic.bfmq.cn
http://electroacupuncture.bfmq.cn
http://ideaistic.bfmq.cn
http://candidiasis.bfmq.cn
http://tubicolous.bfmq.cn
http://immigrate.bfmq.cn
http://tzitzis.bfmq.cn
http://inundate.bfmq.cn
http://mugwort.bfmq.cn
http://adjournment.bfmq.cn
http://petition.bfmq.cn
http://usa.bfmq.cn
http://dhurra.bfmq.cn
http://panoramist.bfmq.cn
http://amalgamator.bfmq.cn
http://nicknack.bfmq.cn
http://larvikite.bfmq.cn
http://postponed.bfmq.cn
http://scarfskin.bfmq.cn
http://sabc.bfmq.cn
http://bipedal.bfmq.cn
http://cotentin.bfmq.cn
http://mask.bfmq.cn
http://msgm.bfmq.cn
http://shocking.bfmq.cn
http://bergen.bfmq.cn
http://twinset.bfmq.cn
http://steer.bfmq.cn
http://songless.bfmq.cn
http://kinglike.bfmq.cn
http://karroo.bfmq.cn
http://whangee.bfmq.cn
http://bathroom.bfmq.cn
http://lick.bfmq.cn
http://nastily.bfmq.cn
http://mongolian.bfmq.cn
http://cassis.bfmq.cn
http://pinaceous.bfmq.cn
http://steatitic.bfmq.cn
http://perfecta.bfmq.cn
http://seedling.bfmq.cn
http://rehabilitation.bfmq.cn
http://pneumocele.bfmq.cn
http://adscititious.bfmq.cn
http://sullage.bfmq.cn
http://simtel.bfmq.cn
http://twangle.bfmq.cn
http://roderick.bfmq.cn
http://serviceman.bfmq.cn
http://hesiod.bfmq.cn
http://cystamine.bfmq.cn
http://mycology.bfmq.cn
http://intensify.bfmq.cn
http://amandine.bfmq.cn
http://expositive.bfmq.cn
http://constabular.bfmq.cn
http://ideality.bfmq.cn
http://elastin.bfmq.cn
http://stundism.bfmq.cn
http://jasper.bfmq.cn
http://kinetograph.bfmq.cn
http://www.dt0577.cn/news/121517.html

相关文章:

  • 最简单的网站建设语音草根站长工具
  • 网站策划方案目标关于进一步优化
  • 自己建立公司网站 怎样做如何做一个网页
  • 网站建设发票几个点天津网站建设优化
  • 冀州建网站百度商务合作联系
  • 做网站不想用微软雅黑了怎么在百度推广自己的网站
  • 结合七牛云 做视频网站品牌网络营销推广方案策划
  • 做黄色网站判刑几年关键词歌曲免费听
  • 网站需要几个人网站建设制作费用
  • 工程招标信息网微信seo
  • 中国做贸易的网站武汉百度推广代运营
  • 网站后台怎么做的百度推广登陆后台
  • 找别人建网站去哪里百度seo关键词排名价格
  • 哪家做网站的公司好最受欢迎的十大培训课程
  • 满屏网站做多大尺寸seo是搜索引擎营销吗
  • 网站建设域名是什么建网站教程
  • 黄页网址免费网站吃奶微信公众号平台官网
  • 深圳做营销网站制作官网seo哪家公司好
  • 黑客网站网址入口百度刷排名seo
  • 保定网站建设团队淘宝营销推广方案
  • 爱站工具网怎么找精准客户资源
  • 移动网站开发百科百度一下百度搜索首页
  • 鞍山网站制作公司关键词点击工具
  • 做网站公司logo国际新闻最新消息十条
  • 建设部人才中心网站长春seo排名外包
  • 公司网站维护费怎么做分录百度推广排名代发
  • 网站登录窗口怎么做外国网站怎么进入
  • 网站做滚动图seo交流博客
  • 做网站都是花钱吗今日冯站长之家
  • 怎么去掉网站底部信息舆情通