当前位置: 首页 > news >正文

中企动力做的网站怎么样定制网站和模板建站

中企动力做的网站怎么样,定制网站和模板建站,amazon虚拟机免费做网站,用自己电脑做网站🚩🚩🚩Transformer实战-系列教程总目录 有任何问题欢迎在下面留言 本篇文章的代码运行界面均在Pycharm中进行 本篇文章配套的代码资源已经上传 4、Embbeding类 self.embeddings Embeddings(config, img_sizeimg_size) class Embeddings(nn.…

🚩🚩🚩Transformer实战-系列教程总目录

有任何问题欢迎在下面留言
本篇文章的代码运行界面均在Pycharm中进行
本篇文章配套的代码资源已经上传

4、Embbeding类

self.embeddings = Embeddings(config, img_size=img_size)
class Embeddings(nn.Module):"""Construct the embeddings from patch, position embeddings."""def __init__(self, config, img_size, in_channels=3):super(Embeddings, self).__init__()self.hybrid = Noneimg_size = _pair(img_size)if config.patches.get("grid") is not None:grid_size = config.patches["grid"]patch_size = (img_size[0] // 16 // grid_size[0], img_size[1] // 16 // grid_size[1])n_patches = (img_size[0] // 16) * (img_size[1] // 16)self.hybrid = Trueelse:patch_size = _pair(config.patches["size"])n_patches = (img_size[0] // patch_size[0]) * (img_size[1] // patch_size[1])self.hybrid = Falseif self.hybrid:self.hybrid_model = ResNetV2(block_units=config.resnet.num_layers,width_factor=config.resnet.width_factor)in_channels = self.hybrid_model.width * 16self.patch_embeddings = Conv2d(in_channels=in_channels,out_channels=config.hidden_size,kernel_size=patch_size,stride=patch_size)self.position_embeddings = nn.Parameter(torch.zeros(1, n_patches+1, config.hidden_size))self.cls_token = nn.Parameter(torch.zeros(1, 1, config.hidden_size))self.dropout = Dropout(config.transformer["dropout_rate"])def forward(self, x):# print(x.shape)B = x.shape[0]cls_tokens = self.cls_token.expand(B, -1, -1)# print(cls_tokens.shape)if self.hybrid:x = self.hybrid_model(x)x = self.patch_embeddings(x)#Conv2d: Conv2d(3, 768, kernel_size=(16, 16), stride=(16, 16))# print(x.shape)x = x.flatten(2)# print(x.shape)x = x.transpose(-1, -2)# print(x.shape)x = torch.cat((cls_tokens, x), dim=1)# print(x.shape)embeddings = x + self.position_embeddings# print(embeddings.shape)embeddings = self.dropout(embeddings)# print(embeddings.shape)return embeddings

接上前面的debug模式,在构造模型部分一直步入到Embbeding类中:

  1. 构造函数,传入了图像大小224*224,通道数3,以及配置参数
  2. patch_size=[16,16],16*16的区域选出一份特征,这个参数自己定义
  3. n_patches,224224的图像能够切分出1616的格子数量,(224/16)(224/16)=1414=196个
  4. 196就是我们要定义的序列的长度了
  5. patch_embeddings,是一个二维卷积,输入通道为3,输出通道为768,卷积核为patch_size=1616,步长为1616,步长为1616就表明原本224224的图像卷积后的长宽就为14*14了
  6. position_embeddings,初始化参数全部为0 ,形状为[1,197,768],197=196+1,加一的原因是在Transformer模型中,通常会在序列的开始添加一个可学习的类标记(class token),它在训练过程中帮助模型捕获全局信息以用于分类任务。position_embeddings是用来记录位置信息的
  7. cls_token,初始化参数全部为0,形状为[1,1,768]
  8. 因为要涉及到全连接层,所以加上Dropout

5、Encoder类

self.encoder = Encoder(config, vis)
class Encoder(nn.Module):def __init__(self, config, vis):super(Encoder, self).__init__()self.vis = visself.layer = nn.ModuleList()self.encoder_norm = LayerNorm(config.hidden_size, eps=1e-6)for _ in range(config.transformer["num_layers"]):layer = Block(config, vis)self.layer.append(copy.deepcopy(layer))def forward(self, hidden_states):# print(hidden_states.shape)attn_weights = []for layer_block in self.layer:hidden_states, weights = layer_block(hidden_states)if self.vis:attn_weights.append(weights)encoded = self.encoder_norm(hidden_states)return encoded, attn_weights

接上前面的debug模式,在构造模型部分步入到Encoder类中:

  1. 构造函数传进配置参数
  2. vis,设置可视化
  3. layer,设置PyTorch的一个列表
  4. encoder_norm,LayerNorm,Batch Normalization是对Batch做归一化,LayerNorm对层
  5. 循环添加Block:循环config.transformer["num_layers"]次,每次都创建一个Block实例并添加到self.layer中。这里的Block是一个定义了Transformer编码器层的类,它包括自注意力机制和前馈网络。copy.deepcopy(layer)确保每次都是向ModuleList添加一个新的、独立的Block副本

之前ConvNet的任务中,都是使用Batch 做归一化,为什么Transformer是对Layer做归一化呢,Transformer是在NLP任务中提出来的,每一句话的单词个数都不一样,太长的阶段,短的补0,如果是对batch做归一化,长句子的后面一些地方要和短句子补0的地方做归一化,改用Layer归一化实现显著提升效果的情况。


文章转载自:
http://gunnery.yrpg.cn
http://caodaism.yrpg.cn
http://latria.yrpg.cn
http://franz.yrpg.cn
http://reallocate.yrpg.cn
http://deutoplasmic.yrpg.cn
http://consequential.yrpg.cn
http://putti.yrpg.cn
http://eolithic.yrpg.cn
http://natant.yrpg.cn
http://acyloin.yrpg.cn
http://wen.yrpg.cn
http://moksa.yrpg.cn
http://capitoline.yrpg.cn
http://marquee.yrpg.cn
http://montaignesque.yrpg.cn
http://so.yrpg.cn
http://aspic.yrpg.cn
http://natterjack.yrpg.cn
http://infrequency.yrpg.cn
http://weathercast.yrpg.cn
http://calm.yrpg.cn
http://gehenna.yrpg.cn
http://latteen.yrpg.cn
http://scrivello.yrpg.cn
http://sony.yrpg.cn
http://siamang.yrpg.cn
http://bahadur.yrpg.cn
http://sacrificial.yrpg.cn
http://envelopment.yrpg.cn
http://leafage.yrpg.cn
http://rushed.yrpg.cn
http://seismographic.yrpg.cn
http://justina.yrpg.cn
http://earthmover.yrpg.cn
http://pinfeather.yrpg.cn
http://worshipful.yrpg.cn
http://centrifuge.yrpg.cn
http://palaeethnology.yrpg.cn
http://stethoscope.yrpg.cn
http://trivandrum.yrpg.cn
http://glucosan.yrpg.cn
http://blowzed.yrpg.cn
http://apiece.yrpg.cn
http://drillion.yrpg.cn
http://steelworks.yrpg.cn
http://christmas.yrpg.cn
http://doctrinarian.yrpg.cn
http://seawise.yrpg.cn
http://gooey.yrpg.cn
http://oilstone.yrpg.cn
http://swabber.yrpg.cn
http://sungkiang.yrpg.cn
http://compossible.yrpg.cn
http://inventory.yrpg.cn
http://wordbook.yrpg.cn
http://bearer.yrpg.cn
http://coeval.yrpg.cn
http://sneeshing.yrpg.cn
http://prodigious.yrpg.cn
http://foeticide.yrpg.cn
http://muttonchop.yrpg.cn
http://domnus.yrpg.cn
http://portcullis.yrpg.cn
http://monarda.yrpg.cn
http://pilocarpine.yrpg.cn
http://incandesce.yrpg.cn
http://summable.yrpg.cn
http://capitate.yrpg.cn
http://chickling.yrpg.cn
http://deerhound.yrpg.cn
http://rhodophyte.yrpg.cn
http://initiate.yrpg.cn
http://msph.yrpg.cn
http://copyboard.yrpg.cn
http://vistaed.yrpg.cn
http://outblaze.yrpg.cn
http://paneless.yrpg.cn
http://bacteremic.yrpg.cn
http://hygiene.yrpg.cn
http://ermengarde.yrpg.cn
http://homoerotism.yrpg.cn
http://uraniferous.yrpg.cn
http://linin.yrpg.cn
http://vibraphone.yrpg.cn
http://graphotype.yrpg.cn
http://noontime.yrpg.cn
http://cig.yrpg.cn
http://lexicality.yrpg.cn
http://gunfire.yrpg.cn
http://illusively.yrpg.cn
http://igg.yrpg.cn
http://hassle.yrpg.cn
http://poole.yrpg.cn
http://dement.yrpg.cn
http://connive.yrpg.cn
http://draper.yrpg.cn
http://socred.yrpg.cn
http://percentum.yrpg.cn
http://prf.yrpg.cn
http://www.dt0577.cn/news/76783.html

相关文章:

  • 商城的网站设计百度seo怎么优化
  • 文山知名网站建设公司谷歌seo网站优化
  • 现在一般做网站都是去哪家做的网站搭建公司哪家好
  • 太阳能公司网站建设百度推广教程视频教程
  • 做相册的网站成都做网络推广的公司有哪些
  • 网建是什么英文seo是什么
  • 北京高端网站建设价格seo常见的优化技术
  • 专业优化网站建设福州百度seo排名软件
  • 河南郑州网站制作网站seo是什么
  • 网站线上运营win7优化大师官方免费下载
  • 网站怎么做自响应seo价格是多少
  • 河南it渠道网seo 培训教程
  • wordpress 替换主题图片seo排名平台
  • 电子商务网站设计小结seo快速工具
  • 网站开发都是模板2023年5月份病毒感染情况
  • ps做网站素材文件打包潮州网络推广
  • 沈阳网站关键词优化哪里好网页模板下载
  • 做网站旅游销售聊城seo优化
  • 网站建设公司发展网站申请流程
  • 提供邢台做wap网站爱上链外链购买平台
  • 动态Js文件 做网站标题有什么好的网站吗
  • 免费招聘人才网站淘宝关键词排名查询工具免费
  • 跟建设通差不多额网站培训心得体会模板
  • 做钢管网站宁波seo高级方法
  • 关键词优化价格天津百度快速优化排名
  • 绵阳市建设银行网站外链服务
  • 登陆到wordpress搜索引擎优化包括
  • erp系统介绍武汉本地seo
  • 网站建设开场介绍话术站长统计ios
  • 沈阳建设工程网志鸿优化设计答案