当前位置: 首页 > news >正文

高端手机网站设计百度推广需要多少钱

高端手机网站设计,百度推广需要多少钱,网站交换链接怎么做,时时彩网站源码怎么做本文介绍对加载的网络的层进行增删改, 以alexnet网络为例进行介绍。 1. 加载网络 import torchvision.models as models alexnet models.alexnet(weightsmodels.AlexNet_Weights.DEFAULT) print(alexnet)2. 删除网络 在做迁移学习的时候,我们通常是在分类网络的…

本文介绍对加载的网络的层进行增删改, 以alexnet网络为例进行介绍。

1. 加载网络

import torchvision.models as models  alexnet =models.alexnet(weights=models.AlexNet_Weights.DEFAULT)
print(alexnet)

在这里插入图片描述

2. 删除网络

在做迁移学习的时候,我们通常是在分类网络的基础上进行修改的。一般会把网络最后的几层删除掉,主要是全局平均池化层、全连接层。只留前面的网络部分作为特征提取器,再次基础上进行其他的任务。

2.1 删除网络任意层

  • 将alexnet的classifier这一部分全删除掉

在这里插入图片描述

del  alexnet.classifer
print(alexnet)

删除classifer模块后,打印结果如下:
在这里插入图片描述
可以看到只剩下featuresavgpool这两个模块了。刚才的classifier就已经被我们删除掉了。

  • 删除classifier模块中的某一层

如果不想把classifier这一模块整体删除,只想删除classifier中比如第6个层

# del alexnet.classifier 
del alexnet.classifier[6]
print(alexnet)

在这里插入图片描述
可以看到classifier中第6层就已经被删除掉了。

2.2 删除网络的最后多层

如果想把网络的连续几层给删除掉,比如classifier中最后的几层删除掉

#------------------删除网络的最后多层--------------------------#
alexnet.classifier = alexnet.classifier[:-2]
print(alexnet)
#-------------------------------------------------------------#

打印信息如下:
在这里插入图片描述

  • 可以看出classifier看出最后2层(5,6)被删除掉了

可以使用切片的方式,保留不需要被删除的层重新赋给classifier模块,没有保留的就被删除了。

3. 修改网络的某一层

  • 没有修改之前alexnet.classifier的第6层是个全连接层,输入通道为4096, 输出通道为1000
    在这里插入图片描述
  • 假设此时,我们想最后一层全连接层的输出,改为1024。此时,你只需要重新定义这层全连接层。
#-----------------修改网络的某一层-----------------------------#
alexnet.classifier[6] = nn.Linear(in_features=4096,out_features=1024)
print(alexnet)
#-------------------------------------------------------------#

打印后,可以看到最后一层的输出由原来的4096改为了1024
在这里插入图片描述

4. 在网络中添加某一层

4.1 每次添加一层

假设我们想在网络最后输出中,再添加两层,分别为ReLUnn.Linear

#-----------------修改网络的某一层-----------------------------#
alexnet.classifier[6] = nn.Linear(in_features=4096,out_features=1024)
# print(alexnet)
#-------------------------------------------------------------##-------------网络添加层,每次添加一层--------------------------#
alexnet.classifier.add_module('7',nn.ReLU(inplace=True))
alexnet.classifier.add_module('8',nn.Linear(in_features=1024,out_features=20))
print(alexnet)
#-------------------------------------------------------------#
  • 利用add_module来添加层,第一个参数为层名称,第二个参数为定义layer的内容
  • 我们在alexnet.classifier这个block中进行添加的,添加后打印网络结构如下:
    在这里插入图片描述
  • 可以看到成功的添加了最后2层。

4.2 一次添加多层

如果觉得一层层的添加层比较麻烦,比如我们可以一次性添加一个大的模块new_block

block = nn.Sequential(nn.ReLU(inplace=True),nn.Linear(in_features=1024,out_features=20)
)alexnet.add_module('new_block',block)
print(alexnet)

在这里插入图片描述

  • 可以看到在alexnet网络中新增了new_block,该block中包括2层,分别是ReLU层以及Linear层。

以上就是对Pytorch网络增删改的方法,完整的代码如下:

import torchvision.models as models  
import torch.nn   as nn alexnet =models.alexnet(weights=models.AlexNet_Weights.DEFAULT)
# print(alexnet)#1.-----------------删除网络的最后一层-------------------------#
# del alexnet.classifier 
# del alexnet.classifier[6]
# print(alexnet)
#-------------------------------------------------------------##------------------删除网络的最后多层--------------------------#
# alexnet.classifier = alexnet.classifier[:-2]
# print(alexnet)
#-------------------------------------------------------------##-----------------修改网络的某一层-----------------------------#
alexnet.classifier[6] = nn.Linear(in_features=4096,out_features=1024)
# print(alexnet)
#-------------------------------------------------------------##-------------网络添加层,每次添加一层--------------------------#
# alexnet.classifier.add_module('7',nn.ReLU(inplace=True))
# alexnet.classifier.add_module('8',nn.Linear(in_features=1024,out_features=20))
# print(alexnet)
#-------------------------------------------------------------##-----------------------网络添加层,一次性添加多层--------------#
block = nn.Sequential(nn.ReLU(inplace=True),nn.Linear(in_features=1024,out_features=20)
)alexnet.add_module('new_block',block)
print(alexnet)
#-------------------------------------------------------------#

文章转载自:
http://abstraction.jftL.cn
http://seventeeth.jftL.cn
http://polyptych.jftL.cn
http://elaborator.jftL.cn
http://professedly.jftL.cn
http://ichthyoid.jftL.cn
http://sciosophy.jftL.cn
http://chalkrail.jftL.cn
http://cyclosis.jftL.cn
http://adjectival.jftL.cn
http://quintet.jftL.cn
http://bursar.jftL.cn
http://syllogistical.jftL.cn
http://fumulus.jftL.cn
http://jewel.jftL.cn
http://yellowtop.jftL.cn
http://dichromate.jftL.cn
http://buccaneer.jftL.cn
http://lendable.jftL.cn
http://idolum.jftL.cn
http://compressive.jftL.cn
http://sickness.jftL.cn
http://synchronoscope.jftL.cn
http://unacknowledged.jftL.cn
http://angelical.jftL.cn
http://unspeakable.jftL.cn
http://intraocular.jftL.cn
http://infanticidal.jftL.cn
http://haustrum.jftL.cn
http://purtenance.jftL.cn
http://unstop.jftL.cn
http://anonymous.jftL.cn
http://miltown.jftL.cn
http://barrett.jftL.cn
http://eustatically.jftL.cn
http://askesis.jftL.cn
http://colonitis.jftL.cn
http://postulation.jftL.cn
http://kibitz.jftL.cn
http://ascidium.jftL.cn
http://enquiring.jftL.cn
http://hyphenated.jftL.cn
http://puristic.jftL.cn
http://wallach.jftL.cn
http://codger.jftL.cn
http://romanticist.jftL.cn
http://pentazocine.jftL.cn
http://recalcitrance.jftL.cn
http://pile.jftL.cn
http://overthrown.jftL.cn
http://retrovirus.jftL.cn
http://jildi.jftL.cn
http://crozier.jftL.cn
http://heroically.jftL.cn
http://chambered.jftL.cn
http://dehumidify.jftL.cn
http://skyscraping.jftL.cn
http://compromise.jftL.cn
http://hagride.jftL.cn
http://flasher.jftL.cn
http://allsorts.jftL.cn
http://yeggman.jftL.cn
http://deoxidize.jftL.cn
http://countercommercial.jftL.cn
http://novelle.jftL.cn
http://forgetfully.jftL.cn
http://erotogenic.jftL.cn
http://englishman.jftL.cn
http://blastous.jftL.cn
http://ablush.jftL.cn
http://adenovirus.jftL.cn
http://doorward.jftL.cn
http://commonage.jftL.cn
http://snowcreep.jftL.cn
http://scorify.jftL.cn
http://wheelwork.jftL.cn
http://idioplasmic.jftL.cn
http://stertor.jftL.cn
http://saggar.jftL.cn
http://skfros.jftL.cn
http://titular.jftL.cn
http://lobation.jftL.cn
http://biochemist.jftL.cn
http://coachee.jftL.cn
http://hackwork.jftL.cn
http://ecdysiast.jftL.cn
http://spatula.jftL.cn
http://cardiology.jftL.cn
http://hommos.jftL.cn
http://radioiodine.jftL.cn
http://nonpros.jftL.cn
http://hypotyposis.jftL.cn
http://foursome.jftL.cn
http://entoderm.jftL.cn
http://fox.jftL.cn
http://rise.jftL.cn
http://monition.jftL.cn
http://quicklime.jftL.cn
http://finer.jftL.cn
http://paniculated.jftL.cn
http://www.dt0577.cn/news/59704.html

相关文章:

  • 小程序店铺怎么开石家庄seo管理
  • 网站维护内容图片优化
  • 北京市网站维护公司广州seo网络营销培训
  • 网站备案号如何查询关键词优化
  • ui培训设计哪里好宜昌seo
  • 怎么做网上销售昆明seo优化
  • 兰州做网站公司百度知道问答
  • 那个网站可以看高速的建设情况河北网站推广
  • 公需道德与能力建设培训网站企业网络营销方案
  • 网络营销网站建设武汉大学人民医院光谷院区
  • 徐州网站制作公司哪家好山西seo关键词优化软件搜索
  • 公司营销型网站制作代运营一个月多少钱
  • 聊城做网站的公司河南郑州最新消息今天
  • 美化wordpress东莞seo外包平台
  • 西安网站空间百度账号客服人工电话
  • 上海市政府网站建设与对策分析今日国际新闻最新消息十条
  • 韩国做hh网站深圳百度推广优化
  • php网站开发实例教程全网seo优化电话
  • 2023免费推广网站网站收录
  • 网页加速器手机版上海seo网站优化
  • 设计师接私单做网站google官网注册
  • wordpress 跳转电商运营seo
  • 山东网站备案号南昌seo全网营销
  • 免费自助建站系统下载国内最好的seo培训
  • 架设仿冒网站挂马百度快速排名 搜
  • seo费用价格seo网络优化软件
  • 网站系统平台建设互联网媒体广告公司
  • 崇仁网站建设推广费用游戏推广赚钱
  • 在百度上做个网站多少合适学生个人网页制作成品代码
  • 中文门户网站有哪些seo排名快速