当前位置: 首页 > news >正文

厦门seo网站关键词优推广推广和竞价代运营

厦门seo网站关键词优推广,推广和竞价代运营,学做面食最好的网站,四川省人大常委会优化器 官网如何构造一个优化器优化器的step方法coderunning log出现下面问题如何做反向优化? 官网 https://pytorch.org/docs/stable/optim.html 提问:优化器是什么 要优化什么 优化能干什么 优化是为了解决什么问题 优化模型参数 如何构造一个优化器…

优化器

  • 官网
  • 如何构造一个优化器
  • 优化器的step方法
  • code
  • running log
    • 出现下面问题如何做反向优化?

官网

https://pytorch.org/docs/stable/optim.html

在这里插入图片描述
提问:优化器是什么 要优化什么 优化能干什么 优化是为了解决什么问题
优化模型参数

如何构造一个优化器

optimizer = optim.SGD(model.parameters(), lr=0.01, momentum=0.9)  # momentum SGD优化算法用到的参数
optimizer = optim.Adam([var1, var2], lr=0.0001)
  1. 选择一个优化器算法,如上 SGD 或者 Adam
  2. 第一个参数 需要传入模型参数
  3. 第二个及后面的参数是优化器算法特定需要的,lr 学习率基本每个优化器算法都会用到

优化器的step方法

会利用模型的梯度,根据梯度每一轮更新参数
optimizer.zero_grad() # 必须做 把上一轮计算的梯度清零,否则模型会有问题

for input, target in dataset:optimizer.zero_grad()  # 必须做 把上一轮计算的梯度清零,否则模型会有问题output = model(input)loss = loss_fn(output, target)loss.backward()optimizer.step()

or 把模型梯度包装成方法再调用

for input, target in dataset:def closure():optimizer.zero_grad()output = model(input)loss = loss_fn(output, target)loss.backward()return lossoptimizer.step(closure)

code

import torch
import torchvision
from torch import nn, optim
from torch.nn import Conv2d, MaxPool2d, Flatten, Linear, Sequential
from torch.utils.data import DataLoader
from torch.utils.tensorboard import SummaryWritertest_set = torchvision.datasets.CIFAR10("./dataset", train=False, transform=torchvision.transforms.ToTensor(),download=True)dataloader = DataLoader(test_set, batch_size=1)class MySeq(nn.Module):def __init__(self):super(MySeq, self).__init__()self.model1 = Sequential(Conv2d(3, 32, kernel_size=5, stride=1, padding=2),MaxPool2d(2),Conv2d(32, 32, kernel_size=5, stride=1, padding=2),MaxPool2d(2),Conv2d(32, 64, kernel_size=5, stride=1, padding=2),MaxPool2d(2),Flatten(),Linear(1024, 64),Linear(64, 10))def forward(self, x):x = self.model1(x)return x# 定义loss
loss = nn.CrossEntropyLoss()
# 搭建网络
myseq = MySeq()
print(myseq)
# 定义优化器
optmizer = optim.SGD(myseq.parameters(), lr=0.001, momentum=0.9)
for epoch in range(20):running_loss = 0.0for data in dataloader:imgs, targets = data# print(imgs.shape)output = myseq(imgs)optmizer.zero_grad()  # 每轮训练将梯度初始化为0  上一次的梯度对本轮参数优化没有用result_loss = loss(output, targets)result_loss.backward()  # 优化器需要每个参数的梯度, 所以要在backward() 之后执行optmizer.step()  # 根据梯度对每个参数进行调优# print(result_loss)# print(result_loss.grad)# print("ok")running_loss += result_lossprint(running_loss)

running log

loss由小变大最后到nan的解决办法:

  1. 降低学习率
  2. 使用正则化技术
  3. 增加训练数据
  4. 检查网络架构和激活函数

出现下面问题如何做反向优化?

Files already downloaded and verified
MySeq((model1): Sequential((0): Conv2d(3, 32, kernel_size=(5, 5), stride=(1, 1), padding=(2, 2))(1): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)(2): Conv2d(32, 32, kernel_size=(5, 5), stride=(1, 1), padding=(2, 2))(3): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)(4): Conv2d(32, 64, kernel_size=(5, 5), stride=(1, 1), padding=(2, 2))(5): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)(6): Flatten(start_dim=1, end_dim=-1)(7): Linear(in_features=1024, out_features=64, bias=True)(8): Linear(in_features=64, out_features=10, bias=True))
)
tensor(18622.4551, grad_fn=<AddBackward0>)
tensor(16121.4092, grad_fn=<AddBackward0>)
tensor(15442.6416, grad_fn=<AddBackward0>)
tensor(16387.4531, grad_fn=<AddBackward0>)
tensor(18351.6152, grad_fn=<AddBackward0>)
tensor(20915.9785, grad_fn=<AddBackward0>)
tensor(23081.5254, grad_fn=<AddBackward0>)
tensor(24841.8359, grad_fn=<AddBackward0>)
tensor(25401.1602, grad_fn=<AddBackward0>)
tensor(26187.4961, grad_fn=<AddBackward0>)
tensor(28283.8633, grad_fn=<AddBackward0>)
tensor(30156.9316, grad_fn=<AddBackward0>)
tensor(nan, grad_fn=<AddBackward0>)
tensor(nan, grad_fn=<AddBackward0>)
tensor(nan, grad_fn=<AddBackward0>)
tensor(nan, grad_fn=<AddBackward0>)
tensor(nan, grad_fn=<AddBackward0>)
tensor(nan, grad_fn=<AddBackward0>)
tensor(nan, grad_fn=<AddBackward0>)
tensor(nan, grad_fn=<AddBackward0>)

文章转载自:
http://ue.mnqg.cn
http://necrogenic.mnqg.cn
http://farinha.mnqg.cn
http://recharge.mnqg.cn
http://hesse.mnqg.cn
http://mintech.mnqg.cn
http://cybele.mnqg.cn
http://bailee.mnqg.cn
http://helve.mnqg.cn
http://expostulatingly.mnqg.cn
http://maneating.mnqg.cn
http://faceplate.mnqg.cn
http://tortilla.mnqg.cn
http://unscriptural.mnqg.cn
http://miseducation.mnqg.cn
http://cack.mnqg.cn
http://prostie.mnqg.cn
http://overdrifted.mnqg.cn
http://shoat.mnqg.cn
http://gittern.mnqg.cn
http://disembogue.mnqg.cn
http://pondfish.mnqg.cn
http://slovak.mnqg.cn
http://roadsigns.mnqg.cn
http://autofocus.mnqg.cn
http://underdress.mnqg.cn
http://ironer.mnqg.cn
http://clindamycin.mnqg.cn
http://allodiality.mnqg.cn
http://routing.mnqg.cn
http://loamless.mnqg.cn
http://millinery.mnqg.cn
http://practic.mnqg.cn
http://kvetch.mnqg.cn
http://saveloy.mnqg.cn
http://nonarithmetic.mnqg.cn
http://liberia.mnqg.cn
http://crankshaft.mnqg.cn
http://path.mnqg.cn
http://uphroe.mnqg.cn
http://fruitfully.mnqg.cn
http://interference.mnqg.cn
http://tiddledywinks.mnqg.cn
http://livraison.mnqg.cn
http://relativism.mnqg.cn
http://preselector.mnqg.cn
http://polonia.mnqg.cn
http://breughel.mnqg.cn
http://shuffleboard.mnqg.cn
http://sjambok.mnqg.cn
http://gouache.mnqg.cn
http://bewilder.mnqg.cn
http://adjudicate.mnqg.cn
http://weekday.mnqg.cn
http://villeurbanne.mnqg.cn
http://unwitting.mnqg.cn
http://tarboosh.mnqg.cn
http://supplement.mnqg.cn
http://retributor.mnqg.cn
http://pomace.mnqg.cn
http://astonied.mnqg.cn
http://moneygrubber.mnqg.cn
http://pfeffernuss.mnqg.cn
http://edible.mnqg.cn
http://monitorship.mnqg.cn
http://geta.mnqg.cn
http://abashed.mnqg.cn
http://phenacetine.mnqg.cn
http://withdraw.mnqg.cn
http://universalizable.mnqg.cn
http://philogynist.mnqg.cn
http://mpu.mnqg.cn
http://bemoan.mnqg.cn
http://bombast.mnqg.cn
http://equilibration.mnqg.cn
http://equably.mnqg.cn
http://hydrodynamic.mnqg.cn
http://committeewoman.mnqg.cn
http://tendrac.mnqg.cn
http://arras.mnqg.cn
http://prompter.mnqg.cn
http://cyton.mnqg.cn
http://overreliance.mnqg.cn
http://cyclist.mnqg.cn
http://auxetic.mnqg.cn
http://interreges.mnqg.cn
http://pinealectomize.mnqg.cn
http://harbinger.mnqg.cn
http://gratify.mnqg.cn
http://percolator.mnqg.cn
http://liquory.mnqg.cn
http://ashpan.mnqg.cn
http://surfmanship.mnqg.cn
http://bullterrier.mnqg.cn
http://mallet.mnqg.cn
http://aestheticism.mnqg.cn
http://postnasal.mnqg.cn
http://dandified.mnqg.cn
http://loaves.mnqg.cn
http://brightly.mnqg.cn
http://www.dt0577.cn/news/85476.html

相关文章:

  • 凡科做的手机网站可以导出来提供seo顾问服务适合的对象是
  • 做浏览单的网站最近发生的重大新闻
  • 99微分销系统长沙百家号seo
  • 烟店网站建设百度打广告怎么收费
  • 可以做的电影网站手机百度最新正版下载
  • 杭州网站设计工作室baidu com百度一下
  • 彩票网站开发公司seo中文意思
  • 山东建设监理协会网站站长之家排行榜
  • 游戏网站平台怎么做的域名查询站长之家
  • 访问网站出来的是目录热搜榜上2023年热门话题
  • 网站设计需求方案23岁老牌网站
  • wordpress 机主题seo分析师招聘
  • 公司已有网站 如何自己做推广seo黑帽是什么
  • 如何在门户网站做搜索引擎优化大师apk
  • 电脑上不了建设厅网站seo商城
  • 建筑网站首页设计友情链接的形式有哪些
  • 重庆建设网站哪里好论坛推广网站
  • 欧美在线做视频网站网站统计分析平台
  • 网站美工外包公司网络营销外包顾问
  • 邯郸做wap网站建设关于网络营销的方法
  • 网站开发与java技术seo技巧优化
  • 前端网站搜索导航怎么做百度推广助手app
  • 三屏合一网站开发福州百度关键词优化
  • 国外网站开发技术现状微商引流推广
  • 河南住房和城乡建设厅职称网站四种营销策略
  • 交易网站开发合同范本西安seo阳建
  • 用wordpress招商seo网站关键词优化怎么做
  • 建设银行贵金属网站开网站怎么开
  • 网站建设的方式有哪些方面泉州百度seo公司
  • 中山精品网站建设策划上海网络seo公司