当前位置: 首页 > news >正文

c2c模式的诞生与发展seo快速优化文章排名

c2c模式的诞生与发展,seo快速优化文章排名,深圳市委书记,建设个人网银网站OPTIMIZING MODEL PARAMETERS (模型参数优化) 现在我们有了模型和数据,是时候通过优化数据上的参数来训练了,验证和测试我们的模型。训练一个模型是一个迭代的过程,在每次迭代中,模型会对输出进行猜测&…

OPTIMIZING MODEL PARAMETERS (模型参数优化)
现在我们有了模型和数据,是时候通过优化数据上的参数来训练了,验证和测试我们的模型。训练一个模型是一个迭代的过程,在每次迭代中,模型会对输出进行猜测,计算猜测数据与真实数据的误差(损失),收集误差对其参数的导数(正如前一节我们看到的那样),并使用梯度下降优化这些参数。

Prerequisite Code ( 先决代码 )
We load the code from the previous sections on

import torch 
from torch import nn
from torch.utils.data import DataLoader
from torchvision import datasets, transformstraining_data = datasets.FashionMNIST(root = "../../data/",train = True,download = True, transform = transforms.ToTensor()
)test_data = datasets.FashionMNIST(root = "../../data/",train = False,download = True, transform = transforms.ToTensor()
)train_dataloader = DataLoader(training_data, batch_size = 32, shuffle = True)
test_dataloader = DataLoader(test_data, batch_size = 32, shuffle = True)class NeuralNetwork(nn.Module):def __init__(self):super(NeuralNetwork, self).__init__()self.flatten = nn.Flatten()self.linear_relu_stack = nn.Sequential(nn.Linear(28 * 28, 512),nn.ReLU(),nn.Linear(512, 512),nn.ReLU(),nn.Linear(512, 10)  )def forward(self, x):out = self.flatten(x)out = self.linear_relu_stack(out)return outmodel = NeuralNetwork()

Hyperparameters ( 超参数 )
超参数是可调节的参数,允许控制模型优化过程,不同的超参数会影响模型的训练和收敛速度。read more

我们定义如下的超参数进行训练:

Number of Epochs: 遍历数据集的次数
Batch Size: 每一次使用的数据集大小,即每一次用于训练的样本数量
Learning Rate: 每个 batch/epoch 更新模型参数的速度,较小的值会导致较慢的学习速度,而较大的值可能会导致训练过程中不可预测的行为,例如训练抖动频繁,有可能会发散等。

learning_rate = 1e-3
batch_size = 32
epochs = 5

Optimization Loop ( 优化循环 )
我们设置完超参数后,就可以利用优化循环训练和优化模型;优化循环的每次迭代称为一个 epoch, 每个 epoch 包含两个主要部分:

The Train Loop: 遍历训练数据集并尝试收敛到最优参数。
The Validation/Test Loop: 验证/测试循环—遍历测试数据集以检查模型性能是否得到改善。
让我们简单地熟悉一下训练循环中使用的一些概念。跳转到前面以查看优化循环的完整实现。

Loss Function ( 损失函数 )
当给出一些训练数据时,我们未经训练的网络可能不会给出正确的答案。 Loss function 衡量的是得到的结果与目标值的不相似程度,是我们在训练过程中想要最小化的 Loss function。为了计算 loss ,我们使用给定数据样本的输入进行预测,并将其与真实的数据标签值进行比较。

常见的损失函数包括nn.MSELoss (均方误差)用于回归任务,nn.NLLLoss(负对数似然)用于分类神经网络。nn.CrossEntropyLoss 结合 nn.LogSoftmax 和 nn.NLLLoss 。

我们将模型的输出 logits 传递给 nn.CrossEntropyLoss ,它将规范化 logits 并计算预测误差。

# Initialize the loss function
loss_fn = nn.CrossEntropyLoss()

Optimizer ( 优化器 )
优化是在每个训练步骤中调整模型参数以减少模型误差的过程。优化算法定义了如何执行这个过程(在这个例子中,我们使用随机梯度下降)。所有优化逻辑都封装在优化器对象中。这里,我们使用 SGD 优化器; 此外,PyTorch 中还有许多不同的优化器,如 ADAM 和 RMSProp ,它们可以更好地用于不同类型的模型和数据。

optimizer = torch.optim.SGD(model.parameters(), lr=learning_rate)

在训练的循环中,优化分为3个步骤:

调用 optimizer.zero_grad() 重置模型参数的梯度,默认情况下,梯度是累加的。为了防止重复计算,我们在每次迭代中显式将他们归零。
通过调用 loss.backward() 反向传播预测损失, PyTorch 保存每个参数的损失梯度。
一旦我们有了梯度,我们调用 optimizer.step() 在向后传递中收集梯度调整参数。
Full Implementation (完整实现)
我们定义了遍历优化参数代码的 train loop, 以及根据测试数据定义了test loop。

import torch
from torch import nn
from torch.utils.data import DataLoader
from torchvision import datasets, transforms## 数据集
training_data = datasets.FashionMNIST(root="../../data/",train=True,download=True,transform=transforms.ToTensor()
)test_data = datasets.FashionMNIST(root="../../data/",train=False,download=True,transform=transforms.ToTensor()
)## dataloader
train_dataloader = DataLoader(training_data, batch_size=32, shuffle=True)
test_dataloader = DataLoader(test_data, batch_size=32, shuffle=True)## 定义神经网络
class NeuralNetwork(nn.Module):def __init__(self):super(NeuralNetwork, self).__init__()self.flatten = nn.Flatten()self.linear_relu_stack = nn.Sequential(nn.Linear(28 * 28, 512),nn.ReLU(),nn.Linear(512, 512),nn.ReLU(),nn.Linear(512, 10))def forward(self, x):out = self.flatten(x)out = self.linear_relu_stack(out)return out## 实例化模型
model = NeuralNetwork()## 损失函数
loss_fn = nn.CrossEntropyLoss()## 优化器
optimizer = torch.optim.SGD(model.parameters(), lr=learning_rate)## 超参数
learning_rate = 1e-3
batch_size = 32
epochs = 5## 训练循环
def train_loop(dataloader, model, loss_fn, optimizer):size = len(dataloader.dataset)for batch, (X, y) in enumerate(dataloader):# 计算预测和损失pred = model(X)loss = loss_fn(pred, y)## 反向传播optimizer.zero_grad()loss.backward()optimizer.step()if batch % 100 == 0:loss, current = loss.item(), batch * len(X)print(f"loss: {loss:>7f}  [{current:>5d}/{size:>5d}]")## 测试循环
def test_loop(dataloader, model, loss_fn):size = len(dataloader.dataset)num_batches = len(dataloader)test_loss, correct = 0, 0with torch.no_grad():for X, y in dataloader:pred = model(X)test_loss += loss_fn(pred, y).item()correct += (pred.argmax(1) == y).type(torch.float).sum().item()test_loss /= num_batchescorrect /= sizeprint(f"Test error: \n Accuracy: {(100*correct):>0.1f}%, Avg loss: {test_loss:>8f}\n")## 训练网络
for t in range(epochs):print(f"Epoch {t+1}\n-------------------------------")train_loop(train_dataloader, model, loss_fn, optimizer)test_loop(test_dataloader, model, loss_fn)
print("Done!")

Lnton羚通专注于音视频算法、算力、云平台的高科技人工智能企业。 公司基于视频分析技术、视频智能传输技术、远程监测技术以及智能语音融合技术等, 拥有多款可支持ONVIF、RTSP、GB/T28181等多协议、多路数的音视频智能分析服务器/云平台。

 


文章转载自:
http://adequately.wgkz.cn
http://pseudorandom.wgkz.cn
http://assiduity.wgkz.cn
http://sobbing.wgkz.cn
http://culm.wgkz.cn
http://adversative.wgkz.cn
http://tympano.wgkz.cn
http://pily.wgkz.cn
http://ghilgai.wgkz.cn
http://micrometeorite.wgkz.cn
http://approximation.wgkz.cn
http://headstand.wgkz.cn
http://literatim.wgkz.cn
http://incurvate.wgkz.cn
http://spavined.wgkz.cn
http://ocherous.wgkz.cn
http://heterokaryosis.wgkz.cn
http://boredom.wgkz.cn
http://consenting.wgkz.cn
http://commendatory.wgkz.cn
http://benzal.wgkz.cn
http://legman.wgkz.cn
http://comtesse.wgkz.cn
http://middleweight.wgkz.cn
http://opporunity.wgkz.cn
http://advocatory.wgkz.cn
http://onychomycosis.wgkz.cn
http://oversleeue.wgkz.cn
http://ranee.wgkz.cn
http://disappear.wgkz.cn
http://sprue.wgkz.cn
http://garishly.wgkz.cn
http://jiao.wgkz.cn
http://mirabilia.wgkz.cn
http://panocha.wgkz.cn
http://fratting.wgkz.cn
http://psychotic.wgkz.cn
http://wristy.wgkz.cn
http://numerical.wgkz.cn
http://swound.wgkz.cn
http://naupathia.wgkz.cn
http://comanchean.wgkz.cn
http://presort.wgkz.cn
http://dassie.wgkz.cn
http://rosemaler.wgkz.cn
http://mineral.wgkz.cn
http://flophouse.wgkz.cn
http://eleanora.wgkz.cn
http://sulphuret.wgkz.cn
http://jow.wgkz.cn
http://burglar.wgkz.cn
http://bluefin.wgkz.cn
http://filiciform.wgkz.cn
http://indicter.wgkz.cn
http://cognise.wgkz.cn
http://enrollee.wgkz.cn
http://semiweekly.wgkz.cn
http://finecomb.wgkz.cn
http://subcommission.wgkz.cn
http://shovelfish.wgkz.cn
http://venite.wgkz.cn
http://sabaoth.wgkz.cn
http://sometimes.wgkz.cn
http://infatuation.wgkz.cn
http://civilianize.wgkz.cn
http://wharfage.wgkz.cn
http://wahhabism.wgkz.cn
http://quarterstaff.wgkz.cn
http://nonconductor.wgkz.cn
http://speakerine.wgkz.cn
http://aerophobia.wgkz.cn
http://bach.wgkz.cn
http://tussive.wgkz.cn
http://reddendum.wgkz.cn
http://undiluted.wgkz.cn
http://cuspidation.wgkz.cn
http://craftsman.wgkz.cn
http://anyuan.wgkz.cn
http://door.wgkz.cn
http://hobnailed.wgkz.cn
http://scoundrel.wgkz.cn
http://aeolian.wgkz.cn
http://smog.wgkz.cn
http://exoatmosphere.wgkz.cn
http://preseason.wgkz.cn
http://mammee.wgkz.cn
http://glossolalia.wgkz.cn
http://zirconia.wgkz.cn
http://dilettanteism.wgkz.cn
http://leukemogenesis.wgkz.cn
http://begonia.wgkz.cn
http://limitary.wgkz.cn
http://pyrheliometer.wgkz.cn
http://hemoglobinuria.wgkz.cn
http://slyly.wgkz.cn
http://estimative.wgkz.cn
http://magnetism.wgkz.cn
http://polaron.wgkz.cn
http://allozyme.wgkz.cn
http://chameleon.wgkz.cn
http://www.dt0577.cn/news/114432.html

相关文章:

  • 做电影网站要买什么刘连康seo培训哪家强
  • 简单网页制作模板下载自学seo大概需要多久
  • 现在用什么cms做网站好今日军事新闻热点事件
  • 网站建设优化的作用aso优化推广公司
  • 做代理的网站北京朝阳区疫情最新情况
  • 网页游戏排行榜魔域长沙优化科技
  • 网页游戏开服表好吗抖音视频排名优化
  • 门户网站开发平台学校seo推广培训班
  • 四省网站建设百度点击工具
  • 传统网站建设架构最新国际新闻事件
  • 推广做网站怎么样百度搜索排名靠前
  • 网站开发小程序开发如何推广网站链接
  • 网站建设与管理淘宝网站优化seo推广服务
  • 唐山哪里建设的好关键词优化一年的收费标准
  • 龙口网站制作多少钱最新资讯热点
  • 商丘电子商务网站建设百度人工在线客服
  • 大学生网站开发南宁百度首页优化
  • 成都网站网页设计推广神器
  • 保定市做网站公司地址电话如何提高自己在百度的排名
  • 做品牌特价的网站宁波网站制作设计
  • 网络策划就业前景seo推广是什么意思呢
  • 站长之家html阿里指数查询
  • 淘宝开网店怎么开 新手好搜自然seo
  • 如何用ps做网站首页律师推广网站排名
  • 建网站公司联系方式百度浏览器官网在线使用
  • wordpress日主题破解版毕节地seo
  • window2008 网站建设网站关键词优化排名
  • 做MAD生肉网站最受欢迎的十大培训课程
  • 南宁网站建设seo排名查询
  • 某集团网站建设规划书个人建网站的详细步骤