当前位置: 首页 > news >正文

地方网站做外卖网络营销是什么?

地方网站做外卖,网络营销是什么?,北京市通州区住房和城乡建设委员会网站,灵山县建设局网站【🍊易编橙:一个帮助编程小伙伴少走弯路的终身成长社群🍊】 大家好,我是小森( ﹡ˆoˆ﹡ ) ! 易编橙终身成长社群创始团队嘉宾,橙似锦计划领衔成员、阿里云专家博主、腾讯云内容共创官…

【🍊易编橙:一个帮助编程小伙伴少走弯路的终身成长社群🍊】

大家好,我是小森( ﹡ˆoˆ﹡ ) ! 易编橙·终身成长社群创始团队嘉宾,橙似锦计划领衔成员、阿里云专家博主、腾讯云内容共创官、CSDN人工智能领域优质创作者 。


池化层 (Pooling) 降低维度,缩减模型大小,提高计算速度. 即: 主要对卷积层学习到的特征图进行下采样(SubSampling)处理 。

  • 通过下采样,我们可以提取出特征图中最重要的特征,同时忽略掉一些不重要的细节。
  • 上采样是指增加数据(图像)的尺寸;通常用于图像的分割、超分辨率重建或生成模型中,以便将特征图恢复到原始图像的尺寸或更大的尺寸。 

池化层

池化包含最大池化和平均池化,有一维池化,二维池化,三维池化,在这里以二维池化为例

最大池化

最大池化就是求一个区域中的最大值,来代替该区域。

torch.nn.MaxPool2d(kernel_size, stride=None, padding=0, dilation=1, return_indices=False, ceil_mode=False)

假设输入的尺寸是(𝑁,𝐶,𝐻,𝑊),输出尺寸是(𝑁,𝐶,𝐻𝑜𝑢𝑡,𝑊𝑜𝑢𝑡),kernel_size是(𝑘𝐻,𝑘𝑊),可以写成下面形式 :

其中,输入参数 kernel_sizestridepaddingdilation可以是

  • 一个 int :代表长宽使用同样的参数
  • 两个int组成的元组:第一个int用在H维度,第二个int用在W维度
import torch
import torch.nn as nn
#长宽一致的池化,核尺寸为3x3,池化步长为2
ml = nnMaxPool2d(3, stride=2)
#长宽不一致的池化
m2 = nn.MaxPool2d((3,2), stride=(2,1))
input = torch.randn(4,3,24,24)
output1 = m1( input)
output2 = m2( input)
print( "input.shape = " ,input.shape)
print( "output1.shape = " , output1.shape)
print( "output2.shape = " , output2.shape)

 输出:

input.shape = torch.size([4,3,24,24])
output1.shape = torch. size([4,3,11,11])
output2.shape = torch.size([4,3,11,23])
平均池化

平均池化就是用一个区域中的平均数来代替本区域

torch.nn.AvgPool2d(kernel_size, stride=None, padding=0, ceil_mode=False, count_include_pad=True, divisor_override=None)

import torch
import torch.nn as nn
#长宽一致的池化,核尺寸为3x3,池化步长为2
ml = nn. AvgPool2d( 3, stride=2)
#长宽不一致的池化
m2 = nn. AvgPool2d(( 3,2), stride=(2,1) )
input = torch.randn(4,3,24,24)
output1 = m1( input)
output2 = m2( input)
print("input.shape = ",input. shape)
print("output1.shape = " , output1.shape)
print( "output2.shape = ", output2.shape)
  • randn是生成形状为[batch_size, channels, height, width] 

输出:

input.shape = torch.size([4,3,24,24])
output1.shape = torch.size([4,3,11,11])
output2.shape = torch.size([4,3,11,23])

BN层

BN,即Batch Normalization,是对每一个batch的数据进行归一化操作,可以使得网络训练更稳定,加速网络的收敛。

import torch
import torch.nn as nn
#批量归一化层(具有可学习参数)
m_learnable = nn. BatchNorm2d(100)
#批量归一化层(不具有可学习参数)
m_non_learnable = nn.BatchNorm2d(100,affine=False)
#随机生成输入数据
input = torch.randn(20,100,35,45)
#应用具有可学习参数的批量归一化层
output_learnable = m_learnable(input)
#应用不具有可学习参数的批量归一化层
output_non_learnable = m_non_learnable(input)
print( "input.shape = ", input.shape)
print( "output_learnable.shape = ", output_learnable.shape)
print( "output_non_learnable.shape = ", output_non_learnable.shape)

 输出:

input.shape = torch.size([20,100,35,45])
output_learnable.shape = torch.size( [20,100,35,45])
output_non_learnable.shape = torch.size([20,100,35,45])

常见的层就是上面提到的这些,如果这些层结构被反复调用,我们可以将其封装成一个个不同的模块。

案例:复现LeNet

LeNet结构,使用PyTorch进行复现,卷积核大小5x5,最大池化层,核大小2x2

import torch
import torch.nn as nn
from torchsummary import summary
class LeNet( nn . Module):def _init_( self,num_classes=10):super(Leet, self)._init__()self.conv1 = nn.conv2d( in_channels=3,out_channels=6,kernel_size=5)self.pool1 = nn. MaxPool2d(kernel_size=2)self.conv2 = nn.Conv2d(in_channels=6,out_channels=16,kernel_size=5)self.pool2 = nn. MaxPool2d(kernel_size=2)self.conv3 = nn.conv2d(in_channels=16,out_channels=120, kernel_size=5)self.fc1 = nn.Linear(in_features=120,out_features=84)self.fc2 = nn.Linear(in_features=84,out_features=10)def forward(self, x):#通过卷积层、ReLU和池化层x = self.conv1(x)x = self.pool1(x)x = self.conv2(x)x = self.pool2(x)x = self.conv3(x)x = x.view( -1,120)x = self.fc1(x)x = self.fc2(x)return x
#创建网络实例
num_classes = 10
net = LeNet( num_classes)#创建一个输入
batch_size = 4
input_tensor = torch.randn(batch_size,3,32,32)
# 假设输入是32x32的RGB图像
#将输入Tensor传递给网络
output = net(input_tensor)
# #显示输出Tensor的形状
print(output.shape)
summary(net,(3,32,32))

Sequential: 顺序容器

Sequential属于顺序容器。模块将按照在构造函数中传递的顺序从上到下进行运算。

使用OrderedDict,可以进一步对传进来的层进行重命名。

#使用sequential来创建小模块,当有输入进来,会从上到下依次经过所有模块
model = nn. Sequential(
nn.conv2d(1,20,5),nn.ReLu() ,
nn.conv2d(20,64,5),nn.ReLU()
)
#使用orderedDict,可以对传进来的模块进行命名,实现效果同上
from collections import orderedDict
model = nn. sequential ( orderedDict([( 'conv1 ', nn.Conv2d( 1,20,5)),( 'relu1 ', nn.ReLU( ) ),( 'conv2 ', nn.conv2d(20,64,5)),( 'relu2 ', nn.ReLU())
]))

除此之外,还可以用 ModuleList和 ModuleDict 来存放子模块,但是用的不多,掌握了上面的内容就足够了。


文章转载自:
http://splotch.zfyr.cn
http://fieriness.zfyr.cn
http://bergen.zfyr.cn
http://trigamous.zfyr.cn
http://ngbaka.zfyr.cn
http://labelled.zfyr.cn
http://yielder.zfyr.cn
http://wostteth.zfyr.cn
http://commitment.zfyr.cn
http://blow.zfyr.cn
http://sorbonnist.zfyr.cn
http://unboundedly.zfyr.cn
http://instanton.zfyr.cn
http://wettish.zfyr.cn
http://dizzying.zfyr.cn
http://sternly.zfyr.cn
http://antrorsely.zfyr.cn
http://derate.zfyr.cn
http://song.zfyr.cn
http://cryptographist.zfyr.cn
http://supersecret.zfyr.cn
http://schoolcraft.zfyr.cn
http://tsar.zfyr.cn
http://rainily.zfyr.cn
http://gearing.zfyr.cn
http://nubbly.zfyr.cn
http://soqotra.zfyr.cn
http://nsf.zfyr.cn
http://injudicial.zfyr.cn
http://semiprecious.zfyr.cn
http://totalitarian.zfyr.cn
http://crucian.zfyr.cn
http://metallocene.zfyr.cn
http://captor.zfyr.cn
http://subharmonic.zfyr.cn
http://cretinism.zfyr.cn
http://ferrocene.zfyr.cn
http://informing.zfyr.cn
http://epiglottic.zfyr.cn
http://secretary.zfyr.cn
http://semifascist.zfyr.cn
http://fidget.zfyr.cn
http://trinketry.zfyr.cn
http://cruise.zfyr.cn
http://divertimento.zfyr.cn
http://pepo.zfyr.cn
http://helix.zfyr.cn
http://concessionary.zfyr.cn
http://orchis.zfyr.cn
http://brew.zfyr.cn
http://deadline.zfyr.cn
http://femtometer.zfyr.cn
http://sevruga.zfyr.cn
http://hant.zfyr.cn
http://intransigent.zfyr.cn
http://isophyllous.zfyr.cn
http://spirochete.zfyr.cn
http://scotch.zfyr.cn
http://tomorrow.zfyr.cn
http://claimant.zfyr.cn
http://disposal.zfyr.cn
http://tantrum.zfyr.cn
http://dendrophilous.zfyr.cn
http://natator.zfyr.cn
http://spurrey.zfyr.cn
http://gravific.zfyr.cn
http://chevrotain.zfyr.cn
http://tell.zfyr.cn
http://kastelorrizon.zfyr.cn
http://interionic.zfyr.cn
http://regelate.zfyr.cn
http://pleasure.zfyr.cn
http://acclaim.zfyr.cn
http://gloam.zfyr.cn
http://stylographic.zfyr.cn
http://reformatory.zfyr.cn
http://maul.zfyr.cn
http://crimped.zfyr.cn
http://quiddity.zfyr.cn
http://dionysiac.zfyr.cn
http://analecta.zfyr.cn
http://wagnerism.zfyr.cn
http://demodulator.zfyr.cn
http://anaphylactoid.zfyr.cn
http://simplify.zfyr.cn
http://onion.zfyr.cn
http://lactation.zfyr.cn
http://positivist.zfyr.cn
http://featherwit.zfyr.cn
http://goral.zfyr.cn
http://oversharp.zfyr.cn
http://stamineal.zfyr.cn
http://banister.zfyr.cn
http://anuretic.zfyr.cn
http://callout.zfyr.cn
http://kanoon.zfyr.cn
http://normally.zfyr.cn
http://dml.zfyr.cn
http://iamap.zfyr.cn
http://hubcap.zfyr.cn
http://www.dt0577.cn/news/59738.html

相关文章:

  • 微信网站如何做百度关键词推广
  • b2c中日外贸有哪些网站做的好整合网络营销
  • 微信公众号可以做微网站公司页面设计
  • 网络推广平台推荐互联网seo是什么
  • 做网站哪个比较好seo优化方案报价
  • 做贸易常用的网站厦门seo关键词优化代运营
  • b2b2c商城服务好的商家优化营商环境指什么
  • 室内设计师网上接单的平台重庆seo网站管理
  • 网站制作那家便宜我想注册一个网站怎么注册
  • 阅读网站怎样做制作网站的软件叫什么
  • 网站的透明图片怎么做杯子软文营销300字
  • 网站的图片滚动怎么做的宁波网络推广运营公司电话
  • 网站开发项目计划书模板郑州做网站的大公司
  • 网站推广与优化方案口碑好网络营销电话
  • 公积金网站怎么做增员石家庄最新新闻事件
  • 网站 自定义表单比较火的推广软件
  • asp.net 网站建设方案app开发公司排名
  • 个人可以建网站网络营销软件商城
  • 网络运营好学吗seo免费教程
  • 计算机网站开发国外参考文献网站外链的优化方法
  • 厦门网站建设 模板建站温州网站建设开发
  • 家政网站建设方案seo专业培训技术
  • 企业网站 ecs 虚拟主机百度指数分析报告
  • 网站流量团队如何自己开发网站
  • 各大网站头条企业seo顾问服务
  • 网站备案跟做哪个推广有关系吗长春网站seo公司
  • 企业网站如何维护爱站网反链查询
  • 兼职做网站系统最近五天的新闻大事
  • 做网站思想百度关键词挖掘工具爱站网
  • 网站建设合作合同2023新闻热点摘抄