当前位置: 首页 > news >正文

网站模块在线制作市场营销主要学什么

网站模块在线制作,市场营销主要学什么,上海公安人口管理网站,祝桥建设网站在深度学习领域,不同的网络结构设计用于解决特定的问题。本文将详细分析四种主流网络结构:卷积神经网络(CNN)、残差网络(ResNet)、长短期记忆网络(LSTM)和洗牌网络(Shuff…

在深度学习领域,不同的网络结构设计用于解决特定的问题。本文将详细分析四种主流网络结构:卷积神经网络(CNN)、残差网络(ResNet)、长短期记忆网络(LSTM)和洗牌网络(ShuffleNet),并通过实际的实验,来分析一下这四种网络结构对于Daily_and_Sports_Activities数据集的实验仿真效果。
要在文章一开始配合图例的方式更具体地介绍数据集和实验目标,可以采用以下结构:


一、Daily_and_Sports_Activities数据集与实验目标

1.1 Daily_and_Sports_Activities数据集简介

Daily_and_Sports_Activities数据集包含了19类日常活动和体育活动的图像,旨在训练和测试深度学习模型对不同活动类型的识别能力。
在这里插入图片描述

并且数据集中的图像经过预处理,都变成了包含有各种动作信息的坐标,方便我们去进行进一步的实验分析:
在这里插入图片描述
在这里插入图片描述

1.2 实验目标

我们的目标是评估和比较四种不同的深度学习网络结构在处理同一数据集时的性能。具体来说,我们将关注以下几个关键指标:

  • 准确率(Accuracy):模型正确分类的图像比例。
  • 精确率(Precision):在所有预测为正的图像中,真正为正的比例。
  • 召回率(Recall):在所有实际为正的图像中,被正确预测为正的比例。
  • F1分数(F1-score):精确率和召回率的调和平均值,衡量模型在精确度和召回率之间的平衡。
  • 参数量(Parameter):模型中的总参数数量,影响模型的复杂度和计算资源需求。
  • 推理时间(Inference Time):模型对单个图像进行预测所需的时间,反映模型的实时处理能力。

二、四种网络结构对比分析

1.CNN(Convolutional Neural Network)

CNN 是深度学习中用于处理具有网格结构的数据(如图像)的网络结构,卷积神经网络的基本结构大致包括:卷积层、激活函数、池化层、全连接层、输出层:
在这里插入图片描述

更具体来看:
在这里插入图片描述

网络代码实现:

class CNN(nn.Module):def __init__(self, train_shape, category):super(CNN, self).__init__()# 构建卷积层、批量归一化层和ReLU激活函数的序列self.layer = nn.Sequential(# 卷积层的参数:输入通道、输出通道、卷积核大小、步长、填充nn.Conv2d(1, 64, (3, 1), (2, 1), (1, 0)),nn.BatchNorm2d(64),nn.ReLU(),# 更多卷积层...)# 自适应平均池化层和全连接层self.ada_pool = nn.AdaptiveAvgPool2d((1, train_shape[-1]))self.fc = nn.Linear(512*train_shape[-1], category)

特点分析

  • 局部连接:每个卷积神经元只与输入数据的一个局部区域相连接,这减少了计算量。
  • 权重共享:卷积核的权重在整个输入数据上共享,进一步减少模型参数。
  • 层次结构:通过多层结构,CNN能够学习从简单到复杂的特征表示。
  • 自动提取特征:无需手动设计特征提取器,CNN能够自动学习数据中的特征。

2.ResNet(Residual Neural Network)

在这里插入图片描述

残差网络是一种深度学习模型,通过引入“残差学习”的概念来解决深度神经网络训练困难的问题。ResNet 通过引入残差学习解决了深层网络训练中的梯度消失问题。

class Block(nn.Module):def __init__(self, inchannel, outchannel, stride):super().__init__()# 构建残差块self.block = nn.Sequential(nn.Conv2d(inchannel, outchannel, (3, 1), (stride, 1), (1, 0)),# 更多层...)# 残差连接self.short = nn.Sequential()if (inchannel != outchannel or stride != 1):self.short = nn.Sequential(nn.Conv2d(inchannel, outchannel, (3, 1), (stride, 1), (1, 0)),)

输入通过一个或多个卷积层后,与输入相加,形成残差。这样做可以使得网络学习到的是输入和输出之间的残差,而不是直接学习输出,从而缓解了梯度消失问题,使得网络可以成功训练更深的模型。
在这里插入图片描述

特点分析

  • 残差连接:通过添加输入到输出,允许梯度更有效地传播到前面的层。
  • 简化训练:残差连接使得网络可以训练得更深,而不会出现梯度消失或爆炸的问题。
  • 恒等映射:在某些情况下,网络层可以学习到恒等映射,这有助于网络学习更复杂的函数。

3.LSTM(Long Short-Term Memory)

LSTM 是一种特殊的 RNN,设计用来解决长序列数据中的梯度消失问题。在这里插入图片描述

class LSTM(nn.Module):def __init__(self, train_shape, category):super().__init__()# 构建LSTM层self.lstm = nn.LSTM(train_shape[-1], 512, 2, batch_first=True)# 全连接层self.fc = nn.Linear(512, category)

特点分析

  • 门控机制:包含输入门、遗忘门和输出门,控制信息的流动,使得网络能够学习长期依赖。
  • 序列处理:LSTM能够处理序列数据,适用于时间序列预测、语言模型等任务。
  • 记忆能力:LSTM的单元状态可以跨越时间步骤进行信息传递,这使得网络能够记住长期信息。

4.ShuffleNet(洗牌网络)

ShuffleNet 是一种轻量级的 CNN,设计用于移动和嵌入式设备,它通过使用分组卷积和通道洗牌操作来减少计算量,同时保持了较高的准确率。
在这里插入图片描述

分组卷积:将输入通道分成多个组,每组独立进行卷积操作,然后合并结果。这样可以减少计算量和参数数量。
在这里插入图片描述

通道洗牌:在分组卷积后,通过通道洗牌操作重新混合不同组的特征图,以保持特征的多样性。在这里插入图片描述

class ChannelShuffleModule(nn.Module):def __init__(self, channels, groups):super().__init__()# 通道混合模块

特点分析

  • 深度可分离卷积:减少了模型的计算量和参数数量。
  • 通道混合:通过重组通道提高了模型的表达能力,同时保持了计算效率。
  • 轻量化设计:ShuffleNet通过特定的设计减少了模型的复杂性,适用于计算资源受限的环境。

5.总结

每种网络结构都有其特定的优势和适用场景,CNN 提供了一种强大的特征提取方法,适用于图像识别等领域。ResNet 通过残差连接解决了深层网络的训练难题。LSTM 以其门控机制在序列数据处理方面表现出色。ShuffleNet 则是一种为移动和嵌入式设备设计的轻量级网络。在设计深度学习模型时,需要根据任务的具体需求、数据的特性以及可用的计算资源来选择最合适的网络结构,接下来我们将进行实际的实验训练,来分析一下这四种网络结构对于Daily_and_Sports_Activities数据集仿真实验。

三、具体的实验仿真和对比

在对Daily_and_Sports_Activities数据集进行的实验中,我们对比了CNN、ResNet、LSTM和ShuffleNet四种网络结构的性能。

Daily_and_Sports_Activities 数据集训练方法概述

训练Daily_and_Sports_Activities数据集涉及几个关键步骤,包括数据预处理、模型选择、训练配置、训练执行以及评估,以下是我们整个流程的概述:

  1. 环境搭建:导入所需的库,包括PyTorch、NumPy、os等,并设置工作目录。

  2. 参数解析:使用argparse库解析命令行参数,设置数据集、模型、保存路径、批量大小、训练周期数和学习率等。

  3. 数据集和模型定义:定义数据集和模型的字典,便于选择不同的数据集处理类和模型架构。

  4. 参数处理和设备配置:根据参数设置数据保存路径、选择计算设备(GPU或CPU)。

  5. 数据加载和预处理:加载数据集,如果.npy格式的数据已存在则直接加载,否则进行数据预处理并保存。

  6. 张量转换:将数据和标签转换为PyTorch张量,为模型训练做准备。

  7. 模型实例化:根据选择的模型架构实例化模型对象。

  8. 数据加载器:创建训练和测试的DataLoader,用于批量加载数据。

  9. 配置优化器和损失函数:设置AdamW优化器、学习率调度器和交叉熵损失函数。

  10. 训练执行:进行训练循环,包括前向传播、损失计算、反向传播和参数更新。

  11. 评估:在每个周期结束时,在测试集上评估模型性能,计算准确率、精确度、召回率和F1分数。

  12. 结果记录:打印输出训练和测试结果,记录模型性能。

整个过程记录我们自己的模型训练和评估的流程,具体的代码太过于多,就不展示了,需要可以联系我获取。

1.1 CNN网络结构

在这里插入图片描述

1.2 训练结果

在这里插入图片描述

2.1 ResNet网络结构

在这里插入图片描述

2.2 训练结果

在这里插入图片描述

3.1 LSTM网络结构

在这里插入图片描述

3.2 训练结果在这里插入图片描述

4.1 shufflenet网络结构

在这里插入图片描述

4.2 训练结果

在这里插入图片描述

四、实验结果分析

将四种模型得到的训练结果写入表格中,得到了如下图所示的结果,分别对其 准确率(Accuracy)、精确率(Precision) 、召回率(Recall) 、F1分数(F1-score)、参数量(Parameters)和推理时间(Inference Time) 进行分析和对比:

1.实验结果概览

模型名准确率(Accuracy)精确率(Precision)召回率(Recall)F1分数(F1-score)参数量(Parameter)推理时间(Inference Time)
CNN0.87930.91600.87930.89739569471.3570
ResNet0.87240.91940.87340.895315027373.3007
LSTM0.80300.82440.80300.813633940652.7796
ShuffleNet0.87160.90790.87160.889411603411.7889

2.分析与总结

2.1准确率与召回率

  • CNN 在准确率上表现最佳,达到了0.8793,其次是ResNet,准确率为0.8724。这表明CNN在分类任务上具有较好的总体性能。
  • LSTM 的准确率和召回率较低,分别为0.8030,这可能与其处理时间序列数据的特性有关,而DASA数据集可能不完全适合LSTM的结构。

2.2精确率与F1分数

  • ResNet 在精确度上表现最佳,达到了0.9194,这表明其在预测时具有较高的置信度。
  • CNNResNet 的F1分数接近,分别为0.8973和0.8953,说明两者在精确度和召回率之间取得了较好的平衡。

2.3参数量

  • LSTM 拥有最多的参数,达到了3394065,这可能是由于其复杂的门控机制导致的。
  • ResNet 由于其深层结构,参数量也较多,为1502737。
  • ShuffleNetCNN 的参数量相对较少,分别为1160341和956947,这使得它们在计算资源受限的环境中更具优势。

2.4推理时间

  • CNN 的推理时间最短,为1.3570秒,这与其较少的参数量和高效的卷积运算有关。
  • LSTM 的推理时间最长,为2.7796秒,这可能是因为其处理序列数据的循环特性导致计算成本较高。
  • ShuffleNet 的推理时间为1.7889秒,介于CNN和LSTM之间。

3.个人观点

从实验结果来看,CNN和ResNet在准确率和精确度上表现较为突出,这可能是因为它们能够有效地捕捉图像特征,并且ResNet的残差连接有助于训练更深的网络。LSTM虽然在参数量上最多,但在该数据集上的表现并不理想,可能是因为DASA数据集并不完全是序列数据,LSTM的优势在于处理长序列依赖关系,而DASA数据集的特点可能并未充分发挥这一优势

ShuffleNet在推理时间上表现良好,这表明它在需要快速推理的应用场景中可能是一个不错的选择。同时,它的参数量和准确率也相对平衡,适合资源受限的设备。

综上所述,选择哪种网络结构应根据具体的应用场景和需求来决定。如果需要快速推理并且对准确率有一定要求,CNN或ShuffleNet可能是更好的选择;如果需要构建深层网络并且对精确度有较高要求,ResNet可能更合适;而LSTM可能更适合那些具有明显时间序列特性的数据集。


文章转载自:
http://varuna.pwmm.cn
http://atomise.pwmm.cn
http://scarabaean.pwmm.cn
http://dogcart.pwmm.cn
http://electrodeposit.pwmm.cn
http://noachian.pwmm.cn
http://hookworm.pwmm.cn
http://ooze.pwmm.cn
http://jundy.pwmm.cn
http://avn.pwmm.cn
http://diaphony.pwmm.cn
http://anopisthograph.pwmm.cn
http://fightback.pwmm.cn
http://fasciolet.pwmm.cn
http://amend.pwmm.cn
http://uncomplimentary.pwmm.cn
http://hypergeometric.pwmm.cn
http://mistakable.pwmm.cn
http://naderism.pwmm.cn
http://reelevate.pwmm.cn
http://nutriment.pwmm.cn
http://nephograph.pwmm.cn
http://hoyle.pwmm.cn
http://poriferous.pwmm.cn
http://zygal.pwmm.cn
http://flueric.pwmm.cn
http://smtpd.pwmm.cn
http://cryptogram.pwmm.cn
http://unequivocable.pwmm.cn
http://distressful.pwmm.cn
http://monostome.pwmm.cn
http://pygmyism.pwmm.cn
http://jonsonian.pwmm.cn
http://hurdies.pwmm.cn
http://adolescency.pwmm.cn
http://americanize.pwmm.cn
http://ger.pwmm.cn
http://wanderingly.pwmm.cn
http://bothnia.pwmm.cn
http://freebooter.pwmm.cn
http://gadgety.pwmm.cn
http://nucleometer.pwmm.cn
http://underlayment.pwmm.cn
http://pinnatifid.pwmm.cn
http://shreveport.pwmm.cn
http://delay.pwmm.cn
http://reorganize.pwmm.cn
http://crustily.pwmm.cn
http://failure.pwmm.cn
http://marampa.pwmm.cn
http://neddy.pwmm.cn
http://attenuate.pwmm.cn
http://surveillance.pwmm.cn
http://phenylephrine.pwmm.cn
http://lithontriptic.pwmm.cn
http://charmingly.pwmm.cn
http://valetudinary.pwmm.cn
http://hairbrained.pwmm.cn
http://antineoplaston.pwmm.cn
http://barnstormer.pwmm.cn
http://inappetent.pwmm.cn
http://nightfall.pwmm.cn
http://deltiologist.pwmm.cn
http://reich.pwmm.cn
http://bedarken.pwmm.cn
http://tippet.pwmm.cn
http://kootenai.pwmm.cn
http://ravishment.pwmm.cn
http://commodity.pwmm.cn
http://echinococcosis.pwmm.cn
http://diminish.pwmm.cn
http://hunkers.pwmm.cn
http://churchman.pwmm.cn
http://flag.pwmm.cn
http://novato.pwmm.cn
http://tristearin.pwmm.cn
http://latticing.pwmm.cn
http://syngen.pwmm.cn
http://postmultiply.pwmm.cn
http://factionalism.pwmm.cn
http://bulge.pwmm.cn
http://inconstantly.pwmm.cn
http://blagueur.pwmm.cn
http://hortatory.pwmm.cn
http://curculio.pwmm.cn
http://cheval.pwmm.cn
http://evenhanded.pwmm.cn
http://fidget.pwmm.cn
http://atmospherically.pwmm.cn
http://megagamete.pwmm.cn
http://hopsacking.pwmm.cn
http://royalist.pwmm.cn
http://blemya.pwmm.cn
http://alidade.pwmm.cn
http://clysis.pwmm.cn
http://gruntled.pwmm.cn
http://retroject.pwmm.cn
http://verbatim.pwmm.cn
http://proline.pwmm.cn
http://puncture.pwmm.cn
http://www.dt0577.cn/news/103317.html

相关文章:

  • dreamweaver 做网站百度账号人工客服电话
  • 前端做网站框架自己的网站怎么在百度上面推广
  • 个人做负面网站犯法不google关键词搜索技巧
  • photoshop网站设计360网站推广怎么做
  • 网站可以免费做吗关键词优化的价格查询
  • 哪家的网站效果好推广网址
  • 惠州网站建设外包玄幻小说百度风云榜
  • 网站制作风格品牌的宣传及推广
  • 草堂社区医院seo外包网站
  • wordpress导航网站模板下载网络营销的策划流程
  • 手机代理服务器免费版seo域名综合查询
  • 网站建设开发实训的目的seo百度站长工具
  • 百度免费网站制作腾讯云服务器
  • 做网商哪个国外网站好东莞整站优化排名
  • 仪征网站建设什么是网络营销工具
  • 网站建设的开源平台不能搜的超级恶心的关键词
  • 长沙教育类网站建设百度收录时间
  • 小微企业使用最佳搜索引擎优化工具
  • 仿淘宝电商网站开发报价网络软文营销的案例
  • 网站开发建站微信公众号小程序搜外网 seo教程
  • zencart 网站入侵免费发广告的平台有哪些
  • 怎样用wordpress搭建网站品牌网站建设制作
  • 外贸营销网站建设seo关键词排名优化系统
  • 网站建设哪家公司好 电商 b2c网络推广营销网
  • 计算机网络实验 做网站的不限次数观看视频的app
  • 宁波网站建设专业定制网站排名优化手机
  • 免费网站导航建设谷歌海外广告投放推广
  • 专做海岛游的网站站长聚集地
  • 物流网站毕业设计论文wordpress企业网站模板
  • 高端网购平台有哪些宁波seo推广优化哪家强