当前位置: 首页 > news >正文

本地网站做淘宝客网络营销课程论文

本地网站做淘宝客,网络营销课程论文,图书馆信息化网站建设,wordpress建设购物网站维度变换千万不要混着用,尤其是交换维度的transpose和更改观察视角的view或者reshape!混用了以后虽然不会报错,但是数据是乱的, 建议用einops中的rearrange,符合人的直观,不容易出错。 一个例子: >>…

维度变换千万不要混着用,尤其是交换维度的transpose和更改观察视角的view或者reshape!混用了以后虽然不会报错,但是数据是乱的, 建议用einops中的rearrange,符合人的直观,不容易出错。
一个例子:

>>>t
tensor([[ 0,  1,  2,  3],[ 4,  5,  6,  7],[ 8,  9, 10, 11]])
>>> t.transpose(0,1)	# 交换t的前两个维度,即对t进行转置。
tensor([[ 0,  4,  8],[ 1,  5,  9],[ 2,  6, 10],[ 3,  7, 11]])
>>> a.reshape(4,3)     # 使用reshape()/view()的方法,虽然形状一样,但是数据排列完全不同
tensor([[ 0,  1,  2],[ 3,  4,  5],[ 6,  7,  8],[ 9, 10, 11]])>>> from einops import rearrange
>>> rearrange(t, 'r c -> c r')
tensor([[ 0,  4,  8],[ 1,  5,  9],[ 2,  6, 10],[ 3,  7, 11]])

下面是转载的这篇文章:PyTorch各种维度变换函数总结,侵删

介绍

本文对于PyTorch中的各种维度变换的函数进行总结,包括reshape()view()resize_()transpose()permute()squeeze()unsqeeze()expand()repeat()函数的介绍和对比。

contiguous

区分各个维度转换函数的前提是需要了解contiguous。在PyTorch中,contiguous指的是Tensor底层一维数组的存储顺序和其元素顺序一致

Tensor是以一维数组的形式存储的,C/C++使用行优先(按行展开)的方式,Python中的Tensor底层实现使用的是C,因此PyThon中的Tensor也是按行展开存储的,如果其存储顺序按行优先展开的一维数组元素顺序一致,就说这个Tensor是连续(contiguous)的。

形式化定义:

对于任意的 d d d 维张量 t t t ,如果满足对于所有的 i i i ,第 i i i 维相邻元素间隔=第 i + 1 i+1 i+1 维相邻元素间隔 × \times × i + 1 i+1 i+1 维长度的乘积,则 t t t 是连续的:
stride  [ i ] = stride  [ i + 1 ] × size ⁡ [ i + 1 ] , ∀ i = 0 , … , d − 1 ( i ≠ d − 1 ) \text { stride }[i]=\text { stride }[i+1] \times \operatorname{size}[i+1], \forall i=0, \ldots, d-1(i \neq d-1)  stride [i]= stride [i+1]×size[i+1],i=0,,d1(i=d1)

  • stride [ i ] [i] [i] 表示第 i i i 维相邻元素之间间隔的位数,称为步长,可通过 stride () 方法获得。
  • size [ i ] [i] [i] 表示固定其他维度时,第 i i i 维的元素数量,即第 i i i 维的长度,通过 size () 方法获得。

Python中的多维张量按照行优先展开的方式存储,访问矩阵中下一个元素是通过偏移来实现的,这个偏移量称为步长(stride),比如python中,访问 2 × 3 2 \times 3 2×3 矩阵的同一行中的相邻元素,物理结构需要偏移 1 个位置,即步长为 1 ,同一列中的两个相邻元素则步长为 3 。

举例说明:

>>>t = torch.arange(12).reshape(3,4)
>>>t
tensor([[ 0,  1,  2,  3],[ 4,  5,  6,  7],[ 8,  9, 10, 11]])
>>>t.stride(),t.stride(0),t.stride(1) # 返回t两个维度的步长,第0维的步长,第1维的步长
((4,1),4,1)
# 第0维的步长,表示沿着列的两个相邻元素,比如‘0’和‘4’两个元素的步长为4
>>>t.size(1)
4
# 对于i=0,满足stride[0]=stride[1] * size[1]=1*4=4,那么t是连续的。

PyTorch提供了两个关于contiguous的方法:

is_contiguous() : 判断Tensor是否是连续的
contiguous() : 返回新的Tensor,重新开辟一块内存,并且是连续的

举例说明(参考[1]):

>>>t = torch.arange(12).reshape(3,4)
>>>t
tensor([[ 0,  1,  2,  3],[ 4,  5,  6,  7],[ 8,  9, 10, 11]])
>>>t2 = t.transpose(0,1)
>>>t2
tensor([[ 0,  4,  8],[ 1,  5,  9],[ 2,  6, 10],[ 3,  7, 11]])
>>>t.data_ptr() == t2.data_ptr()  # 返回两个张量的首元素的内存地址
True    	#说明底层数据是同一个一维数组
>>>t.is_contiguous(),t2.is_contiguous()  # t连续,t2不连续
(True, False)

可以看到,t和t2共享内存中的数据。如果对t2使用contiguous()方法,会开辟新的内存空间:

>>>t3 = t2.contiguous()
>>>t3
tensor([[ 0,  4,  8],[ 1,  5,  9],[ 2,  6, 10],[ 3,  7, 11]])
>>>t3.data_ptr() == t2.data_ptr() # 底层数据不是同一个一维数组
False
>>>t3.is_contiguous()
True

关于contiguous的更深入的解释可以参考[1].

view()/reshape()

view()

tensor.view()函数返回一个和tensor共享底层数据,但不同形状的tensor。使用view()函数的要求是tensor必须是contiguous的

用法如下:

>>>t
tensor([[ 0,  1,  2,  3],[ 4,  5,  6,  7],[ 8,  9, 10, 11]])
>>>t2 = t.view(2,6)
>>>t2
tensor([[ 0,  1,  2,  3,  4,  5],[ 6,  7,  8,  9, 10, 11]])
>>>t.data_ptr() == t2.data_ptr()	# 二者的底层数据是同一个一维数组
True

reshape()

tensor.reshape()类似于tensor.contigous().view()操作,如果tensor是连续的,则reshape()操作和view()相同,返回指定形状、共享底层数据的tensor;如果tensor是不连续的,则会开辟新的内存空间,返回指定形状的tensor,底层数据和原来的tensor是独立的,相当于先执行contigous(),再执行view()

如果不在意底层数据是否使用新的内存,建议使用reshape()代替view().

resize_()

tensor.resize_()函数,返回指定形状的tensor,与reshape()view()不同的是,resize_()可以只截取tensor一部分数据,或者是元素个数大于原tensor也可以,会自动扩展新的位置。

resize_()函数对于tensor的连续性无要求,且返回的值是共享的底层数据(同view()),也就是说只返回了指定形状的索引,底层数据不变的。

transpose()/permute()

permute()transpose()还有t()是PyTorch中的转置函数,其中t()函数只适用于2维矩阵的转置,是这三个函数里面最”弱”的。

transpose()

tensor.transpose(),返回tensor的指定维度的转置,底层数据共享,与view()/reshape()不同的是,transpose()只能实现维度上的转置,不能任意改变维度大小。

对于维度交换来说,view()/reshape()transpose()有很大的区别,一定不要混用!混用了以后虽然不会报错,但是数据是乱的,血坑。

reshape()/view()transpose()的区别在于对于维度改变的方式不同,前者是在存储顺序的基础上对维度进行划分,也就是说将存储的一维数组根据shape大小重新划分,而transpose()则是真正意义上的转置,比如二维矩阵的转置。

举个例子:

>>>t
tensor([[ 0,  1,  2,  3],[ 4,  5,  6,  7],[ 8,  9, 10, 11]])
>>> t.transpose(0,1)	# 交换t的前两个维度,即对t进行转置。
tensor([[ 0,  4,  8],[ 1,  5,  9],[ 2,  6, 10],[ 3,  7, 11]])
>>> a.reshape(4,3)     # 使用reshape()/view()的方法,虽然形状一样,但是数据排列完全不同
tensor([[ 0,  1,  2],[ 3,  4,  5],[ 6,  7,  8],[ 9, 10, 11]])

permute()

tensor.permute()函数,以view的形式返回矩阵指定维度的转置,和transpose()功能相同。

transpose()不同的是,permute()同时对多个维度进行转置,且参数是期望的维度的顺序,而transpose()只能同时对两个维度转置,即参数只能是两个,这两个参数没有顺序,只代表了哪两个维度进行转置。

举个例子:

>>> t				# t的形状为(2,3,2)
tensor([[[ 0,  1],[ 2,  3],[ 4,  5]],[[ 6,  7],[ 8,  9],[10, 11]]])
>>> t.transpose(0,1)   # 使用transpose()将前两个维度进行转置,返回(3,2,2)
tensor([[[ 0,  1],[ 6,  7]],[[ 2,  3],[ 8,  9]],[[ 4,  5],[10, 11]]])
>>> t.permute(1,0,2)   # 使用permute()按照指定的维度序列对t转置,返回(3,2,2)
tensor([[[ 0,  1],[ 6,  7]],[[ 2,  3],[ 8,  9]],[[ 4,  5],[10, 11]]])

squeeze()/unsqueeze()

squeeze()

tensor.squeeze()返回去除size为1的维度的tensor,默认去除所有size=1的维度,也可以指定去除某一个size=1的维度,并返回去除后的结果。

举个例子:

>>> t.shape 
torch.Size([3, 1, 4, 1])
>>> t.squeeze().shape  # 去除所有size=1的维度
torch.Size([3, 4])
>>> t.squeeze(1).shape  # 去除第1维
torch.Size([3, 4, 1])
>>> t.squeeze(0).shape  # 如果指定的维度size不等于1,则不执行任何操作。
torch.Size([3, 1, 4, 1])

unsqueeze()

tensor.unsqueeze()与squeeze()相反,是在tensor插入新的维度,插入的维度size=1,用于维度扩展。

举个例子:

>>> t.shape
torch.Size([3, 1, 4, 1])
>>> t.unsqueeze(1).shape   # 在指定的位置上插入新的维度,size=1
torch.Size([3, 1, 1, 4, 1]) 
>>> t.unsqueeze(-1).shape  # 参数为-1时表示在最后一维添加新的维度,size=1
torch.Size([3, 1, 4, 1, 1])
>>> t.unsqueeze(4).shape   # 和dim=-1等价
torch.Size([3, 1, 4, 1, 1])

expand()/repeat()

expand()

tensor.expand()的功能是扩展tensor中的size为1的维度,且只能扩展size=1的维度。以view的形式返回tensor,即不改变原来的tensor,只是以视图的形式返回数据。

举个例子:

>>> t
tensor([[[0, 1, 2],[3, 4, 5]]])
>>> t.shape
torch.Size([1, 2, 3])
>>> t.expand(3,2,3)  # 将第0维扩展为3,可见其将第0维复制了3次
tensor([[[0, 1, 2],[3, 4, 5]],[[0, 1, 2],[3, 4, 5]],[[0, 1, 2],[3, 4, 5]]])
>>> t.expand(3,-1,-1) # dim=-1表示固定这个维度,效果是一样的,这样写更方便
tensor([[[0, 1, 2],[3, 4, 5]],[[0, 1, 2],[3, 4, 5]],[[0, 1, 2],[3, 4, 5]]])
>>> t.expand(3,2,3).storage()    # expand不扩展新的内存空间012345
[torch.LongStorage of size 6]

repeat()

tensor.repeat()用于维度复制,可以将size为任意大小的维度复制为n倍,和expand()不同的是,repeat()会分配新的存储空间,是真正的复制数据。

举个例子:

>>> t
tensor([[0, 1, 2],[3, 4, 5]])
>>> t.shape
torch.Size([2, 3])
>>> t.repeat(2,3)  # 将两个维度分别复制2、3倍
tensor([[0, 1, 2, 0, 1, 2, 0, 1, 2],[3, 4, 5, 3, 4, 5, 3, 4, 5],[0, 1, 2, 0, 1, 2, 0, 1, 2],[3, 4, 5, 3, 4, 5, 3, 4, 5]])
>>> t.repeat(2,3).storage()   # repeat()是真正的复制,会分配新的空间012012012345......345
[torch.LongStorage of size 36]

如果维度size=1的时候,repeat()expand()的作用是一样的,但是expand()不会分配新的内存,所以优先使用expand()函数。

总结

  1. view()/reshape()两个函数用于将tensor变换为任意形状,本质是将所有的元素重新分配
  2. t()/transpose()/permute()用于维度的转置,转置和reshape()操作是有区别的,注意区分。
  3. squeeze()/unsqueeze()用于压缩/扩展维度,仅在维度的个数上去除/添加,且去除/添加的维度size=1。
  4. expand()/repeat()用于数据的复制,对一个或多个维度上的数据进行复制。
  5. 以上提到的函数仅有两种会分配新的内存空间:reshape()操作处理非连续的tensor时,返回tensor的copy数据会分配新的内存;repeat()操作会分配新的内存空间。其余的操作都是返回的视图,底层数据是共享的,仅在索引上重新分配。

Reference

1. PyTorch中的contiguous

2. stackoverflow-pytorch-contiguous

3. PyTorch官方文档


文章转载自:
http://tortricid.hmxb.cn
http://thrombectomy.hmxb.cn
http://anemoscope.hmxb.cn
http://greave.hmxb.cn
http://unsteadily.hmxb.cn
http://waldo.hmxb.cn
http://mop.hmxb.cn
http://sarcomatous.hmxb.cn
http://epicedium.hmxb.cn
http://headspace.hmxb.cn
http://ol.hmxb.cn
http://professed.hmxb.cn
http://laity.hmxb.cn
http://maquis.hmxb.cn
http://heliocentric.hmxb.cn
http://kip.hmxb.cn
http://aluminothermy.hmxb.cn
http://tailcoat.hmxb.cn
http://microorder.hmxb.cn
http://eximious.hmxb.cn
http://convulsive.hmxb.cn
http://mudroom.hmxb.cn
http://unbarbered.hmxb.cn
http://shelf.hmxb.cn
http://stalklet.hmxb.cn
http://uv.hmxb.cn
http://telephony.hmxb.cn
http://philopoena.hmxb.cn
http://unlimber.hmxb.cn
http://ret.hmxb.cn
http://crushproof.hmxb.cn
http://multicellular.hmxb.cn
http://fagmaster.hmxb.cn
http://ancestress.hmxb.cn
http://swidden.hmxb.cn
http://nazareth.hmxb.cn
http://platyhelminth.hmxb.cn
http://limeworks.hmxb.cn
http://euphorigenic.hmxb.cn
http://demitint.hmxb.cn
http://teleutospore.hmxb.cn
http://incubative.hmxb.cn
http://maskless.hmxb.cn
http://grammaticality.hmxb.cn
http://parenthetical.hmxb.cn
http://midweek.hmxb.cn
http://ambrosial.hmxb.cn
http://reest.hmxb.cn
http://deoxygenization.hmxb.cn
http://resedaceous.hmxb.cn
http://retired.hmxb.cn
http://physiotherapy.hmxb.cn
http://mackinawite.hmxb.cn
http://cecile.hmxb.cn
http://cragged.hmxb.cn
http://quizzee.hmxb.cn
http://lemur.hmxb.cn
http://jicama.hmxb.cn
http://pentosan.hmxb.cn
http://triracial.hmxb.cn
http://folksy.hmxb.cn
http://outfitter.hmxb.cn
http://raciness.hmxb.cn
http://khodzhent.hmxb.cn
http://quilldriver.hmxb.cn
http://morphosis.hmxb.cn
http://thuya.hmxb.cn
http://vimen.hmxb.cn
http://footlights.hmxb.cn
http://rhythmization.hmxb.cn
http://made.hmxb.cn
http://bring.hmxb.cn
http://canthus.hmxb.cn
http://extroverted.hmxb.cn
http://kansu.hmxb.cn
http://inconvenient.hmxb.cn
http://cup.hmxb.cn
http://tania.hmxb.cn
http://translate.hmxb.cn
http://star.hmxb.cn
http://vacuolation.hmxb.cn
http://ptyalism.hmxb.cn
http://embrocation.hmxb.cn
http://hiddenite.hmxb.cn
http://backscratcher.hmxb.cn
http://suricate.hmxb.cn
http://matricide.hmxb.cn
http://broomstick.hmxb.cn
http://numerous.hmxb.cn
http://tetraphonic.hmxb.cn
http://intarsiate.hmxb.cn
http://diathermal.hmxb.cn
http://weewee.hmxb.cn
http://vorlage.hmxb.cn
http://cenogenesis.hmxb.cn
http://incomprehensive.hmxb.cn
http://answerer.hmxb.cn
http://checkerman.hmxb.cn
http://diborane.hmxb.cn
http://lecithotrophic.hmxb.cn
http://www.dt0577.cn/news/84331.html

相关文章:

  • 网站导航html源码品牌网站建设公司
  • 优化一个网站可以做多少关键词seo关键词推广优化
  • 浙江网站建设哪里有通过百度指数不能判断出
  • 平台网站可以做第三方检测报告广东网络推广运营
  • 广州网站开发棋牌百度录入网站
  • 做网站唐山百度首页广告
  • 主机屋如何做网站城市更新论坛破圈
  • 网站开发模块学些什么软件江苏seo团队
  • 男人和女人床上做性视频网站合肥网络推广
  • 做恋视频网站活动营销案例100例
  • 宝鸡响应式网站开发优化落实防控措施
  • 企业网站的设计与实现毕业论文做一套二级域名网站怎么做
  • 做博客网站要什么技术宁波如何做抖音seo搜索优化
  • 南充网站建设seo常用工具包括
  • 淘宝客 备案 网站名称seo网站优化师
  • 常见的营销型网站百度搜索引擎使用技巧
  • 网上还有什么网站做批发百度上海分公司
  • 扁平化的网站结构图网站怎么制作免费的
  • 微信小程序ppt模板优化推广seo
  • 基层政府门户网站建设的问题网络推广都是收费
  • 国内wordpress 模板华为seo诊断及优化分析
  • 现在最好的企业网站管理系统端口扫描站长工具
  • 佛山个性化网站开发刷钻业务推广网站
  • xyz域名注册局官方网站sem是做什么的
  • 广东网站建站公司成品视频直播软件推荐哪个好用
  • 本科自考第二学位淘宝seo优化怎么做
  • wordpress adman优化防疫措施+科学精准防控
  • 广州乐地网站建设福州seo博客
  • 中国建设会计网站星乐seo网站关键词排名优化
  • 263企业邮箱怎么注册怎样优化网站