当前位置: 首页 > news >正文

成都设计网站建设百度竞价开户3000

成都设计网站建设,百度竞价开户3000,徐州公司建站模板,广州商城网站建设Spark 的介绍与搭建:从理论到实践_spark环境搭建-CSDN博客 Spark 的Standalone集群环境安装与测试-CSDN博客 PySpark 本地开发环境搭建与实践-CSDN博客 Spark 程序开发与提交:本地与集群模式全解析-CSDN博客 Spark on YARN:Spark集群模式…

Spark 的介绍与搭建:从理论到实践_spark环境搭建-CSDN博客

Spark 的Standalone集群环境安装与测试-CSDN博客

PySpark 本地开发环境搭建与实践-CSDN博客

Spark 程序开发与提交:本地与集群模式全解析-CSDN博客

Spark on YARN:Spark集群模式之Yarn模式的原理、搭建与实践-CSDN博客

Spark 中 RDD 的诞生:原理、操作与分区规则-CSDN博客

目录

一、RDD 分区的设定规则

(一)parallelize 获取 rdd 时的分区设定

(二)通过外部读取数据 - textFile 时的分区设定

(三)子 RDD 分区数

(四)RDD分区的设定规则

二、高阶函数及 Lambda 表达式

(一)复习 Python 函数语法

(二)需求示例与高阶函数概念引入

一个简单的需求场景

高阶函数的定义

(三)Lambda 表达式与高阶函数的结合使用

使用 Lambda 表达式优化代码

更复杂的需求示例

在集合操作中的应用

三、总结


        在大数据处理领域,Apache Spark 是一个强大的开源分布式计算框架。它提供了丰富的功能和灵活的编程接口,其中弹性分布式数据集(RDD)是其核心概念之一。RDD 的分区设定规则对于数据处理的性能和资源利用至关重要,同时,高阶函数和 Lambda 表达式的运用能让我们在 Spark 编程中更加简洁高效地处理数据。本文将深入探讨 RDD 分区的设定规则以及高阶函数和 Lambda 表达式的相关知识。

一、RDD 分区的设定规则

(一)parallelize 获取 rdd 时的分区设定

方式一:并行化集合:parallelize
没有指定:spark.default.parallelism参数值决定
指定分区:指定几个,就是几个分区
list_rdd = sc.parallelize(data,numSlices=2)

总结:假如指定了分区数,分区数就是这个,假如没有指定spark.default.parallelism。

(二)通过外部读取数据 - textFile 时的分区设定

没有指定:spark.default.parallelism和2取最小值,具体计算并行度的公式:
   min(spark.default.parallelism,2) 
指定分区:最小分区数,最少有这么多分区,具体的分区数可以根据HDFS分片规则来 
hdfs的一片是128M或者128*1.1 = 140.8M
file_rdd =sc.textFile("../datas/function_data/filter.txt", minPartitions=2)

# 假如你这个data.txt = 500M ,此时的分区数是:4  因为 500 =  128+ 128+ 128+ 116
    rdd3 = sc.textFile("hdfs://bigdata01:9820/datas/wordcount/data.txt", minPartitions=2)
    rdd3.foreach(lambda x: print(x))

spark.default.parallelism 参数

        这个参数在 RDD 分区设定中起着关键作用,它用于指定没有父 RDD 的 RDD 的分区数。在不同的运行模式下,其取值规则有所不同。

Local mode(本地模式)

在本地模式下,分区数取决于本地机器的 CPU 核数。这是因为在本地环境中,资源主要受限于本地计算机的硬件配置。例如,如果本地机器是 4 核,那么分区数可能就是 4(具体可能还会受到其他相关设置的微调)。这种基于本地 CPU 核数的分区设定,能够充分利用本地计算资源,实现一定程度的并行计算。

Mesos fine grained mode(Mesos 细粒度模式)

在 Mesos 细粒度模式下,分区数的默认值是 8。Mesos 是一种集群资源管理框架,在这种特定的模式下,Spark 有其默认的分区设定策略。这个默认值 8 是经过实践和设计考虑的,旨在在 Mesos 细粒度管理环境下平衡数据处理的效率和资源利用。

其他模式(Others)

在其他模式下,分区数是集群中所有参与运算的设备的所有核数与 2 相比较,取较大值。这种设定方式考虑了集群的整体计算能力。例如,如果集群中有 10 个节点,每个节点有 2 核,那么总核数是 20,大于 2,所以分区数就是 20。这种策略保证了在不同规模的集群中都能有合适的并行度,避免了因核数过少而导致的处理效率低下问题,同时也防止了因核数过多而可能引起的资源过度分配问题。

(三)子 RDD 分区数

        子 RDD 的分区数与父 RDD 以及所使用的转换操作有关。在一些转换操作中,分区数可能保持不变,而在另一些操作中,分区数可能会根据数据的重新分布规则而改变。比如,在某些聚合操作后,分区数可能会减少,而在数据拆分操作后,分区数可能会增加。了解子 RDD 分区数的变化规律对于优化 Spark 作业的性能和资源利用有着重要意义。

(四)RDD分区的设定规则

(1)local模式
默认并行度取决于本地机器的核数,即
local: 没有指定CPU核数,则所有计算都运行在一个线程当中,没有任何并行计算
local[K]:指定使用K个Core来运行计算,比如local[2]就是运行2个Core来执行
local[*]: 自动帮你按照CPU的核数来设置线程数。比如CPU有4核,Spark帮你自动设置4个线程计算

        

(2)集群模式
集群模式包含Stanalone、Yarn模式,Mesos的默认并行度为8
默认并行度取决于所有executor上的总核数与2的最大值,比如集群模式的设置如下:
--num-executors 5
--executor-cores 2
上面配置Executor的数量为5,每个Executor的CPU Core数量为2,
executor上的总核数10,则默认并行度为Max(10,2)=10。


注意,上面只是默认并行度(defaultParallelism)的取值,并不一定是RDD最终的分区数。具体来说,对于从集合中创建的RDD,其最终分区数等于defaultParallelism,但是从外部存储系统的数据集创建创建的RDD,其最终的分区数:需要文件的总大小计算得到。

二、高阶函数及 Lambda 表达式

(一)复习 Python 函数语法

        在深入探讨高阶函数和 Lambda 表达式之前,我们先来复习一下 Python 函数的语法。函数是一段可重复使用的代码块,用于完成特定的任务。在 Python 中,我们使用def关键字来定义函数,例如:

创建
def 函数名(参数):代码逻辑返回值:return
调用
返回值 = 函数名(参数)def function_name(parameters):# 函数体return resultdef add(a,b)return a + bx = add(1,2)
print(x) # x = 3

        函数可以接受参数,在函数体中进行计算,并返回一个结果。参数可以有默认值,函数也可以没有返回值(此时return语句可以省略)。

(二)需求示例与高阶函数概念引入

一个简单的需求场景

        假设我们有一个列表list1 = [1, 2, 3, 4, 5, 6, 7, 8, 9, 10],我们想要对这个列表中的每个元素进行平方和次方运算。我们可以定义一个函数,然后使用map函数来将函数应用到list1的每个元素上:

import mathlist1 = [1, 2, 3, 4, 5, 6, 7, 8, 9, 10]
print(*list1)def pingFang(x):return x * xdef liFang(x):return math.pow(x, 3)def getNum(_list, flag):if flag == 2:return map(pingFang, _list)if flag == 3:return map(liFang, _list)# 此时的map是python的一个方法,不是spark里面一个算子RDD
# map(函数,后面是一个迭代器): 循环将一个迭代器中的元素拿过来,传递个前面的函数,计算得到一个map对象
# lambda 其实是一个匿名函数,主要用于一个方法中需要传递一个函数,这个函数只用一次,并且函数中的代码只有一行。
def getNum2(_list, flag):if flag == 2:return map(lambda x: x * x, _list)if flag == 3:return map(lambda x: math.pow(x, 3), _list)for e in getNum2(list1, 2):print(e)print("--" * 20)
for e in getNum2(list1, 3):print(e)

高阶函数的定义

        高阶函数是一种特殊的函数,它的某个参数是一个函数。就像我们上面提到的map函数,它接受一个函数(这里是comp)和一个可迭代对象(这里是list1)作为参数。一般来说,作为参数的函数(这里的comp)被称为参数函数。

        函数和算子在概念上有一些区别,函数通常是指一般的方法,它们在单机环境下执行,不能并行执行。而算子在分布式计算环境中,如 Spark 中,数据是分布式存储的,计算也是分布式进行的。

(三)Lambda 表达式与高阶函数的结合使用

使用 Lambda 表达式优化代码

        对于前面的平方运算示例,我们可以使用 Lambda 表达式来简化代码。Lambda 表达式是一种匿名函数,它的语法形式为lambda parameters: expression。使用 Lambda 表达式来实现列表元素平方运算的代码如下:

# 举例说明:
list1 = [1, 2, 3, 4, 5, 6, 7, 8, 9, 10]
def comp(x):return x*x
rs = map(comp, list1)
print(*rs)# 使用lambda 优化一下:
list1 = [1, 2, 3, 4, 5, 6, 7, 8, 9, 10]
rs = map(lambda x: x*x, list1)
print(*rs)

这里的lambda x: x * x就是一个匿名函数,它替代了我们之前定义的comp函数。

更复杂的需求示例

        我们来看一个更复杂一点的需求。给定一个值,我们可以求这个值的 2 次方或者 3 次方。首先是正常的写法:

# 正常思路
import mathdef getPingFang(num):return num ** 2def getLiFang(num):return math.pow(num, 3)def getNum(num, flat):if flat == 2:return getPingFang(num)if flat == 3:return getLiFang(num)print(getNum(10, 2))
print(getNum(10, 3))

这种写法相对比较繁琐,尤其是当函数体比较简单的时候。我们可以使用高阶函数和 Lambda 表达式来优化。我们定义一个高阶函数getNum2

def getNum2(fun, num):return fun(num)

然后我们可以这样使用它:

print(getNum2(getPingFang, 10))
print(getNum2(getLiFang, 10))

我们还可以使用 Lambda 表达式:

print(getNum2(lambda x: x ** 2, 10))
print(getNum2(lambda x: math.pow(x, 3), 10))

在集合操作中的应用

        假设我们有一个列表list = [1, 3, 4, 45, 56, 8],我们想要求这个列表中每个数的平方和立方。我们可以使用map这个高阶函数结合 Lambda 表达式来实现:

a = map(lambda x: math.pow(x, 2), list)
b = map(lambda x: math.pow(x, 3), list)
print(*a)
print(*b)

        这里map函数将 Lambda 表达式所定义的函数应用到列表的每个元素上,分别得到平方和立方的结果集。

三、总结

        在 Spark 编程中,理解 RDD 分区的设定规则对于优化数据处理性能至关重要。不同的获取 RDD 方式和运行模式下,分区数的设定都有其特定的规则。同时,高阶函数和 Lambda 表达式是提高代码简洁性和效率的有力工具。通过合理运用高阶函数和 Lambda 表达式,我们可以在处理数据集合时更加灵活和高效。无论是简单的数学运算还是复杂的数据分析场景,这些知识都能帮助我们更好地利用 Spark 的强大功能。在实际的大数据处理项目中,深入掌握这些概念并灵活运用,可以使我们的 Spark 作业更加高效地运行,提高数据处理的速度和质量,为企业和组织从海量数据中获取有价值的信息提供有力支持。希望本文能帮助读者更好地理解和应用这些重要的 Spark 编程知识点。


文章转载自:
http://epinasty.rdfq.cn
http://klootchman.rdfq.cn
http://lustrous.rdfq.cn
http://attain.rdfq.cn
http://priest.rdfq.cn
http://narcissism.rdfq.cn
http://mycophile.rdfq.cn
http://overfill.rdfq.cn
http://mystificator.rdfq.cn
http://micrometre.rdfq.cn
http://ligamentum.rdfq.cn
http://nitroglycerin.rdfq.cn
http://zoolite.rdfq.cn
http://larvicide.rdfq.cn
http://sourdough.rdfq.cn
http://bearded.rdfq.cn
http://standoffishly.rdfq.cn
http://locofoco.rdfq.cn
http://bali.rdfq.cn
http://frikadel.rdfq.cn
http://combi.rdfq.cn
http://clot.rdfq.cn
http://familistic.rdfq.cn
http://arbovirus.rdfq.cn
http://fibrovascular.rdfq.cn
http://solderability.rdfq.cn
http://manna.rdfq.cn
http://henhearted.rdfq.cn
http://juice.rdfq.cn
http://drapery.rdfq.cn
http://stotty.rdfq.cn
http://triserial.rdfq.cn
http://laurustinus.rdfq.cn
http://preventer.rdfq.cn
http://decani.rdfq.cn
http://metestrus.rdfq.cn
http://pupillage.rdfq.cn
http://quinin.rdfq.cn
http://handicraftsman.rdfq.cn
http://kahn.rdfq.cn
http://tapotement.rdfq.cn
http://dracaena.rdfq.cn
http://indict.rdfq.cn
http://cayuga.rdfq.cn
http://maestoso.rdfq.cn
http://jewelweed.rdfq.cn
http://pyrolyse.rdfq.cn
http://polecat.rdfq.cn
http://varicellate.rdfq.cn
http://theogonist.rdfq.cn
http://voluptuously.rdfq.cn
http://allodially.rdfq.cn
http://crossbar.rdfq.cn
http://malacostracous.rdfq.cn
http://quelea.rdfq.cn
http://frco.rdfq.cn
http://cyclone.rdfq.cn
http://ran.rdfq.cn
http://cybernate.rdfq.cn
http://wmc.rdfq.cn
http://rynd.rdfq.cn
http://butylene.rdfq.cn
http://crore.rdfq.cn
http://thousandfold.rdfq.cn
http://fulminant.rdfq.cn
http://potline.rdfq.cn
http://fatwitted.rdfq.cn
http://gift.rdfq.cn
http://dedicator.rdfq.cn
http://surrenderee.rdfq.cn
http://exoplasm.rdfq.cn
http://positive.rdfq.cn
http://imploringly.rdfq.cn
http://coastways.rdfq.cn
http://albomycin.rdfq.cn
http://kinetheodolite.rdfq.cn
http://rhythmic.rdfq.cn
http://paracystitis.rdfq.cn
http://elemi.rdfq.cn
http://incinerate.rdfq.cn
http://fibrocartilage.rdfq.cn
http://choanocyte.rdfq.cn
http://avifauna.rdfq.cn
http://uricosuric.rdfq.cn
http://mississippian.rdfq.cn
http://globoid.rdfq.cn
http://widukind.rdfq.cn
http://gabar.rdfq.cn
http://notoungulate.rdfq.cn
http://abidance.rdfq.cn
http://abatage.rdfq.cn
http://unload.rdfq.cn
http://maladaptation.rdfq.cn
http://toddler.rdfq.cn
http://ideologist.rdfq.cn
http://corroborator.rdfq.cn
http://columbarium.rdfq.cn
http://tortuosity.rdfq.cn
http://karikal.rdfq.cn
http://proof.rdfq.cn
http://www.dt0577.cn/news/94648.html

相关文章:

  • 成都网站制作设计互联网广告推广
  • 常德行业网站惠州seo计费
  • 做慈善黄色网站国际新闻最新消息
  • wordpress页面标题标签百度搜索关键词排名优化
  • 网站建设免费模版网络推广营销方案免费
  • 传播文化有限公司网站建设0元入驻的电商平台
  • 武汉建筑公司网站北京官网seo收费
  • 培训机构停课信息流优化师培训机构
  • 网站做等报定级工作要多久优秀软文范例800字
  • 数字图书馆网站建设零基础怎么做电商
  • 安卓app开发实例教程seo线下培训课程
  • 毕设做网站怎么弄代码设计兰州疫情最新情况
  • 哈尔滨网站建设效果好seo快速排名优化方式
  • 垂直行业门户网站建设方案新开传奇网站发布站
  • wordpress 积分商城seo有哪些优化工具
  • 集团网站建设服务地推app
  • b2c模式的网站有哪些链接购买
  • 网站建设注意事项公司企业网站建设
  • 自助定制网站开发公司nba最新排名东西部
  • 服务器租用多少钱一个月seo去哪里培训
  • 做网站需要用服务器吗互联网推广方式有哪些
  • 网站设计公司深圳seo谷歌外贸推广
  • 金融学类就业方向及就业前景seo技术306
  • 公司网页设计实例教程seo免费工具
  • 秦皇岛做网站公司排名推广咨询服务公司
  • 山西省网站建设备案表石家庄seo顾问
  • 太原网站建设鸣蝉西安网站设计公司
  • 怎么做新的网站网络营销公司
  • 湖州住房和城乡建设厅网站建站快车
  • 百度收录最高发帖网站优化营商环境条例全文