是时候学习真正的spark技术了

是时候学习真正的 spark 技术了cdn.xitu.io/2018/11/21/1673560dca70a6b7?w=1433&h=534&f=jpeg&s=309760">

spark sql 可以说是 spark 中的精华部分了,我感觉整体复杂度是 spark streaming 的 5 倍以上,现在 spark 官方主推 structed streaming, spark streaming  维护的也不积极了, 我们基于 spark 来构建大数据计算任务,重心也要向 DataSet 转移,原来基于 RDD 写的代码迁移过来,好处是非常大的,尤其是在性能方面,有质的提升,  spark sql 中的各种内嵌的性能优化是比人裸写 RDD 遵守各种所谓的最佳实践更靠谱的,尤其对新手来讲, 比如有些最佳实践讲到先 filter 操作再 map 操作,这种 spark sql 中会自动进行谓词下推,比如尽量避免使用 shuffle 操作,spark sql 中如果你开启了相关的配置,会自动使用 broadcast join 来广播小表,把 shuffle join 转化为 map join 等等,真的能让我们省很多心。


spark sql 的代码复杂度是问题的本质复杂度带来的,spark sql 中的 Catalyst 框架大部分逻辑是在一个 Tree 类型的数据结构上做各种折腾,基于 scala 来实现还是很优雅的,scala 的偏函数和强大的 Case 正则匹配,让整个代码看起来还是清晰的, 这篇文章简单的描述下 spark sql 中的一些机制和概念。

SparkSession 是我们编写 spark 应用代码的入口,启动一个 spark-shell 会提供给你一个创建 SparkSession, 这个对象是整个 spark 应用的起始点,我们来看下 sparkSession 的一些重要的变量和方法:

是时候学习真正的 spark 技术了

上面提到的 sessionState 是一个很关键的东西,维护了当前 session 使用的所有的状态数据,有以下各种需要维护的东西:

是时候学习真正的 spark 技术了

spark sql 内部使用 dataFrame 和 Dataset 来表示一个数据集合,然后你可以在这个数据集合上应用各种统计函数和算子,有人可能对  DataFrame 和 Dataset 分不太清,其实 DataFrame 就是一种类型为 Row 的 DataSet,

type DataFrame = Dataset[Row]

这里说的 Row 类型在 Spark sql 对外暴露的 API 层面来说的, 然而 DataSet 并不要求输入类型为 Row,也可以是一种强类型的数据,DataSet 底层处理的数据类型为 Catalyst 内部 InternalRow 或者 UnsafeRow 类型, 背后有一个 Encoder 进行隐式转换,把你输入的数据转换为内部的 InternalRow,那么这样推论,DataFrame 就对应 RowEncoder。

在 Dataset 上进行 transformations 操作就会生成一个元素为 LogicalPlan 类型的树形结构, 我们来举个例子,假如我有一张学生表,一张分数表,需求是统计所有大于 11 岁的学生的总分。

是时候学习真正的 spark 技术了
是时候学习真正的 spark 技术了

这个 queryExecution 就是整个执行计划的执行引擎, 里面有执行过程中,各个中间过程变量,整个执行流程如下

是时候学习真正的 spark 技术了

那么我们上面例子中的 sql 语句经过 Parser 解析后就会变成一个抽象语法树,对应解析后的逻辑计划 AST 为

是时候学习真正的 spark 技术了

形象一点用图来表示

是时候学习真正的 spark 技术了

我们可以看到过滤条件变为了 Filter 节点,这个节点是 UnaryNode 类型, 也就是只有一个孩子,两个表中的数据变为了 UnresolvedRelation 节点,这个节点是 LeafNode 类型, 顾名思义,叶子节点, JOIN 操作就表位了 Join 节点, 这个是一个 BinaryNode 节点,有两个孩子。

上面说的这些节点都是 LogicalPlan 类型的, 可以理解为进行各种操作的 Operator, spark sql 对应各种操作定义了各种 Operator。

是时候学习真正的 spark 技术了

这些 operator 组成的抽象语法树就是整个 Catatyst 优化的基础,Catatyst 优化器会在这个树上面进行各种折腾,把树上面的节点挪来挪去来进行优化。

现在经过 Parser 有了抽象语法树,但是并不知道 score,sum 这些东西是啥,所以就需要 analyer 来定位, analyzer 会把 AST 上所有 Unresolved 的东西都转变为 resolved 状态,sparksql 有很多resolve 规则,都很好理解,例如 ResolverRelations 就是解析表(列)的基本类型等信息,ResolveFuncions 就是解析出来函数的基本信息,比如例子中的sum 函数,ResolveReferences 可能不太好理解,我们在 sql 语句中使用的字段比如 Select name 中的 name 对应一个变量, 这个变量在解析表的时候就作为一个变量(Attribute 类型)存在了,那么 Select 对应的 Project 节点中对应的相同的变量就变成了一个引用,他们有相同的 ID,所以经过 ResolveReferences 处理后,就变成了 AttributeReference 类型   ,保证在最后真正加载数据的时候他们被赋予相同的值,就跟我们写代码的时候定义一个变量一样,这些 Rule 就反复作用在节点上,指定树节点趋于稳定,当然优化的次数多了会浪费性能,所以有的 rule  作用 Once, 有的 rule 作用 FixedPoint, 这都是要取舍的。好了, 不说废话,我们做个小实验。

是时候学习真正的 spark 技术了

我们使用 ResolverRelations 对我们的 AST 进行解析,解析后可以看到原来的 UnresolvedRelation 变成了 LocalRelation,这个表示一个本地内存中的表,这个表是我们使用 createOrReplaceTempView 的时候注册在 catalog 中的,这个 relove 操作无非就是在 catalog 中查表,找出这个表的 schema, 而且解析出来相应的字段,把外层用户定义的 各个 StructField 转变为 AttibuteReference,使用 ID 进行了标记。

是时候学习真正的 spark 技术了

我们再使用 ResolveReferences 来搞一下,你会发现上层节点中的相同的字段都变成了拥有相同 ID 的引用,他们的类型都是 AttibuteReference。最终所有的 rule 都应用后,整个 AST 就变为了


是时候学习真正的 spark 技术了

下面重点来了,要进行逻辑优化了,我们看下逻辑优化有哪些:

是时候学习真正的 spark 技术了

是时候学习真正的 spark 技术了
sparksql 中的逻辑优化种类繁多,spark sql 中的 Catalyst 框架大部分逻辑是在一个 Tree 类型的数据结构上做各种折腾,基于 scala 来实现还是很优雅的,scala 的偏函数 和 强大的 Case 正则匹配,让整个代码看起来还是清晰的,废话少说,我们来搞个小实验。

是时候学习真正的 spark 技术了

看到了没,把我的 (100 + 10) 换成了 110。

是时候学习真正的 spark 技术了

使用 PushPredicateThroughJoin 把一个单单对 stu 表做过滤的 Filter 给下推到 Join 之前了,会少加载很多数据,性能得到了优化,我们来看下最终的样子。

是时候学习真正的 spark 技术了

至少用了 ColumnPruning,PushPredicateThroughJoin,ConstantFolding,RemoveRedundantAliases 逻辑优化手段,现在我的小树变成了:

是时候学习真正的 spark 技术了

做完逻辑优化,毕竟只是抽象的逻辑层,还需要先转换为物理执行计划,将逻辑上可行的执行计划变为 Spark 可以真正执行的计划。

是时候学习真正的 spark 技术了

spark sql 把逻辑节点转换为了相应的物理节点, 比如 Join 算子,Spark 根据不同场景为该算子制定了不同的算法策略,有BroadcastHashJoin、ShuffleHashJoin 以及 SortMergeJoin 等, 当然这里面有很多优化的点,spark 在转换的时候会根据一些统计数据来智能选择,这就涉及到基于代价的优化,这也是很大的一块,后面可以开一篇文章单讲, 我们例子中的由于数据量小于 10M, 自动就转为了 BroadcastHashJoin,眼尖的同学可以看到好像多了一些节点,我们来解释下, BroadcastExchange 节点继承 Exchage 类,用来在节点间交换数据,这里的BroadcastExchange 就是会把 LocalTableScan出来的数据 broadcast 到每个 executor 节点,用来做 map-side join。最后的 Aggregate 操作被分为了两步,第一步先进行并行聚合,然后对聚合后的结果,再进行 Final 聚合,这个就类似域名 map-reduce  里面的 combine 和最后的 reduce, 中间加上了一个 Exchange hashpartitioning, 这个是为了保证相同的 key shuffle 到相同的分区,当前物理计划的 Child 输出数据的 Distribution 达不到要求的时候需要进行Shuffle,这个是在最后的 EnsureRequirement 阶段插入的交换数据节点,在数据库领域里面,有那么一句话,叫得 join 者得天下,我们重点讲一些 spark sql 在 join 操作的时候做的一些取舍。

Join 操作基本上能上会把两张 Join 的表分为大表和小表,大表作为流式遍历表,小表作为查找表,然后对大表中的每一条记录,根据 Key 来取查找表中取相同 Key 的记录。

spark 支持所有类型的 Join:

是时候学习真正的 spark 技术了

spark sql 中 join 操作根据各种条件选择不同的 join 策略,分为 BroadcastHashJoin, SortMergeJoin, ShuffleHashJoin。

站在用户的角度思考问题,与客户深入沟通,找到天河网站设计与天河网站推广的解决方案,凭借多年的经验,让设计与互联网技术结合,创造个性化、用户体验好的作品,建站类型包括:成都网站建设、成都网站设计、企业官网、英文网站、手机端网站、网站推广、域名注册虚拟主机、企业邮箱。业务覆盖天河地区。

  • BroadcastHashJoin:spark 如果判断一张表存储空间小于 broadcast 阈值时(Spark 中使用参数 spark.sql.autoBroadcastJoinThreshold 来控制选择 BroadcastHashJoin 的阈值,默认是 10MB),就是把小表广播到 Executor, 然后把小表放在一个 hash 表中作为查找表,通过一个 map 操作就可以完成 join 操作了,避免了性能代码比较大的 shuffle 操作,不过要注意, BroadcastHashJoin 不支持 full outer join, 对于 right outer join, broadcast 左表,对于 left outer join,left semi join,left anti join ,broadcast 右表, 对于 inner join,那个表小就 broadcast 哪个。

  • SortMergeJoin:如果两个表的数据都很大,比较适合使用 SortMergeJoin,  SortMergeJoin 使用shuffle 操作把相同 key 的记录 shuffle 到一个分区里面,然后两张表都是已经排过序的,进行 sort merge 操作,代价也可以接受。

  • ShuffleHashJoin:就是在 shuffle 过程中不排序了,把查找表放在hash表中来进行查找 join,那什么时候会进行 ShuffleHashJoin 呢?查找表的大小不能超过 spark.sql.autoBroadcastJoinThreshold 值,不然就使用  BroadcastHashJoin 了,每个分区的平均大小不能超过   spark.sql.autoBroadcastJoinThreshold ,这样保证查找表可以放在内存中不 OOM, 还有一个条件是 大表是小表的 3 倍以上,这样才能发挥这种 Join 的好处。


    上面提到 AST 上面的节点已经转换为了物理节点,这些物理节点最终从头节点递归调用 execute 方法,里面会在 child 生成的 RDD 上调用 transform操作就会产生一个串起来的 RDD 链, 就跟在 spark stremaing 里面在 DStream 上面递归调用那样。最后执行出来的图如下:


    是时候学习真正的 spark 技术了

可以看到这个最终执行的时候分分成了两个 stage, 把小表 broeadcastExechage 到了大表上做 BroadcastHashJoin, 没有进化 shuffle 操作,然后最后一步聚合的时候,先在 map 段进行了一次 HashAggregate sum 函数, 然后 Exchage 操作根据 name 把相同 key 的数据 shuffle 到同一个分区,然后做最终的 HashAggregate sum 操作,这里有个 WholeStageCodegen 比较奇怪,这个是干啥的呢,因为我们在执行 Filter ,Project 这些 operator 的时候,这些 operator 内部包含很多  Expression, 比如 SELECT sum(v),name, 这里的 sum 和 v 都是 Expression,这里面的 v 属于 Attribute 变量表达式,表达式也是树形数据结构,sum(v)  就是 sum 节点和 sum 的子节点 v 组成的一个树形结构,这些表达式都是可以求值和生成代码的,表达式最基本的功能就是求值,对输入的 Row 进行计算 , Expression 需要实现 def eval(input: InternalRow = null): Any 函数来实现它的功能。

表达式是对 Row 进行加工,输出的可以是任意类型,但是 Project 和 Filter 这些 Plan 输出的类型是 def output: Seq[Attribute], 这个就是代表一组变量,比如我们例子中的 Filter (age >= 11) 这个plan, 里面的 age>11 就是一个表达式,这个 > 表达式依赖两个子节点, 一个Literal常量表达式求值出来就是 11, 另外一个是 Attribute 变量表达式 age, 这个变量在 analyze 阶段转变为了 AttributeReference 类型,但是它是Unevaluable,为了获取属性在输入 Row 中对应的值, 还得根据 schema 关联绑定一下这个变量在一行数据的 index, 生成 BoundReference,然后 BoundReference 这种表达式在 eval 的时候就可以根据 index 来获取 Row 中的值。  age>11 这个表达式最终输出类型为 boolean 类型,但是 Filter 这个 Plan 输出类型是 Seq[Attribute] 类型。

可以想象到,数据在一个一个的 plan 中流转,然后每个 plan 里面表达式都会对数据进行处理,就相当于经过了一个个小函数的调用处理,这里面就有大量的函数调用开销,那么我们是不是可以把这些小函数内联一下,当成一个大函数,WholeStageCodegen 就是干这事的。

是时候学习真正的 spark 技术了

可以看到最终执行计划每个节点前面有个 * 号,说明整段代码生成被启用,在我们的例子中,Filter, Project,BroadcastHashJoin,Project,HashAggregate 这一段都启用了整段代码生成,级联为了两个大函数,有兴趣可以使用 a.queryExecution.debug.codegen 看下生成后的代码长什么样子。然而 Exchange 算子并没有实现整段代码生成,因为它需要通过网络发送数据。

我今天的分享就到这里,其实 spark sql 里面有很多有意思的东西,但是因为问题的本质复杂度,导致需要高度抽象才能把这一切理顺,这样就给代码阅读者带来了理解困难, 但是你如果真正看进去了,就会有很多收获。如果对本文有任何见解,欢迎在文末留言说出你的想法。
 
**牛人说**

「牛人说」专栏致力于技术人思想的发现,其中包括技术实践、技术干货、技术见解、成长心得,还有一切值得被发现的内容。我们希望集合最优秀的技术人,挖掘独到、犀利、具有时代感的声音。

投稿邮箱:marketing@qiniu.com
br/>
 
**牛人说**

「牛人说」专栏致力于技术人思想的发现,其中包括技术实践、技术干货、技术见解、成长心得,还有一切值得被发现的内容。我们希望集合最优秀的技术人,挖掘独到、犀利、具有时代感的声音。

投稿邮箱:marketing@qiniu.com


网页题目:是时候学习真正的spark技术了
标题URL:http://scjbc.cn/article/iihjpg.html

其他资讯