Spark中reduce算子详解介绍

在这里插入图片描述


一、Spark中reduce算子详解介绍

前面有篇文章讲解了如何使用 reduceByKey 这个算子来对键值类型数据进行聚合,该算子实现了将相同key的数据在分区内和分区间按照我们的指定逻辑进行聚合,不过该算子只使用于键值类型,本篇文章讲解更为灵活的聚合算子 reduce ,该算子可以处理单值类型和键值类型数据。

1、函数介绍

在 Spark 中,reduce 是一个常用的转换算子(Transformation Operator),用于对 RDD 中的元素进行逐个的、两两合并的操

猜你喜欢

转载自blog.csdn.net/m0_47256162/article/details/132345862