Spark中aggregateByKey算子详解介绍

在这里插入图片描述


一、Spark中aggregateByKey算子详解介绍

上一篇文章我们讲述了如何使用 reduceByKey 这个算子按照key进行聚合,本文中继续提出另外一个算子 aggregateByKey ,它同样可以实现按照key进行聚合,而且比 reduceByKey 更为灵活,对于 reduceByKey 来说分区内和分区间的聚合规则是相同的,都是传入的函数逻辑,而 aggregateByKey 能够在分区内和分区间实现不同的聚合逻辑。

1、函数介绍

aggregateByKey 是 Spark 中的一个转换算子(Transformation Operator),

猜你喜欢

转载自blog.csdn.net/m0_47256162/article/details/132320710