java+spark的基本集成查询

原文地址:https://blog.csdn.net/sparkexpert/article/details/51042970

除了文章中拥有的集成查询,我还发现有几个需要使用:

1.equalTo : a.equalTo(b) 匹配结果,例如:type.equalTo("2")

2.fill : .na().fill(0) ,将所有为空结果null换成0

3.sortBy : 排序,例如:sortBy(f->f.getAs(5),false, df_tmp.partitions().size())

4.getAs : 取值(下标或者字符串)


发布了47 篇原创文章 · 获赞 10 · 访问量 4万+

猜你喜欢

转载自blog.csdn.net/fearlessnesszhang/article/details/80241238