SparkSQL DataSet

SparkSQL DataSet
1、概念

DataSet是分布式的数据集合。DataSet是在Spark1.6中添加的新的接口。它集中了RDD的优点(强类型和可以用强大lambda函数)以及Spark SQL优化的执行引擎。DataSet可以通过JVM的对象进行构建,可以用函数式的转换(map/flatmap/filter)进行多种操作。
2、DataFrame、DataSet、RDD的区别

假设RDD中的两行数据是这样:

那么DataFrame中的数据是这样:

那么Dataset中的数据是这样:

或者是这样(每行数据是个Object):

DataSet包含了DataFrame的功能,Spark2.0中两者统一,DataFrame表示为DataSet[Row],即DataSet的子集。

    DataSet可以在编译时检查类型
    并且是面向对象的编程接口

相比DataFrame,Dataset提供了编译时类型检查,这会节省调试bug的大量的时间,这也是引入Dataset的一个重要原因。
3、DataFrame与DataSet的互转

    DataFrame转为 DataSet
    df.as[ElementType]这样可以把DataFrame转化为DataSet。
    DataSet转为DataFrame
    ds.toDF()这样可以把DataSet转化为DataFrame。

4、创建DataSet
4.1、通过spark.createDataset创建


4.2、通toDS方法生成DataSet


4.3、通过DataFrame转换生成

使用as[]转换为DataSet

猜你喜欢

转载自blog.csdn.net/qq_36932624/article/details/83110371