【Saprk】Spark DataFrame 列的类型转换

应用场景

当需要把DataFrame中所有列的类型转换成另外一种类型,并且这个DataFrame中字段很多,一个一个地转换要写很多冗余代码的时候,就可以使用如下这两种转换方式。
 
 

方法一

scala> a.select(a.col("id"),a.col("username"),a.col("birthday").cast("string").as("bir")).show

方法二

代码如下

import org.apache.spark.sql.DataFrame
import org.apache.spark.sql.functions.col
val df: DataFrame = ...
val columns: Array[String] = df.columns
val df2: DataFrame = columns.foldLeft(df){
    (currentDF, column) => currentDF.withColumn(column, col(column).cast("string"))
}
  • 变量columns代表df这DataFrame中的所有列,是一个String类型的数组。
  • foldLeft函数的作用就是,以df为初始值,从左向右遍历columns数组,并把df和columns中的每个元素作为参数传入foldLeft后面的函数中(也就是foldLeft后面的大括号中)。
  • withColumn中将每一列转换成String类型,并覆盖currentDF中同名字段的列。因为在withColumn函数中,如果存在同名的列,默认是进行替换的。
     
     

方法三

代码如下

import org.apache.spark.sql.{Column, DataFrame}
import org.apache.spark.sql.functions.col
val df: DataFrame = ...
val columns: Array[String] = df.columns
val arrayColumn: Array[Column] = columns.map(column => col(column).cast("string"))
val df2: DataFrame = df.select(arrayColumn :_*)

这种方法通过map函数将columns中的每一列转换成String类型,返回一个Column类型的数组。

  • :_*的作用就是,将arrayColumn数组中的每个元素作为参数传入select函数中,而不是将arrayColumn作为一个参数传入select中。
发布了94 篇原创文章 · 获赞 110 · 访问量 5044

猜你喜欢

转载自blog.csdn.net/beautiful_huang/article/details/103904377