2
讓我們假設我創建了一個木文件,如下所示:讀實木複合地板成火花集忽略缺少的字段
case class A (i:Int,j:Double,s:String)
var l1 = List(A(1,2.0,"s1"),A(2,3.0,"S2"))
val ds = spark.createDataset(l1)
ds.write.parquet("/tmp/test.parquet")
是否有可能將其與不同的模式,其中唯一的區別是讀入一個類型的數據集幾個額外的領域?
如:
case class B (i:Int,j:Double,s:String,d:Double=1.0) // d is extra and has a default value
有沒有辦法,我可以使這項工作? :
val ds2 = spark.read.parquet("/tmp/test.parquet").as[B]