2017-05-08 68 views

回答

1

是的,你可以寫RDD蜂巢,寫RDD蜂巢的方法之一是RDD轉化爲Df的,然後saveTableAs(),如下

import org.apache.spark.sql.hive.HiveContext 

val hiveContext = new HiveContext(sc) 

import hiveContext.implicits._ 

//read data perform some transformation 

val myDF = myRdd.toDF("column names") 

然後你就可以創建一個表和轉儲數據

myDF.write.saveAsTable("tableName") 

//with save mode 
myDF.write().mode(SaveMode.Overwrite).saveAsTable("tableName") 

您可以添加保存模式如上 SaveModes是追加,忽略,覆蓋,ErrorIfExists

+0

謝謝Shankar。如果我想將rdd存儲在遠程Hive中,我如何連接到該配置單元並使用特定的數據庫 – Aswathy

+0

我希望這有助於http://stackoverflow.com/questions/39997224/how-to-連接到遠程配置單元 - 服務器 - 從火花。如果這有幫助,請接受答案。 –

+0

如何在scala中使用類似DBOutputFormat的東西 – Aswathy

相關問題