1
library(sparklyr)
library(dplyr)
home <- "/usr/hdp/current/spark-client"
sc <- spark_connect(master = "yarn-client", spark_home = home, version = "1.6.2")
readFromSpark <- spark_read_csv(sc, name="test", path ="hdfs://hostname/user/test.csv",header=TRUE)
我已經成功使用sparklyr訪問hdfs
。但是如何使用sparklyr
訪問配置單元表/命令,因爲我需要將此df
存儲到配置單元中。使用sparklyr包訪問配置單元?
試試這個:'df_tbl < - copy_to(SC,readFromSpark, 「yourTableName」)' –
@JaimeCaffarel我不希望把他們作爲DF df_tbl。我想將readFromSpark保存到配置單元表中,我需要創建數據庫,然後我可以將readFromSpark放入配置單元中。 – FlyingTurtle