2016-07-07 70 views
-1

我使用這個預備能夠連接到PostgreSQL數據庫。他們不會工作,但我無法找到任何正確的表示法的建議。將postgres JDBC驅動包含到SparkR中

.libPaths(c(.libPaths(), '/opt/spark-1.6.1-bin-hadoop2.6/R/lib')) 
Sys.setenv(SPARK_HOME = '/opt/spark-1.6.1-bin-hadoop2.6') 
Sys.setenv(PATH = paste(Sys.getenv(c('PATH')), '/opt/spark-1.6.1-bin-hadoop2.6/bin', sep = ':')) 
library(SparkR) 

d.csv <- "com.databricks:spark-csv_2.11:1.4.0" 
d.pg <- "org.postgresql.Driver:postgresql-9.4:1208" 

sc <- sparkR.init(sparkPackages=c(d.csv, d.pg)) 

我在「/opt/spark-1.6.1-bin-hadoop2.6/lib/postgresql-9.4.1208.jar」和另外百勝安裝了JDBC存儲在我的centos6機器上的JAR文件。

當我嘗試啓動時,會發現csv庫,但無法解析JDBC PostgreSQL驅動程序。

:::::::::::::::::::::::::::::::::::::::::::::: 

    ::   UNRESOLVED DEPENDENCIES   :: 

    :::::::::::::::::::::::::::::::::::::::::::::: 

    :: org.postgresql.Driver#postgresql-9.4;1208: not found 

    :::::::::::::::::::::::::::::::::::::::::::::: 

任何暗示將是巨大的。非常感謝。

回答

0

您使用不正確的組ID。 PostgreSQL的假象下org.postgresqlorg.postgresql.Driver公佈的所以應該是:

org.postgresql:postgresql:9.4.1208 
+2

@DubravkoDolic你可能想要更新你的問題,並添加你嘗試迴應這個,因爲也許你有更多的錯別字。 –

+0

仍然沒有解決方案。我試着用zero323建議的不同的驅動程序類,但沒有成功。我一直在努力。 –

0

什麼工作:

d.pg <- "org.postgresql:postgresql:9.4.1208" 

它曾與corresponsing驅動程序。在另一種情況下,我們遇到了JAR文件的問題,並通過將SRC解壓縮到lib文件夾中進行替換。這也很好。