2016-10-22 212 views
1

我在apache-saprk 2.11的build.sbt文件中做了以下依賴項。IntelliJ Idea 2016.2.4無法解析符號spark_2.11

name := "Project1" 

version := "1.0" 

scalaVersion := "2.11.8" 

libraryDependencies += "org.apache.spark" % "spark-core_2.11" % "2.0.1" 

libraryDependencies ++= Seq(
"org.scala-lang" % "scala-compiler" % "2.11.8", 
"org.scala-lang" % "scala-reflect" % "2.11.8", 
"org.scala-lang.modules" % "scala-parser-combinators_2.11" % "1.0.4", 
    "org.scala-lang.modules" % "scala-xml_2.11" % "1.0.4" 
) 

但Intellij無法解決spark-core_2.11依賴性。我多次嘗試,但不能成功。提前致謝。

+0

我剛剛複製並粘貼你的代碼,對我來說工作正常! –

+0

我剛剛複製並粘貼了你的代碼,對我來說工作正常!但如果它不適合你。嘗試從外部先編譯它,然後嘗試在intellij中重新導入項目。這可能會解決你的問題! –

回答

0

我有同樣的問題在2016年3月2日的IntelliJ幾乎相同的斯卡拉/星火版本:

name := "some-project" 

version := "1.0" 

scalaVersion := "2.11.8" 

libraryDependencies += "org.apache.spark" % "spark-core_2.11" % "2.1.0" 

爲了得到它的工作,我不得不火花核心罐子手動添加到我的項目庫,即:

  • 右鍵單擊項目 - >打開模塊設置
  • 在項目設置 - >庫單擊+,然後選擇「Java」作爲選項。
  • 瀏覽jar。我在我的常春藤高速緩存中發現它 - 我假設它已經到達那裏,因爲我之前已經從sbt控制檯運行'更新'任務。
+0

''org.apache.spark「%%」spark-core「%」2.1.0「%」提供「'應該這樣做。不要忘記將核心庫標記爲已提供(不需要包含,因爲集羣會將此庫提供給您的程序) – Boern

相關問題