我正在運行Hive 2.1.1,Spark 2.1.0和Hadoop 2.7.3。Hive on Spark:Missing <spark-assembly * .jar>
我試圖建立星火繼Hive on Spark: Getting Started:
./dev/make-distribution.sh --name 「hadoop2-沒有蜂巢」 --tgz 「-Pyarn,Hadoop的提供, hadoop-2.7,parquet-provided「
但是,我在spark目錄下找不到任何spark-assembly jar文件(find . -name "spark-assembly*.jar"
不返回任何內容)。我試過export SPARK_HOME=/home/user/spark
,而不是將火花組裝罐連接到HIVE_HOME/lib
。
我得到直線以下蜂巢錯誤:
0: jdbc:hive2://localhost:10000> set hive.execution.engine=spark;
0: jdbc:hive2://localhost:10000> insert into test (id, name) values (1, 'test1');
Error: Error running query: java.lang.NoClassDefFoundError: scala/collection/Iterable (state=,code=0)
我認爲錯誤是由缺少火花組裝罐引起的。
我該如何構建/我在哪裏可以找到那些spark-assembly jar文件?
我該如何解決上述錯誤?
謝謝!
你可以嘗試使用'sudo find/-name'來搜索整個系統 –
我相信** Spark 2.x **以後不需要'spark-assembly.jar'。 – mrsrinivas
@mrsrinivas那麼我怎麼能把火花鏈接到蜂巢?你介意我是否將你的評論置於這個問題之中? –