0
當我將應用程序提交給獨立羣集時,我遇到了此異常。線程「main」中的Spark異常java.net.BindException:無法綁定到:/10.3.100.169:0
奇怪的是它來了幾次。我已經將SPARK_LOCAL_IP設置爲正確的IP地址。
但我不明白爲什麼總是工作訪問端口0
的環境是:
VM1:10.3.100.169,運行主機和從機
VM2:10.3.101.119,運行從機
任何人遇到此問題?任何關於如何解決的想法?
這裏是命令行和spark-env.sh
bin/spark-submit --master spark://10.3.100.169:7077 --deploy-mode cluster --class ${classname} --driver-java-options "-Danalytics.app.configuration.url=http://10.3.100.169:9090/application.conf -XX:+UseG1GC" --conf "spark.executor.extraJavaOptions=-Danalytics.app.configuration.url=http://10.3.100.169:9090/application.conf -XX:+UseG1GC" ${jar}
SPARK_LOCAL_IP=10.3.100.169
SPARK_MASTER_IP=10.3.100.169
SPARK_PUBLIC_DNS=10.3.100.169
SPARK_EXECUTOR_MEMORY=3g
SPARK_EXECUTOR_CORES=2
SPARK_WORKER_MEMORY=3g
SPARK_WORKER_CORES=2
感謝
你的spark提交命令是什麼樣的?你能在這裏包括你的spark-env.sh的內容嗎? – cjcroix
命令行和spark-env添加 – Grant