1
到目前爲止,我已經做了以下內容:阿帕奇星火:如何使用Python 3 pySpark發展
import os
os.environ["SPARK_HOME"] = '/usr/local/spark/'
os.environ["PYSPARK_PYTHON"] = '/opt/conda/bin/python'
from pyspark import SparkContext
但是當我跑我的錯誤:
ssh://[email protected]:2222/opt/conda/bin/python -u /home/vagrant/src/spark.py
Traceback (most recent call last):
File "/home/vagrant/src/spark.py", line 6, in <module>
from pyspark import SparkContext
ModuleNotFoundError: No module named 'pyspark'
即使我嘗試不使用Python3路徑運行它我得到相同的錯誤。
的Python版本SPARK這裏給出:
/usr/local/spark/python
什麼錯我在幹嘛?
理想情況下,我想爲我的腳本使用Python3。
我寧願用'findspark.init'。像Charm一樣工作 – Volatil3