我們如何使用Spark 2.0爲Python 2/3創建Spark服務。每當我創建一個新的服務並將它與一個python筆記本關聯起來時,它的Python 2和Spark 1.6都會被關聯。爲什麼不能看到我在數據磚免費版中創建的服務的配置?我想使用Spark 2.0中引入的SparkSession api來創建您的spark會話變量,因此是個問題。Python 2與Spark 2.0
0
A
回答
2
您可以選擇Python和Spark版本:
a。在數據科學經驗中創建新筆記本:
DSX `Project` --> Overview--> `+ add notebooks` --> `Choose the language` (Python2/R/Scala/Python3) and Spark version (1.6/2.0/2.1).
b。更改現有筆記本電腦的內核:
From any running notebook, on the notebook menu choose `Kernel` and then choose the language and Spark version combination of your choice.
1
你看不到你正在創建的服務的配置,因爲你沒有創建與自己配置的服務。 Bluemix和Data Science Experience中的Apache Spark as a Service實例正在獲取共享集羣中的執行插槽。該共享集羣的配置由IBM管理。
實例的Jupyter Notebook服務器針對語言和Spark版本的每種受支持組合提供內核規格。要將筆記本切換到其他組合,請選擇「內核 - >更改內核 - >(不管)」。或者在創建筆記本時單獨選擇語言和Spark版本。
相關問題
- 1. Spark 2.0與Zeppelin 0.6.1 - SQLContext不可用
- 2. Spark只能用python 2
- 3. Spark 2.0 Scala - RDD.toDF()
- 4. Spark與Cassandra python安裝
- 5. Spark 1.6 vs spark 2.0生產力
- 6. Spark 2.0數據集vs DataFrame
- 7. 升級到Spark 2.0 dataframe.map
- 8. 使用HiveThriftServer2與sqlContext的Spark 2.x
- 9. ArrayIndexOutOfBoundsException與Spark,Spark-Avro和Google Analytics數據
- 10. 與基於在XSLT 2個參數2.0
- 11. ASP.NET身份2.0與ASP.NET MVC 2
- 12. ClassNotFound:apache.hadoop.io.ImmutableBytesWritable使用Python集成Spark與Hbase
- 13. Spark Python CSV寫
- 14. 如何通過Spark Thrift Server將Tableau Desktop連接到Spark SQL 2.0?
- 15. ASP.NET MVC 2.0上一頁1和SPARK?
- 16. 無法在CDH 5.7.5中安裝Spark 2.0
- 17. Spark 2.0 Cassandra Scala Shell錯誤:NoClassDefFoundError
- 18. Spark 2.0 - 將JSON文件拼合爲CSV
- 19. Spark Streaming 2.0 GC錯誤(Shuffle Issue)
- 20. Dataproc上的Spark 2.0和Scala 2.11?
- 21. Spark 2.0 - 將DataFrame轉換爲DataSet
- 22. 在Intellij/Eclipse中導入Spark 2.0 Jars
- 23. spark 2.0並行JobProgressListener失敗慘劇
- 24. Spark 2.0缺少火花暗示
- 25. Ninject 2和MVC 2.0
- 26. python spark reducebykey形成一個列表
- 27. Python Errno 2與Windows 10
- 28. Gnuplot python與2列表
- 29. 緩存與改進2.0和rxjava 2與okhttp3
- 30. OpenCV 2.0和Python