0
我想知道如何在PySpark中爲Spark版本2+指定自定義分析器類。在1.6,我知道我能做到這一點是這樣的:指定運行Spark 2.0的pyspark的自定義分析器
sc = SparkContext('local', 'test', profiler_cls='MyProfiler')
,但是當我在2.0創建SparkSession
我沒有明確訪問 的SparkContext
。有人可以請告知如何爲Spark 2.0+做這件事嗎?