2017-03-29 46 views
1

嘿我試圖使用斯卡拉火花。如果你正在使用Scala的,那麼就不要創建JavaSparkContextmissing parameter typeSpark斯卡拉錯誤

謝謝

+0

當你指定s的類型時它有幫助嗎? 'val mapped = file.map((s:String)=> s.length)' – Harald

+0

不,它不能幫助'類型不匹配;發現:字符串⇒Int要求:org.apache.spark.api.java.function.Function [String ,?]' –

回答

0
object d29 { 
def main(args: Array[String]){ 
val name : String ="myspark" 
val master : String ="local[1]" 
val conf : SparkConf = new SparkConf().setAppName(name).setMaster(master) 
val spContext = new SparkContext(conf) 
val file = spContext.textFile("zed/text.csv") 
val mapped = file.map(s=>s.length) 
} 

}

JavaSparkContext是SparkContext的Java包裝。既然你使用Scala,不需要包裝。

+0

謝謝兄弟 –

4

:當我嘗試此代碼

object d29 { 
    def main(args: Array[String]){ 
    val name : String ="myspark" 
    val master : String ="local[1]" 
    val conf : SparkConf = new SparkConf().setAppName(name).setMaster(master) 
    val spContext : JavaSparkContext = new JavaSparkContext(conf) 
    val file = spContext.textFile("zed/text.csv") 
    val mapped = file.map(s=>s.length) 
    } 
} 

我得到這個錯誤爲氏。改爲使用SparkContext

val spContext: SparkContext = new SparkContext(conf) 

然後您的代碼將工作。

如果您使用的是Spark 2,請使用新的SparkSession而不是SparkContext

+0

我使用spark 1.6否SparkSession –