你好,我有原始數據,比如1我想添加一個以80爲中斷點的列作爲合格等級,結果應該是2。我正在使用sqlContext.read.format(「com.databricks.spark.csv」)來讀取原始數據。任何幫助!Spark Scala數據幀等級分類
-4
A
回答
0
使用.withColumn()
將如預期:
val resultUDF = udf((total: Int) => if(total >= 80) "pass" else "fail")
df.withColumn("result", resultUDF($"total"))
+0
感謝ü但我得到這個錯誤
+0
發佈完整的'堆棧跟蹤' – vdep
+0
這就是我想要做的:val resultUDF = udf((「Bin%」:Int)=> if(「Bin%」> =「80」)「pass」else「fail 「) dTestSample1.withColumn(」result「,resultUDF($」Bin%「))。show()並且不能運行它bcz的
相關問題
- 1. Scala Spark:動態分割數據幀列
- 2. 分析Spark中數據幀
- 3. Spark Scala將數據幀分割成若干取值範圍
- 4. 將Spark數據幀拆分爲部分
- 5. 將數據幀拆分爲數組scala
- 6. Spark上的數據分析Scala
- 7. Spark數據幀丟失分區
- 8. 在Apache Spark中分割數據幀
- 9. Python的數據幀等級系列
- 10. Scala/Spark數據框數組
- 11. 更新數據幀架構讀取Spark Scala
- 12. Spark有條件地合併Scala中的2個數據幀
- 13. Scala-Spark:將數據幀轉換爲RDD [Edge]
- 14. 如何處理數據幀上的空值/空值Spark/Scala
- 15. Spark mllib使用scala進行分類
- 16. Spark數據幀數據聚合
- 17. 將spark數據幀數據類型映射到jdbc數據類型
- 18. 數據幀排序依據Spark中
- 19. Spark如何根據年份和月份劃分數據幀
- 20. Spark從一個數據幀創建多個數據幀
- 21. R - 如何索引等級並據此顯示數據幀?
- 22. Spark - Scala - 用另一個數據幀中的查找值替換數據幀中的值
- 23. toBreeze Spark函數scala
- 24. Spark,Scala - 列類型確定
- 25. 創建Spark數據幀失敗的數組類型任何或_
- 26. Spark 1.6 scala創建數據行
- 27. Apache Spark(scala)+ python/R數據分析工作流程
- 28. spark數據幀udf映射索引值
- 29. 將Spark數據幀轉換爲org.apache.spark.rdd.RDD [org.apache.spark.mllib.linalg.Vector]
- 30. Spark數據幀saveAsTable vs保存
我一直在使用.withColumn(「列名」試過,但我解決不了的問題 –