任何有關如何使用scala讀取aws s3的想法。我試過這個鏈接Spark Scala代碼來讀取DSX中的aws s3存儲
https://www.cloudera.com/documentation/enterprise/5-5-x/topics/spark_s3.html
,但不能得到它的工作。我可以在數據磚頭這樣做相同,但與DSX它不工作等
IBM已經證明了蟒蛇在這裏,但沒有一個步驟斯卡拉 - https://datascience.ibm.com/blog/use-ibm-data-science-experience-to-read-and-write-data-stored-on-amazon-s3/
spark.sparkContext.hadoopConfiguration.set(「fs.s3n .impl「,」org.apache.hadoop.fs.s3native.NativeS3FileSystem「) spark.sparkContext.hadoopConfiguration.set(」fs.s3n.awsAccessKeyId「,」xyz「) spark.sparkContext.hadoopConfiguration.set(」fs .s3n.awsSecretAccessKey「,」abc「)
val df_data_1 = spark.read.format(」csv「)。option(」header「,」true「).load(」s3a:// defg/retail- data/by-day/*。csv「) df_data _1.take(5)
你想使用火花從s3讀?如果是的話,更新你的標題和標籤。同時發佈你寫的代碼不起作用 – prayagupd