scala - 使用 scala/spark 从 Intellij 读取 S3 存储桶文件
问题描述
如何使用 scala/spark 从安装在本地机器上的 Intellij ide 读取 Amazon s3 存储桶文件?
解决方案
IntelliJ 并不重要。重要的是hadoop配置。如果您的 hadoop 配置具有关于 aws 的凭证变量,您可以从 S3 加载 DataFrame。您可以在 core-site.xml 中设置变量或设置 spark.hadoopConfiguration 的配置方法。
sparkContext.hadoopConfiguration.set("fs.s3n.awsAccessKeyId", "")
sparkContext.hadoopConfiguration.set("fs.s3n.awsSecretAccessKey","")
请注意您使用的 s3 连接器。有一些连接器,如s3、s3a、s3n。如果您的连接器是 s3,请设置fs.s3.*
,但如果您的连接器是 s3n,则应设置fs.s3n.*
推荐阅读
- css - ReactCSSTransitionGroup 没有动画高度
- android - 有人可以解释 Flutter 中的“Navigator.of”吗?
- javascript - 缩放时如何在IOS浏览器上定位固定位置的元素?
- vue.js - 如何将y和x坐标绑定到vue中的图像?
- java - 多态性最佳实践
- c# - C# 中的全局静态字典
- java - spring mvc中的错误404但适用于其他人
- git - 提交和推送快进合并时,BitBucket 挂钩不会删除 PR 的批准
- python - 如何将列表中的嵌套字典放入Dataframe?
- extjs - 使用 selectionModel 获取网格内的复选框值