amazon-web-services - 如何使用 pyspark 写入 S3 接入点
问题描述
我有写入 s3 存储桶的 pyspark 代码,如下所示:
df.write.mode('overwrite').parquet([S3_BUCKET_PATH])
我正在测试通过存储桶的访问点写入存储桶。AWS 文档有一个使用 CLI 写入访问点的示例,如下所示:
aws s3api put-object --bucket arn:aws:s3:us-west-2:123456789012:accesspoint/prod --key my-image.jpg --body my-image.jpg
我试过这样做:
df.write.mode('overwrite').parquet("arn:aws:s3:us-west-2:123456789012:accesspoint/prod")
但是,我收到此错误:
绝对 URI 中的相对路径
是否可以使用 pyspark 写入 S3 接入点?
解决方案
推荐阅读
- rust - 如何在特定位置的日志文件中禁用外部 crate 日志?
- apache-spark - 从一列减去 1 秒
- java - 有没有办法为 Selenium Grid 中的每个浏览器获取单独的测试报告?
- typescript - 定义的全局变量不能被依赖解析
- android - 使用代码重新创建 xml 文件中的形状并以编程方式设置宽度
- struct - 我怎样才能制作一个可能有也可能没有定义的字段的结构?
- .net - 外壳 | 获取流程 | 申请退出时间
- android - 隐藏进度条小部件
- javascript - 访问对象数组内的键值对的最佳方法?在javascript中
- reactjs - 如何同时验证密码长度和正则表达式