apache-beam-io - 使用 AWS S3 作为数据源的 TensorFlow 转换 Python
问题描述
我正在尝试运行 TensorFlow Transform,使用 Python、Apache Flink 作为 Beam Runner。我注意到 Beam 没有 AWS S3 作为 io 连接器,并且想知道任何解决方法。
这是支持的 io 连接器列表,但 Python+S3 甚至不在路线图中。
我可以想到两种解决方法:
- 将 S3 存储桶作为本地驱动器挂载到 EC2 实例
- 使用他们的指南编写我自己的 Python S3 连接器。
我想知道是否还有其他创造性(简单)的出路。
谢谢!
解决方案
推荐阅读
- vb.net - 如何从列表框中获取每个项目并将其存储到 VB.NET 中的多个文本框中
- flutter - 如何防止颤振应用程序在 Dio 错误后崩溃?
- r - 如果字符串包含子集
- java - 如何生成授权:使用 RestAPI 的承载令牌?
- html - 如何避免重复的 SVG 代码,但又没有 defs/symbol/use 引起的 shadow DOM 问题?
- c# - C# 查找符合特定条件的对象的属性
- javascript - SAPUI5 - 如何获取 RadioGroupButton 的选定按钮索引
- c++ - 回调函数的优势?(图形)
- android - mapbox gl - Pbf 层在 android 中不起作用
- c++ - 在c ++中确定字符串中不同子字符串的数量并使用散列