apache-flink - 如何在 Flink 上“提交”一个临时 SQL 到 Beam
问题描述
我将 Apache Beam 与带有 Java SDK 的 Flink 运行器一起使用。似乎将作业部署到 Flink 意味着构建一个 80 兆字节的 fat jar,然后上传到 Flink 作业管理器。有没有办法轻松部署轻量级 SQL 来运行 Beam SQL?也许已经部署了可以 soemhow 获取和运行临时查询的工作?
解决方案
如果我理解你的问题,我认为目前不可能。现在 Beam SDK 将始终构建一个胖 jar 来实现管道并包含所有管道依赖项,并且它将无法接受轻量级的 ad-hoc 查询。
如果您对总体上更具交互性的体验感兴趣,那么您可以看看正在进行的使 Beam 更具交互性的努力,例如:
推荐阅读
- javascript - JavaScript:如何优化基于贪心算法运行的团队平衡程序?
- macos - 在 OSX 10.12 上升级 ffmpeg(或 rust)找不到 make
- firebase - 当用户通过从概览窗口滑动关闭应用程序时,Firebase 会处理未完成的下载
- python - 用 manim 库画线?
- python - 是否可以在 Gem5 系统调用仿真模式下运行 Python 代码?
- c# - blazor wasm 应用程序运行时的程序集构建版本
- python - 从 GDB 中的列表中打印取消引用的值
- r - R使用Reduce Function重复列合并
- c++ - 具有未知类型的 std::conditional
- laravel - 无法在新的 Homestead 安装上编译 Laravel 资产