google-cloud-dataflow - 用于流式传输的 Google Cloud Dataflow,dataflow 何时会自动关闭并清理 VM 实例?
问题描述
根据文档,https://cloud.google.com/dataflow/docs/resources/faq
“但是,一旦您的工作完成或失败,Cloud Dataflow 服务将自动关闭并清理 VM 实例。”
这对于 Batch 来说很容易理解。但是对于流媒体,发布/订阅消息将不断出现,数据流如何处理呢?继续关闭和清理 VM 实例效率不高。但是,保持 VM 实例一直运行也不划算。
谢谢
解决方案
通过流式数据流作业,VM 将继续运行,直到您结束作业。如果您没有来自 pubsub 的恒定消息流,您可能需要查看批处理数据流的 cron 作业(https://cloud.google.com/blog/products/gcp/scheduling-dataflow-pipelines- using-app-engine-cron-service-or-cloud-functions)或使用较小的工作节点进行流式传输作业,以帮助降低成本。
推荐阅读
- android - 收到错误“无法从平台加载 PlatformApi;尝试使用cordova转换角度应用程序时
- html - 如何将我的 html 翻译成哈巴狗文档?
- javascript - 如何在 aggrid angular 中使用 rowClass 在 ag 网格 pinnedBottomRowData 上添加背景
- entity-framework - 获取两个日期之间的总天数 Linq C#
- node.js - 通过 api 获取谷歌分析报告
- sql-server - 在 SQL Server 中使用 sp_executesql 动态插入到表中
- ios - 翠鸟不显示图像
- php - php 使用获取值的问题。适用于页面的一部分,但不适用于另一部分
- regex - 正则表达式:不允许用户输入使用 0 和 9 形成的重复数字
- javascript - 在 Asp.net Core MVC 中序列化表单并将其转换为复杂类以使用 Ajax 发布整个模型的问题