google-cloud-dataflow - 谷歌云数据流卡住了
问题描述
最近,我在运行用 Python 编写的数据流作业时遇到了这个错误。问题是它曾经可以工作并且没有代码更改,所以我认为它与环境有关。
同步 pod d557f64660a131e09d2acb9478fad42f ("") 时出错,跳过:无法使用 CrashLoopBackOff 为“python”“StartContainer”:“Back-off 20s restarting failed container=python pod=dataflow-)
谁能帮我这个?
解决方案
就我而言,我使用 Apache Beam SDK 2.9.0 版时遇到了同样的问题。
我使用setup.py
并通过加载文件内容动态填充设置字段“<strong>install_requires” requirements.txt
。DirectRunner
如果您正在使用但DataflowRunner
对本地文件的依赖关系过于敏感,那也没关系,因此放弃该技术并将依赖关系硬编码requirements.txt
到“install_requires”中为我解决了一个问题。
如果您坚持这一点,请尝试调查您的依赖关系并尽可能减少它们。请参阅管理 Python 管道依赖项文档主题以获取帮助。避免在本地文件系统上使用复杂或嵌套的代码结构或依赖项。
推荐阅读
- javascript - 如何在 apache 服务器上部署没有 index.html 的 react 应用程序以进行生产
- java - Spring 4中如何处理多个ClientHttpRequestInterceptor
- docker - 使用 Docker Compose 的微服务:同一个容器,多个项目
- python-3.x - 在 python 中导入 open cv 的问题
- nativescript - 单击按钮时在 Nativescript + Angular 中获取 TimePicker 小部件中的小时和分钟
- grails - 如何在不连接到 Internet 的情况下运行 grails
- github - 一次将协作者添加到多个存储库
- css - 如何在没有很多类的情况下使页脚保持在每个页面的底部?
- python - 在 PySpark 中将 csv 加载到 DataFrame 时出现问题
- git - 如何删除合并到某些分支中的所有远程分支