python - 使用 python 脚本处理从 salesforce 到 GCP BigQuery 的数据会引发超时错误
问题描述
触发 cloud-function-1 时,SalesForce 数据将存储在 GCP_Bucket-1 和 Cloud-function-2 中,数据应存储在 GCP BigQuery Sql 数据库中。在这里,Python 脚本运行良好。但问题是,它只处理很少的记录并抛出超时错误。谁能建议我解决这个问题。
解决方案
如 Cloud Run 文档中所述:https ://cloud.google.com/functions/docs/concepts/exec#timeout
默认情况下,函数会在 1 分钟后超时,但您可以将此时间延长至 9 分钟。
所以尝试增加超时。在上面的链接中,您可以详细了解如何做到这一点。
如果 9 分钟不够,可以使用超时时间为 1 小时的 Cloud Run。但请记住,Cloud Run 需要比 Cloud Function 更多的配置。
推荐阅读
- laravel - 在本地设置上运行 Laravel 项目
- ruby-on-rails - PUT #update 控制器测试失败,因为它没有修改给定的对象
- reactjs - 通过动态导入代码拆分应用程序部分
- ruby-on-rails - 强参数不会从视图到导轨中的控制器
- grafana - 如何按未知/随机标签分组?
- reactjs - 对 Reactjs 中的输入进行自动验证的插件?
- android - 2D滚动,支持RTL布局
- html - 如何通过媒体查询固定圆形进度条位置?
- phaser-framework - 如何使用 moveToObject 移动容器 - Phaser 3
- django - Django - 检查是否点击了表单提交按钮?