apache-spark - 如何在 Spark 中指定任务超时?
问题描述
我有一个 spark 结构化流应用程序,每批都在几秒钟内得到处理。目前,当前批次的所有任务都处于RUNNING
一个多小时的状态。
如何在任务级别在 Spark 中指定超时以告诉 spark 如果任务未在定义的时间内完成,它应该重试?
解决方案
推荐阅读
- python-3.x - 如何使用 nodemon 运行 python 3?
- authentication - 本地 S4Hana 中的出站 OAuth 连接可能吗?
- go - 接口返回运行时错误:无效的内存地址或 nil 指针取消引用
- javascript - 可以在 Javascript 端接收主机对象事件吗?
- python - 如何使随机梯度回归器运行多达 1000 个 epoch 或产生更好的结果?
- python - 如何使用字符串格式处理不平衡括号
- r - 通过在R中导入选定列的公共列组合dfs
- security - Azure 存储防御者
- amazon-web-services - 由于身份验证,AWS ECR 推送在 Azure Devops 上失败
- node.js - 使用在 Web 应用上创建的 WebAuthn 密钥的 Electron 应用中的使用问题