amazon-web-services - 为什么我在同一个执行程序中的 spark 任务将输出写入 sysout?
问题描述
我的每个执行者都有 2-3 个任务正在运行,但只有其中一个任务的日志似乎获胜并写入 sysout。我认为在同一阶段在同一执行器上运行的所有任务都应交错写入同一执行器sysout。例如,以下 3 个任务在Executor 12上使用不同的零件文件运行。但只有来自任务 243 的日志显示在 sysout 中。
1 204 0 SUCCESS PROCESS_LOCAL **12** ip-10-84-17-11.us-east-2.compute.internal
stderr
stdout
2021-07-09 15:43:00 11 s 1 s 1.0 ms 553.3 KiB / 50384 4.6 MiB / 190390
40 243 0 SUCCESS PROCESS_LOCAL **12** ip-10-84-17-11.us-east-2.compute.internal
stderr
stdout
2021-07-09 15:43:00 11 s 1 s 3.0 ms 552.1 KiB / 50262 4.6 MiB / 191058
79 282 0 SUCCESS PROCESS_LOCAL **12** ip-10-84-17-11.us-east-2.compute.internal
stderr
stdout
2021-07-09 15:43:00 15 s 2 s 0.0 ms 552.7 KiB / 50283 4.6 MiB / 190507
我使用 spark 3.0.0 在 AWS EMR-6.2.1 上运行。我需要有所有任务的日志。我需要改变什么才能拥有它?
解决方案
推荐阅读
- flutter - 如何在flutter中使用文件路径获取文件元数据
- angular - Docker + Angular:docker 参数不适用于 ng build
- r - rvest web-scraped info 格式化列
- spring - 由 Spring 启动但不在 Postgresql Sql 编辑器中时遇到错误
- eclipse - Eclipse RCP 捕获 System out println
- swift - TextView 文本在快速滚动时重用和替换
- javascript - 使用 jQuery 中的上下箭头键在表格的搜索行中移动
- python - 未绑定本地错误:分配前引用的局部变量
- java - 对话框片段中的 MP 图表
- r - 如何缩短这个长的 dplyr 语法?