scala - SparkSQL:少量输入需要数小时的任务
问题描述
我目前正面临 apache spark 2.1 (scala) 的一个奇怪问题。我正在运行 sparkSQL 作业,该作业在一项任务上挂起超过 2 小时:
对于 751 条输入记录,前两个任务需要 2 个多小时才能完成,这对我来说没有任何意义。
此外,在日志中我可以看到:
18/07/16 14:34:43 INFO Executor: Running task 0.0 in stage 21.0 (TID 3974)
18/07/16 14:34:43 INFO Executor: Finished task 0.0 in stage 21.0 (TID 3974). 16874 bytes result sent to driver
18/07/16 14:34:43 INFO Executor: Finished task 136.0 in stage 21.0 (TID 3873). 18268 bytes result sent to driver
18/07/16 16:44:42 INFO Executor: Finished task 196.0 in stage 21.0 (TID 3921). 17190 bytes result sent to driver
18/07/16 16:44:43 INFO BlockManager: Removing RDD 7
18/07/16 16:44:43 INFO BlockManager: Removing RDD 59
所以看起来执行者真的什么都没做。
以前有没有人遇到过这样的问题,或者有人对此有一些见解?
解决方案
推荐阅读
- javascript - 使用 GraphQLSchema,是否有将 GraphQLObjectTypes 模块化的语法?
- javascript - 如何使用 react-dropzone 将文件上传到 Amazon S3?
- java - 创建自定义 POJO 来表示树数据
- spring - SQL 窗口函数和休眠
- python - 使用 Selenium Python 时下载不完整的 .tmp 文件而不是 .csv
- java - 使用 OkHttp 从 Android 项目 (Java) 发送 Http 请求
- javascript - 以角度模拟内部嵌套方法
- canvas - 集群中的 Canvas LMS(高可用性)
- docker - 自上次更新 Docker 映像以来无法连接到 pgAdmin 4:用户名或密码不正确
- swift - 从情节提要更改文本后,Xcode 不更新 Main.string