首页 > 解决方案 > 在集群中使用 pyspark 运行时出现 Apache spark 错误

问题描述

WARN TaskSchedulerImpl:初始作业没有接受任何资源;检查您的集群 UI 以确保工作人员已注册并拥有足够的资源

标签: apache-spark

解决方案


推荐阅读