apache-spark - 我的机器上的 Pyspark 比我同事的慢,即使我们有同一台机器
问题描述
同事和我正在运行完全相同的查询,但我的机器比他的慢得多,即使我们有相同的规格。我的机器在 pyspark 上运行查询所需的时间几乎是原来的两倍。有什么方法可以确定我是否缺少二进制/jar?
谢谢。
解决方案
推荐阅读
- sql - 从 bigint 数组转换值
- javascript - 我无法更改导航栏中文本的颜色
- c++ - 使用类型别名声明可变参数函数
- azure - 如何限制对 Azure Function 的调用,N 次从给定的机器/IP
- apache-flink - 如何从数组列中获取数组元素
- django - 使用 django 发送文件
- python - 如何使用 OpenCV 增加我的面罩检测项目的 FPS?
- django - Heroku 运行 python manage.py makemigartions --app=
正在抛出 ImproperlyConfigured:设置 DATABASE_NAME 环境变量 - javascript - React App 加载 HomePage 而不是 Desired Page
- ios - 为 C 库创建包装器以在 iOS 项目中使用