scala - Scala 中的 Apache Spark 配置
问题描述
我在我的 Scala 应用程序中使用 Apache Spark。问题是应用程序正在永久使用所有 CPU 内核(平均为 %95)。我什至尝试将 spark.cores.max 设置为 1,但似乎没有帮助。我的应用程序在本地运行(有 4 个 CPU 内核)。可能是什么问题?以下是我用于创建 Spark 配置的版本和代码。
val sparkConf = new SparkConf()
.setAppName("MyApp")
.setMaster("local[4]")
.set("spark.cores.max", "1")
斯卡拉版本:2.11.12
火花版本:2.3.0
解决方案
推荐阅读
- java - 当列表足够大以滚动时,Recycler View 适配器无法正常工作
- angular - 仅当用户输入密钥时可观察到的 keyup 事件
- hyperledger-fabric - 如何为超级账本结构业务网络生成对等管理卡
- python - 我一直在尝试应用fuzzywuzzy 包来解决查找欺诈条目的问题。我如何在以下问题中应用相同的?
- laravel - 在 Inertia.js Vue 文件中访问 Laravel 的 .env 变量
- node.js - 验证器在 Adonis 中不起作用
- opengl - 如何用 OCaml 和 GLFW 绘制三角形?
- python - 如何通过交互式 CLI 在 python 中编写登录脚本
- php - php-fpm 进程不断“执行超时”
- ubuntu - VirtualBox 6.0.10 无法更改guest ubuntu 中的分辨率(安装了VBoxGuestAdditions)