apache-spark - Spark可以保证每个任务的cpu吗?
问题描述
如果我设置cpu.task=1,Spark如何保证任务独占cpu?我记得,cpu 调度是由内核完成的,对用户来说是透明的。
解决方案
它不属于 Spark 的东西,它应该属于底层资源管理器,例如 Hadoop Yarn 或 Mesos。
参考:
推荐阅读
- ios - 之后更改 StackView 元素的高度
- c# - EPPlus - 数据透视表如何将值显示为总计的百分比
- sql - Postgresql 等价于这个基于 UUID 的函数
- puppeteer - Puppeteer js 查询并单击 td 内的链接,其中 td id 包含
- laravel - Laravel 不显示模型路径错误等错误
- python - 使用 python 在单独的数据框中查找的值计算新数据框列中的值
- reactjs - 创建反应应用程序后尝试使用 npm start 返回错误
- python - Python比较两个不同的对象数组
- r - 意外的“{”和“其他”
- jsf - Primefaces Jsf refresh 更新p tab id的内容