apache-spark - Spark集群模式下如何设置驱动核心?
问题描述
我看过很多关于 executor memory/cores/instances 的文章,但我仍然不明白应该为驱动程序核心设置什么。增加它有什么好处?它的合适值是多少?(我的纱线总共是 12 个 vcore + 36GB 内存)
解决方案
推荐阅读
- google-cloud-platform - 如何在 BigQuery 中创建嵌套字段和数组的数组
- java - 正则表达式从预定义的字符串格式中提取值
- html - 嵌入式引导 div 在非引导站点中没有响应
- matplotlib - 如何将 matplotlib 绘图和轴参数传递给包装函数
- javascript - 如何使用 mvc 重定向到我的应用程序中的另一个页面
- user-interface - 尚未上线客户端的经典界面与统一界面
- html - 使用谷歌应用脚本格式化的高级发送邮件 - 邮件中的灵活内容
- yii2 - 如何从导出配置中删除列
- azure-cosmosdb - Cosmos DB中collection的id是如何选择的?
- c# - 无法使用具有 MVVM 模式的每个 BackgroundWorker 填充模型数据