apache-spark - 为什么不应该将 Spark 中的本地模式用于生产?
问题描述
官方文档和各种书籍和文章都重复建议不要将本地模式的 Spark 用于生产目的。为什么不?为什么在一台机器上运行 Spark 应用程序用于生产目的是个坏主意?仅仅是因为 Spark 是为分布式计算而设计的,并且如果您只有一台机器,那么可以更轻松地进行操作吗?
解决方案
推荐阅读
- javascript - 当我在页面中调试 JavaScript 代码时,我的 chrome 浏览器在错误的行中提示断点
- c# - 将组合框中的特定字符/数字/文本传递给c#中的变量
- asp.net - 如何反序列化嵌套的多级多态类型
- python - ModuleNotFoundError:没有名为“myutils”的模块”
- javascript - Mongoose + MongoDB - 尝试使用 POSTMAN 保存后,转换为 ObjectID 的值失败
- model-view-controller - 下拉列表未在选择更改时更新
- node.js - 如何在 Node 中使用 Mocha 和 Chai 测试 Promise 拒绝?
- ios - 使用 Codable 在 swift 4.2 中解析 Json
- excel - 带空格的 VLC 播放列表参数
- python - 无法在嵌套函数内的python中按值传递