linux - Linux / Hadoop 集群的配置管理
问题描述
我必须在 Linux (Ubuntu) 机器上设置一个小型 Hadoop 集群。为此,我必须在所有系统上安装 JDK、python 和其他一些 linux 实用程序。之后,我必须为每个系统一个一个地配置 Hadoop。是否有任何可用的工具,以便我可以从单个系统安装所有这些工具。例如,如果我必须在某个系统上安装 jdk,则应该安装该工具。我更喜欢该工具是基于网络的。
解决方案
Apache Ambari 或 Cloudera Manager 专门用于为 Hadoop 完成这些任务
他们还监控集群,并提供与它通信的额外服务,如 Kafka、Hbase、Spark 等
不过,这只能让你走这么远,你会想要像 Ansible 这样的东西来部署自定义配置(AWX 是 Ansible 的 Web UI)。Puppet & Chef 也是替代品
推荐阅读
- c - 如何解决 C 中文件的错误
- phpmyadmin - 索引页面上的 PhpMyAdmin 错误:未定义的索引:REQUEST_METHOD
- google-cloud-platform - 在 BigQuery SQL 中以逗号分隔的字符串中查找不同数量的元素
- mongodb - 如何为快递应用创建搜索框
- python - 如何在 django 中显示弹出幻灯片 onClick?
- arrays - Bash中两个数组的缺失元素
- cmake - 如何使用可选的可执行文件构建 CMake 库项目
- json - Jackson 无法反序列化单个字段类,尽管 Creator 存在
- github - Github Actions - 将 Matrix 与 .Net Core SDK 结合使用
- html - 如何使用纯 CSS 制作手绘铅笔圈?