hadoop - start-all.sh:找不到命令。我该如何解决?
问题描述
我尝试使用本教程安装hadoop,链接(时间戳是出现问题的视频)
但是,在格式化 namenode(hdfs namenode -format) 后,我没有在 /abc 中获得“name”文件夹。start-all.sh 和其他 /sbin 命令也不起作用。
PS我确实尝试将hadoop安装为一个不起作用的单节点,所以我尝试删除它,将所有内容重做为双节点设置,所以我不得不重新格式化namenode..我不知道这是否会以某种方式影响这个。
编辑 1:我修复了 start-all.sh 命令不起作用,因为我纠正了 .bashrc 中的错误。但是,我在运行 start-all.sh 或 start-dfs.sh 等时收到这些错误消息。
out' 阅读:没有这样的文件或目录 localhost:/usr/local/hadoop-2.10.0/sbin/hadoop-daemon.sh:第 177 行:/usr/local/hadoop-2.10.0/logs/hadoop-hadoop -datanode-linux-virtual-machine.out:没有这样的文件或目录 localhost:/usr/local/hadoop-2.10.0/sbin/hadoop-daemon.sh:第 178 行:/usr/local/hadoop-2.10.0 /logs/hadoop-hadoop-datanode-linux-virtual-machine.out:没有这样的文件或目录启动辅助namenodes [0.0.0.0]主机'0.0.0.0(0.0.0.0)'的真实性无法建立。ECDSA 密钥指纹为 SHA256:a37ThJJRRW+AlDso9xrOCBHzsFCY0/OgYet7WczVbb0。您确定要继续连接(是/否)?no 0.0.0.0:主机密钥验证失败。0/logs/hadoop-hadoop-datanode-linux-virtual-machine.out:没有这样的文件或目录本地主机:/usr/local/hadoop-2.10.0/sbin/hadoop-daemon.sh:第178行:/usr/ local/hadoop-2.10.0/logs/hadoop-hadoop-datanode-linux-virtual-machine.out:没有这样的文件或目录启动辅助namenodes [0.0.0.0]主机'0.0.0.0(0.0.0.0)的真实性'不能成立。ECDSA 密钥指纹为 SHA256:a37ThJJRRW+AlDso9xrOCBHzsFCY0/OgYet7WczVbb0。您确定要继续连接(是/否)?no 0.0.0.0:主机密钥验证失败。0/logs/hadoop-hadoop-datanode-linux-virtual-machine.out:没有这样的文件或目录本地主机:/usr/local/hadoop-2.10.0/sbin/hadoop-daemon.sh:第178行:/usr/ local/hadoop-2.10.0/logs/hadoop-hadoop-datanode-linux-virtual-machine.out:没有这样的文件或目录启动辅助namenodes [0.0.0.0]主机'0.0.0.0(0.0.0.0)的真实性'不能成立。ECDSA 密钥指纹为 SHA256:a37ThJJRRW+AlDso9xrOCBHzsFCY0/OgYet7WczVbb0。您确定要继续连接(是/否)?no 0.0.0.0:主机密钥验证失败。0)' 无法建立。ECDSA 密钥指纹为 SHA256:a37ThJJRRW+AlDso9xrOCBHzsFCY0/OgYet7WczVbb0。您确定要继续连接(是/否)?no 0.0.0.0:主机密钥验证失败。0)' 无法建立。ECDSA 密钥指纹为 SHA256:a37ThJJRRW+AlDso9xrOCBHzsFCY0/OgYet7WczVbb0。您确定要继续连接(是/否)?no 0.0.0.0:主机密钥验证失败。
编辑 2:修复了上述错误,我将权限更改为 hadoop 文件夹(在我的情况下是 hadoop-2.10.0 和 hadoop)start-all.sh 工作正常,但 namenode 没有显示。
解决方案
目前尚不清楚您如何设置PATH
变量。或者脚本如何不“工作”。你chmod +x
是为了让它们可执行吗?有任何来自他们的日志输出吗?
该start-all
脚本sbin
在您下载 Hadoop 的目录中可用,所以这/path/to/sbin/start-all.sh
就是您真正需要的。
是的,namenode 需要在新集群上格式化。使用官方的 Apache 指南是最新的源代码,对大多数人来说都可以正常工作。
否则,我建议您了解 Apache Amabri,它可以自动安装。或者只是使用 Cloudera 提供的沙箱,或者如果您不关心完全“安装”它,可以使用许多已经存在于 Hadoop 的 Docker 容器。
推荐阅读
- javascript - 如何在保持格式的同时将此日期转换为字符串?
- javascript - 检查选择框是否包含特定 optgroup 内的字符串
- java - 在 switch 语句中使用 ctrl-z 撤消的非弃用方法
- c# - 用于测试依赖类的模拟 SignalR 集线器
- mysql - 詹金斯显示“java.lang.ClassNotFoundException:com.mysql.jdbc.Driver”
- javascript - 使用 JavaScript 在不丢失选择的情况下更改选择中的选项
- javascript - 使用 localStorage 或 Cookie 时,黑暗或夜间模式不会一直保持黑暗
- c# - 工厂返回 Generic 的实现
- powerquery - 如何修复基于条件拆分文本列的 Power 查询代码错误
- php - 如何使用从 mysql db 生成的 fpdf 在 pdf 表中进行换行