首页 > 解决方案 > start-all.sh:找不到命令。我该如何解决?

问题描述

我尝试使用本教程安装hadoop,链接(时间戳是出现问题的视频)

但是,在格式化 namenode(hdfs namenode -format) 后,我没有在 /abc 中获得“name”文件夹。start-all.sh 和其他 /sbin 命令也不起作用。

PS我确实尝试将hadoop安装为一个不起作用的单节点,所以我尝试删除它,将所有内容重做为双节点设置,所以我不得不重新格式化namenode..我不知道这是否会以某种方式影响这个。

编辑 1:我修复了 start-all.sh 命令不起作用,因为我纠正了 .bashrc 中的错误。但是,我在运行 start-all.sh 或 start-dfs.sh 等时收到这些错误消息。

out' 阅读:没有这样的文件或目录 localhost:/usr/local/hadoop-2.10.0/sbin/hadoop-daemon.sh:第 177 行:/usr/local/hadoop-2.10.0/logs/hadoop-hadoop -datanode-linux-virtual-machine.out:没有这样的文件或目录 localhost:/usr/local/hadoop-2.10.0/sbin/hadoop-daemon.sh:第 178 行:/usr/local/hadoop-2.10.0 /logs/hadoop-hadoop-datanode-linux-virtual-machine.out:没有这样的文件或目录启动辅助namenodes [0.0.0.0]主机'0.0.0.0(0.0.0.0)'的真实性无法建立。ECDSA 密钥指纹为 SHA256:a37ThJJRRW+AlDso9xrOCBHzsFCY0/OgYet7WczVbb0。您确定要继续连接(是/否)?no 0.0.0.0:主机密钥验证失败。0/logs/hadoop-hadoop-datanode-linux-virtual-machine.out:没有这样的文件或目录本地主机:/usr/local/hadoop-2.10.0/sbin/hadoop-daemon.sh:第178行:/usr/ local/hadoop-2.10.0/logs/hadoop-hadoop-datanode-linux-virtual-machine.out:没有这样的文件或目录启动辅助namenodes [0.0.0.0]主机'0.0.0.0(0.0.0.0)的真实性'不能成立。ECDSA 密钥指纹为 SHA256:a37ThJJRRW+AlDso9xrOCBHzsFCY0/OgYet7WczVbb0。您确定要继续连接(是/否)?no 0.0.0.0:主机密钥验证失败。0/logs/hadoop-hadoop-datanode-linux-virtual-machine.out:没有这样的文件或目录本地主机:/usr/local/hadoop-2.10.0/sbin/hadoop-daemon.sh:第178行:/usr/ local/hadoop-2.10.0/logs/hadoop-hadoop-datanode-linux-virtual-machine.out:没有这样的文件或目录启动辅助namenodes [0.0.0.0]主机'0.0.0.0(0.0.0.0)的真实性'不能成立。ECDSA 密钥指纹为 SHA256:a37ThJJRRW+AlDso9xrOCBHzsFCY0/OgYet7WczVbb0。您确定要继续连接(是/否)?no 0.0.0.0:主机密钥验证失败。0)' 无法建立。ECDSA 密钥指纹为 SHA256:a37ThJJRRW+AlDso9xrOCBHzsFCY0/OgYet7WczVbb0。您确定要继续连接(是/否)?no 0.0.0.0:主机密钥验证失败。0)' 无法建立。ECDSA 密钥指纹为 SHA256:a37ThJJRRW+AlDso9xrOCBHzsFCY0/OgYet7WczVbb0。您确定要继续连接(是/否)?no 0.0.0.0:主机密钥验证失败。

编辑 2:修复了上述错误,我将权限更改为 hadoop 文件夹(在我的情况下是 hadoop-2.10.0 和 hadoop)start-all.sh 工作正常,但 namenode 没有显示。

标签: hadoop

解决方案


目前尚不清楚您如何设置PATH变量。或者脚本如何不“工作”。你chmod +x是为了让它们可执行吗?有任何来自他们的日志输出吗?

start-all脚本sbin在您下载 Hadoop 的目录中可用,所以这/path/to/sbin/start-all.sh就是您真正需要的。

是的,namenode 需要在新集群上格式化。使用官方的 Apache 指南是最新的源代码,对大多数人来说都可以正常工作。

否则,我建议您了解 Apache Amabri,它可以自动安装。或者只是使用 Cloudera 提供的沙箱,或者如果您不关心完全“安装”它,可以使用许多已经存在于 Hadoop 的 Docker 容器。


推荐阅读