首页 > 解决方案 > 在 HDFS 集群中上传文件

问题描述

我正在学习 hadoop,直到现在我配置了 3 个节点集群
127.0.0.1 localhost
10.0.1.1 hadoop-namenode 10.0.1.2 hadoop
-datanode-2
10.0.1.3 hadoop-datanode-3

我的 hadoop Namenode 目录如下所示

hadoop
bin
数据-> ./namenode ./datanode

记录
sbin
--
--

据我了解,当我们在集群中上传一个大文件并将文件分成块时,我想在我的集群中上传一个 1Gig 文件,并想看看它是如何存储在 datanode 中的。

谁能帮我上传文件的命令并查看这些块的存储位置。

标签: hadoophdfs

解决方案


首先,您需要检查您的路径中是否有 Hadoop 工具,如果没有 - 我建议将它们集成到其中。

将文件上传到 HDFS 的一种可能方式:hadoop fs -put /path/to/localfile /path/in/hdfs

我建议您先阅读文档并熟悉高级命令,因为它可以节省您的时间 Hadoop 文档

从“dfs”命令开始,因为这是最常用的命令之一


推荐阅读