hadoop - 在 HDFS 集群中上传文件
问题描述
我正在学习 hadoop,直到现在我配置了 3 个节点集群
127.0.0.1 localhost
10.0.1.1 hadoop-namenode 10.0.1.2 hadoop
-datanode-2
10.0.1.3 hadoop-datanode-3
我的 hadoop Namenode 目录如下所示
hadoop
bin
数据-> ./namenode ./datanode
等
记录
sbin
--
--
据我了解,当我们在集群中上传一个大文件并将文件分成块时,我想在我的集群中上传一个 1Gig 文件,并想看看它是如何存储在 datanode 中的。
谁能帮我上传文件的命令并查看这些块的存储位置。
解决方案
首先,您需要检查您的路径中是否有 Hadoop 工具,如果没有 - 我建议将它们集成到其中。
将文件上传到 HDFS 的一种可能方式:hadoop fs -put /path/to/localfile /path/in/hdfs
我建议您先阅读文档并熟悉高级命令,因为它可以节省您的时间 Hadoop 文档
从“dfs”命令开始,因为这是最常用的命令之一
推荐阅读
- postgresql - AWS DMS 与 RDS 上的 Postgresql 的连接问题
- android - Firestore 如何在没有 Internet 权限的情况下工作?
- ignite - 如何在没有自定义函数的 SQL 中使用 ID 生成器
- javascript - 如何在一天后调用Javascript倒计时并将一周添加到计时器中
- azure - 在 Azure 数据工厂副本中使用附加 blob 是否有任何解决方法?
- nested - 在 Mapbox 中显示嵌套 GeoJson 的属性
- meteor - 流星未运行显示节点光纤问题
- python - 使用递归制作单词序列
- php - 即使事件被触发,Laravel 监听器也不会被触发
- prolog - Prolog 几何三角规则