unix - scp远程文件到hadoop而不将它复制到边缘节点
问题描述
想要将文件从远程服务器复制到 hadoop 而不复制到边缘节点。
1.根据下面的文章,我们可以分两步完成,首先对本地边缘节点执行 scp,然后执行 hdfs fs 命令以从边缘节点移动到 hdfs https://community.cloudera.com/t5/Support-Questions/Import -数据从远程服务器到 HDFS/td-p/233148
2.根据下面的文章,我们可以做 ssh cat,但是我们有像 .gz 这样的文件,它不能是 CAT 将远程文件放入 hadoop 而不将其复制到本地磁盘
但我正在寻找第三个选项,我们可以 scp 而不是 ssh CAT 并复制到 hadoop 而无需复制到 Edge 节点。
解决方案
Hadoop 没有 SCP 上传功能。
如果您想在没有边缘节点或 SSH 的情况下获取文件,那么这就是 WebHDFS 或 NFSGateway 提供的
推荐阅读
- docker - 使用来自 docker-container 的非静态 IP 连接到主机
- android - HTTP 引荐来源网址是否适用于移动应用程序?
- angular - 为什么属性数组总是在模板中返回null
- linux - 谷歌云平台负载均衡去除域名重定向端口8443
- matlab - 如何过滤高频信号?
- selenium-webdriver - Salesforce 应用程序中的 xpath 说明
- java - 如何在 Spring 的 Request 中使用 Garcia 的 WebDriverManager?
- excel - 更优雅地循环工作表查找、复制和粘贴到另一个工作表
- html - 如何排列两个侧面图像和一个更大的图像并保持纵横比
- c# - 如何在 .NET Core 控制台应用程序中使用 Serilog