hadoop - sqoop会删除所有现有的数据文件吗?
问题描述
我使用以下命令
通过sqoop将数据从 RDBMS 导入到 HDFS :sqoop import --connect ... --table ... --hive-import --hive-table --m 20
等。所以这个命令将在 hdfs 的一个目录下创建 20 个文件。
如果我稍后决定导入其他数据并覆盖现有数据,我将使用以下命令:sqoop import --connect ... --table ... --hive-import --hive-overwrite --hive-table --m 10
.
sqoop的行为是什么?
- Sqoop 将转到该目录并删除所有以前的 20 个文件并创建 10 个新文件。
- Sqool 将删除 20 个文件中的所有数据,然后将新数据写入现有 20 个随机文件中的 10 个。
解决方案
推荐阅读
- java - ¿ 如何检查 int 变量的字符数?
- javascript - 我们可以在 JS 文件的顶部写“use strict”,它会验证所有函数和语句吗?
- python - Django Migration InternalError 1054 未知列
- c - 使用 SAT 求解器打印 N-Queens 问题的所有解
- vue.js - 将 Axios 调用的结果添加到 State
- javascript - 带有数据表的嵌套表
- python - MySQL/python 字符集问题
- r - 从第三次观察开始,在 R 中进行黄土曲线拟合
- scala - 没有参数评估 zeppelin 中定义的 Scala 方法
- python - 如何基于单个列上的多个 StringMethods 有效且惯用地过滤 PandasDF 行?