hadoop - 使用 sqoop import all 的 hive-import 和 hive-overwrite
问题描述
sqoop import-all-tables --connect jdbc:mysql://localhost/SomeDB --username root --hive-database test --hive-import;
上面的命令工作正常,但它复制了目标表中的值。我用下面的来覆盖数据。
sqoop import-all-tables --connect jdbc:mysql://localhost/SomeDB --username root --hive-import --hive-database Test --hive-overwrite
这替换了表中的所有值并仅插入空值。如果我要删除 --hive-import 那么它也不起作用。我在这里做错了什么?
解决方案
这将解决问题。
sqoop import-all-tables --connect jdbc:mysql://localhost/SomeDB --username root --hive-import --warehouse-dir /user/hive/warehouse/Test --hive-database Test --hive-覆盖
推荐阅读
- django - 带有模板完整路径的 Django 1.11 get_template
- javascript - 更新javascript数组中的嵌套值
- c# - 如何格式化月份中没有前导零的日期?
- php - 从父表 Eloquent 返回包含所有子表的数组
- permalinks - Hugo 中的部分层次结构
- php - 如何通过 Web 套接字将 Dart Map 对象发送到 PHP 服务器?
- python - 使用 XL 翅膀将 1 列从 100 个不同的 Excel 路径复制到 1 个 Excel 文件
- node.js - 有没有办法根据记录的会话类型制作不同的捆绑包?
- rust - 如何从 Rust 调用内置 Dyon 函数?
- java - 比较两个具有唯一结果的列表