hadoop - Hive:为现有文件夹结构添加分区
问题描述
我在 HDFS 中有一个文件夹结构,如下所示。但是,实际上没有使用这些ALTER TABLE ADD PARTITION
命令在表上创建分区,即使文件夹结构已设置为好像表具有分区一样。
如何自动将所有分区添加到 Hive 表?(Hive 1.0,外部表)
/user/frank/clicks.db
/date=20190401
/file0004.csv
/date=20190402
/file0009.csv
/date=20190501
/file0000.csv
/file0001.csv
...etc
解决方案
使用 msck 修复表命令:
MSCK [REPAIR] TABLE tablename;
或者
ALTER TABLE tablename RECOVER PARTITIONS;
如果您在 EMR 上运行 Hive。
在此处阅读有关这两个命令的更多详细信息:恢复分区
推荐阅读
- python - 如何删除 Python Tkinter 中的打印文本?
- aws-codebuild - 带有 S3 源的 AWS CodeBuild:调用 startBuild 时出错:S3 文件夹源位置的源版本应为空
- javascript - 如何在我的网页上每 15 秒打开一次神奇的弹出窗口
- python - Scrapy Installation (Microsoft Visual C++ 14.0 is required)
- android - 无法在 API 级别 29 的 wordpress 应用程序的 webview 中完全加载 wordpress 帖子内容。但它在 API 级别 26 上运行良好
- javascript - TypeError: _this.props.editAp 不是函数
- azure - Export-AzureRmAutomationDscConfiguration 无法反序列化响应
- algorithm - 更复杂的散列函数会导致更快的构建表吗?
- regex - 从末尾开始匹配正则表达式组
- javascript - 在 React 应用程序中,JSON.Stringify 仅显示第一个项目和一个长度项目,而不是其他项目