hive - HQL 失败 sqlexception
问题描述
当我跑步时
Select * from table_a
使用我的蜂巢 ide,我收到:
SQLException pa 当前的 sql 输入文件超过了最大限制。请优化。最大文件--→100000
当我用谷歌搜索这个错误时,我什么也找不到。
解决方案
好像你的表已经爆炸了允许的 HDFS 文件的最大数量。
转到配置单元(或直线)并运行以下命令,默认值为100000
set hive.exec.max.created.files;
要解决此问题,您需要检查您的插入查询并了解为什么它会创建这么多文件。
但是暂时,您使用以下命令连接一些分区(最好对所有人都这样做)
alter table dbname.tblName partition (col_name=value) concatenate;
推荐阅读
- c# - 使用 IsolatedProcess = true 启动新的 Xamarin 服务
- vue.js - 编译时间慢 VueJS
- sas - 如何使用 SAS Programming 扫描和捕获 Linux 文件夹名称?
- mongodb - 如何 insert_many 防止将 _id 以外的键视为主键的重复记录?
- python - 如何在 google co lab 中安装 utils?
- python - Subset_problem 没有给出正确的结果
- javascript - 使用javascript比较多个对象
- amazon-web-services - 如何删除包含空格和特殊字符的 S3 文件夹
- vue.js - 未知的自定义元素,即使它在 vue 的组件部分中清除
- javascript - 如何安全地加载外部 JavaScript 文件?