hadoop - HiveServer2 尝试在不同节点的 /var/log/hive/operation_logs/ 下写入日志文件
问题描述
我们将 CDH 版本从 5.x 升级到 6.3.3,并将 hive 从 1.x 升级到 2.1.1。当我们运行 hive map join 时,对结果没有影响,但是我们得到了以下错误消息
引起:主要错误RandomAccessFileManager [java.io.IOException:无法创建目录/var/log/hive/operation_logs/a2e15f81-0e7e-4d56-8b8b-7a4768ced8ae]
当我运行 hive map join 时,表大小小于 10KB。
我们的 HiveServer2 安装在 node1 中,/var/log/hive/operation_logs/ 文件夹存在于 node1 中,但是 operation_logs 文件夹是空的,好像它没有在那里写任何日志文件。由于错误消息提到了文件夹创建问题,我尝试在边缘节点(node2)中手动创建 operation_logs 文件夹。并且当我运行 hive map join 时,没有错误信息,并且可以看到在 node2 中创建的日志。
所以我只是想知道为什么 HiveServer2 将日志写入边缘节点而不是它自己的节点?有谁知道我们该如何解决它?
解决方案
推荐阅读
- python - 如何使用 Python 对列表中的日期进行排序
- maven - 当预集成测试失败时执行集成后测试阶段
- laravel - ImageMagick 或 GraphicsMagick 与 Laravel webpack 和 NPM
- ruby-on-rails - 如何迭代 ActiveRecord 对象的关联对象
- c++ - SFML 在 xcode 中打开图像文件?
- ios - Firebase Firestore:如何实现“点赞”系统?
- python - 在 Tkinter 中将其用作背景时不显示图像
- c# - 在单元测试中反序列化 appsettings.json
- mariadb - MariaDB 社区服务器 10.5 Alpha 上的 MariaDB 列存储 1.4
- jquery - 在 codeigniter 项目中放置外部脚本和 css 的位置