hadoop - 在 HIVE HDFS 中的所有节点上传播数据
问题描述
我正在尝试一个用例,当我在 Hive 中创建一个表并将数据加载/插入到表中时,它只将数据存储在 Namenode 根据 HDFS 文件系统管理的任何底层 Datanode 中。
在我的用例中,当我们将数据加载到 Hive 表中时,我必须自动将数据分布在集群中的所有现有 DataNode 中。假设如果有 3 个节点,表数据应该分布在这些节点上。我在这里没有计算复制,而是实际数据应该分布在所有现有节点上。
有没有什么简单的方法可以通过任何设置在 Hive 中实现?
解决方案
推荐阅读
- reactjs - Firebase 特定顺序
- python - 如何使用 python 查找 3D CT 扫描图像的连接组件?
- github - 在 Apache Superset 中安装自定义插件(图表)
- python - python reportlab:如何自定义表格内线?
- php - woocommerce 插件在添加到购物车时向服务器发送请求,而不是在结帐时
- c# - 如何在 dotnet 5.0 中使用反射注册所有托管服务
- matlab - 如何在 Matlab Raspberry Pi 中连接 TCA9548A?
- sql - 如何调用用随机值填充所有表列的函数?
- javascript - 拆分动态字符串以存储在单独的变量中
- typescript - 从联合类型键推断类型