hadoop - 如何在 HDFS 中合并文件的小块?
问题描述
我们计划将append
数据以模式存储到我们的文件中NEW_BLOCK
。这为我们提供了更多关于 DN 状态的灵活性。现在,在运行了几天之后,我们发现我们的 2mb 文件有太多块。
有没有办法合并文件的块 - 比如说将文件的 100 个块减少到 4 个。
解决方案
推荐阅读
- php - 如何将 $_GET[] 与 require("doc.php") 一起使用?
- sql-server - 插入更新触发器后,值加倍
- function - twilio 在资产中上传文件以进行操作
- javascript - 如何在 Matter.js 中使用 SVG 图像?
- python - 在 Windows 上使用 PySide/PyQT 移除 QPushButton 周围奇怪的一像素空间
- c# - 如何在 C#(移动应用程序)中从另一个类调用变量
- java - JHipster with vue - 如何在前端显示来自后端的数据
- python - 解析 JSON - print 有效,但 append 无效
- c# - 正确使用 503(服务不可用)状态码的方法
- python - 在函数上使用 getattr