hdfs - 在 Nifi 中生成 128MB 的块
问题描述
我想要做的是存入 128MB 大小的 HDFS 块我一直在尝试几个处理器,但无法获得好的处理器,或者我没有确定正确的属性:
这就是流程的样子:
希望有人可以帮助我真的很难做到这一点。
解决方案
您不需要 SplitAvro 或 ConvertAvroToJSON,如果您使用 MergeRecord,您可以提供 AvroReader 和 JsonRecordSetWriter,它会为您进行转换。如果您知道适合 HDFS 块的大致记录数,则可以将其设置为最大条目数和最大组大小。请记住,这些都是软限制,因此您可能希望将其设置为更安全的值,例如 100MB。
当您尝试使用描述中的流程时,您观察到了什么?文件是否仍然太大,或者似乎没有遵守最小/最大限制等?
推荐阅读
- python-3.x - 如何解决 JAX/Python 中的 ValueError `vector::reserve`?
- javascript - SVG 动画不适用于静态文件夹/包裹
- c++ - constexpr 函数说明
- sql - SQL,ORACLE - 创建一个视图并在选择中传递用户的授权
- python - 如何为 pandas 数据框的每一行打印索引值、列名和列数据?
- logstash-grok - Logstash 中的 Grok 过滤器问题
- python - Django 使用 ImageField 下载图像
- javascript - 从contact.js 发送数据到表单process.php
- math - 如何将 0..1 输入转换为双曲线 0..1 输出
- entity-framework - 在将实体框架 dbset 分配为数据源之前对其进行过滤