hive - 使用 Nifi 调度批量数据插入 Hive
问题描述
我正在使用Nifi来管理我的数据流。我首先使用ConsumeKafka处理器接收数据,然后使用EvaluateJsonPath和ReplaceText处理器来获取此请求
insert into my_table values('x1','x2','x3');
最后,这个请求被送到PuthiveQl处理器。通过这种方式,我将数据逐行插入到我的 Hive 表中,工作正常,但这是一种非常糟糕的方法。
我只想知道如何获得这样的请求
insert into my_table values('x1','x2','x3'),('x11','x22','x33'),('x111','x222','x333');
通过插入一个; 到一天结束时的查询,因此每 24 小时获取一次批量数据插入到 hive 中。
请在 Nifi 中找到我的数据流。
解决方案
推荐阅读
- if-statement - 是否有检查范围内相同值的功能?
- elasticsearch - 如何在不使用 Filebeat 或 Logstash 等任何日志传送器的情况下将日志存储在 Elasticsearch 中?
- vba - VBA - 未找到命名参数
- spring-boot - 如何设置 x 轴的最小值最大值取决于 Chartjs 和 Spring Boot 的数据?
- php - 如何让 mysql 从迁移页面接受特定格式的日期?
- python - 有没有办法创建一个充满函数的numpy数组来代替元素?
- javascript - 从消息中提取 OTP 并在本机反应中仅显示 OTP 值
- r - 使用“[]”而不是使用 $-operator 子集数据表时出错
- jmeter - 在 Jmeter bin 文件夹中运行“create-rmi-keystore.bat”文件不起作用
- django - Django 表单数据未保存到数据库