hdfs - 使用不带 hadoop 的 Flume 将数据从本地目录传输到 Azure Data Lake 存储
问题描述
** 我正在尝试将位于我的 vm linux 目录上的数据提取到一个目录中 从我的带有水槽的 azure 数据湖存储中,我不知道要使用哪种类型的接收器,或者即使可能知道对于来源我使用 spooldir**
***************我的水槽配置文件*********
a1 是我的水槽代理
a1.sources = r1
a1.sinks = k1
a1.channels = c1
# Describe/configure the source
a1.sources.r1.type = spooldir
a1.sources.r1.spoolDir = home/
a1.sources.r1.fileHeader = true
#describe the sink ( here is my problem i don't know what type of sink to use i don't find any documentation about it)
a1.sinks.k1.type =
a1.sinks.k1.endpoint =
# Use a channel which buffers events in memory
a1.channels.c1.type = memory
a1.channels.c1.capacity = 1000
a1.channels.c1.transactionCapacity = 100
# Bind the source and sink to the channel
a1.sources.r1.channels = c1
a1.sinks.k1.channel = c1
解决方案
推荐阅读
- windows - 备份脚本 - 按模式查找文件,读取它的全名并传递给脚本
- c++ - 使对象消失并出现在OpenGL中
- jquery - 带有媒体查询问题的 Bootstrap 4 粘性导航
- javascript - 如何在 ChartJS 的分组条形图中包含额外的条形?
- css - 如何像这样重新设计我的 wordpress 网站页脚?
- apache-spark - 拆分 SQL 查询以提高 Spark 效率
- graph - 写在 doxygen 点图中的箭头旁边
- image - 更好的分割方法
- django - 外键访问数据 Django
- ios - 黑白 self.packetFlow.ReadBytes 与套接字读取的区别