首页 > 解决方案 > 使用不带 hadoop 的 Flume 将数据从本地目录传输到 Azure Data Lake 存储

问题描述

** 我正在尝试将位于我的 vm linux 目录上的数据提取到一个目录中 从我的带有水槽的 azure 数据湖存储中,我不知道要使用哪种类型的接收器,或者即使可能知道对于来源我使用 spooldir**

***************我的水槽配置文件*********

a1 是我的水槽代理

a1.sources = r1
a1.sinks = k1
a1.channels = c1

# Describe/configure the source
a1.sources.r1.type = spooldir
a1.sources.r1.spoolDir = home/
a1.sources.r1.fileHeader = true

#describe the sink ( here is my problem  i don't know what type of sink to use i don't find any documentation about it)
a1.sinks.k1.type = 
a1.sinks.k1.endpoint = 


# Use a channel which buffers events in memory

a1.channels.c1.type = memory
a1.channels.c1.capacity = 1000
a1.channels.c1.transactionCapacity = 100

# Bind the source and sink to the channel
a1.sources.r1.channels = c1
a1.sinks.k1.channel = c1

标签: hdfsflumeazure-data-lakeazure-hdinsightflume-ng

解决方案


推荐阅读