首页 > 解决方案 > 每天从 Azure EventHub 读取批量数据

问题描述

大家好,

我需要从 Azure EventHub 读取流数据并将其转储到 blob 位置。根据成本优化,我不能更喜欢流分析或 Spark 流。我只能使用 Spark 批处理作业,我需要探索如何从 Azure EventHub 作为批处理读取数据(最好是前一天的数据)并将其转储到 blob。我的 Azure EventHub 保存 4 天的数据,我需要确保每次从 Azure EventHub 读取数据时都应避免重复。

我计划每天使用spark从azure event-hub读取一次数据,有没有一种方法可以在每次读取数据时保持一些顺序以避免重复。

任何帮助将不胜感激。

标签: apache-sparkazure-eventhubazure-eventhub-capture

解决方案


事件中心的 Azure 客户端库有一个 EventProcessor。该处理器处理来自支持检查点存储的事件,该存储保存有关已处理事件的信息。目前,存在一种将检查点数据持久保存到 Azure 存储 Blob 的检查点存储实现。

这是我知道支持的语言的 API 文档。GitHub 存储库和示例浏览器中也有示例。

如果您只想将事件传输到“blob 位置”,事件中心支持捕获到 Azure 存储 Blob


推荐阅读