首页 > 解决方案 > 结合 dynamodb 流

问题描述

我需要使用 aws 工具构建一个服务,该工具聚合来自各种 dynamodb 表的数据并将数据存储在 redshift 集群中。在将每个数据流存储到 redshift 之前,还需要对其进行处理。

我目前的想法是通过 dynamodb 流将每个数据流发送到 kinesis 数据分析,每个流都有自己的 kinesis 组件。每个 kinesis 组件都会对数据进行处理,然后将处理后的数据写入同一个红移集群。

我担心这是不可扩展的,并且想知道是否有任何方法可以让一个服务获取多个输入流,进行处理,然后将处理后的数据发送到 redshift 集群?这样,对于每个新的 dynamodb 表或 s3 存储桶,我们不需要创建全新的 kinesis 分析组件。

作为参考,每个 dynamodb 表中存储的数据都不相同,处理后的数据也不相同。

正在使用的数据量非常大,需要实时处理更新。

标签: amazon-web-servicesaws-lambdaamazon-dynamodbamazon-redshiftamazon-kinesis-analytics

解决方案


推荐阅读