首页 > 解决方案 > 实时流数据分析

问题描述

这是一个相对广泛的问题,我知道解决此类问题可能需要使用的工具(例如 Spark、Kafka 和 Hadoop),但我正在从经验丰富的专业人士的角度寻找具体的愿景

这是手头的问题:

我们正在使用类似谷歌分析的服务,它向我们发送事件流。事件是在页面上执行的操作。它可以是单击按钮、鼠标移动、页面滚动或我们定义的自定义事件。

{
"query_params":[

],
"device_type":"Desktop",
"browser_string":"Chrome 47.0.2526",
"ip":"62.82.34.0",
"screen_colors":"24",
"os":"Mac OS X",
"browser_version":"47.0.2526",
"session":1,
"country_code":"ES",
"document_encoding":"UTF-8",
"city":"Palma De Mallorca",
"tz":"Europe/Madrid",
"uuid":"A37F2D3A4B99FF003132D662EFEEAFCA",
"combination_goals_facet_term":"c2_g1",
"ts":1452015428,
"hour_of_day":17,
"os_version":"10.11.2",
"experiment":465,
"user_time":"2016-01-05T17:37:10.675000",
"direct_traffic":false,
"combination":"2",
"search_traffic":false,
"returning_visitor":false,
"hit_time":"2016-01-05T17:37:08",
"user_language":"es",
"device":"Other",
"active_goals":[
1
],
"account":196,
"url”:”http://someurl.com”,
“action”:”click”,
"country":"Spain",
"region":"Islas Baleares",
"day_of_week":"Tuesday",
"converted_goals":[

],
"social_traffic":false,
"converted_goals_info":[

],
"referrer”:”http://www.google.com”,
"browser":"Chrome",
"ua":"Mozilla/5.0 (Macintosh; Intel Mac OS X 10_11_2) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/47.0.2526.106 Safari/537.36",
"email_traffic":false
}

现在我们需要构建一个解决方案来分析这些数据。我们需要做一个可以聚合、过滤、切片和切块数据的报告平台。

我们需要建立的报告的一个例子是

向我展示所有来自美国并使用 chrome 浏览器并在 iPhone 上使用该浏览器的用户。

或者

显示来自referrer = “<a href="http://www.google.com" rel="nofollow noreferrer">http://www.google 的所有用户对特定按钮的点击总和.com”,总部位于印度,使用桌面。在一天之内,该服务每天发送数百万个此类事件,总计 GB 的数据。

这是我的具体疑问

标签: hbasebigdatastreamingspark-streamingapache-kafka-streams

解决方案


  1. 我们应该如何存储如此大量的数据。

使用云存储提供商之一(链接)根据日期和时间(日期=2018-11-25/小时=16)对数据进行分区,这将减少每次查询读取的数据量。将数据存储为一种二进制格式,如 parquet 或 ORC,将为您提供更好的性能和压缩比。

  1. 我们应该如何让自己能够实时分析数据。

您可以运行多个应用程序来监听一个 kakfa 主题。首先使用带有连续模式应用程序(链接)的 spark 结构化流 2.3 将事件存储到存储中。这将使您可以选择查询和分析历史数据并在需要时重新处理事件。您在这里有两个选择:

  1. 存储在 hdfs/s3/gcp 存储等中。在存储的数据上构建一个配置单元目录以获取事件的实时视图。可以使用 spark/hive/presto 查询数据。注意:如果正在生成小文件,则需要压缩。

  2. 存储在像 Cassandra 或 HBase 这样的宽列存储中。链接对于这个用例,我更喜欢这个选项。

并行运行另一个 spark 应用程序进行实时分析,如果您知道必须聚合数据的维度和指标,请使用带有窗口的 spark 结构化流。您可以每分钟或 5 分钟按列和窗口分组,并存储在上述可以实时查询的存储提供程序之一中。关联

  1. 查询系统在这里应该如何工作

如答案 3 中所述,在存储的数据上构建 Hive 目录以获取事件的实时视图。出于报告目的,使用 spark/hive/presto 查询数据。如果查询实时数据,请使用 Cassandra 或 HBase 作为低延迟系统。

  1. 如果我们正在考虑维护大约 4 TB 的数据,我们估计将累积超过 3 个月,那么保留这些数据的策略应该是什么。我们应该何时以及如何删除它?

如果您对数据进行了适当的分区,则可以根据定期归档规则将数据归档到冷备份。例如,可以维护从事件生成的维度和指标,并且可以在 1 个月后归档事件。


推荐阅读