hbase - 实时流数据分析
问题描述
这是一个相对广泛的问题,我知道解决此类问题可能需要使用的工具(例如 Spark、Kafka 和 Hadoop),但我正在从经验丰富的专业人士的角度寻找具体的愿景
这是手头的问题:
我们正在使用类似谷歌分析的服务,它向我们发送事件流。事件是在页面上执行的操作。它可以是单击按钮、鼠标移动、页面滚动或我们定义的自定义事件。
{
"query_params":[
],
"device_type":"Desktop",
"browser_string":"Chrome 47.0.2526",
"ip":"62.82.34.0",
"screen_colors":"24",
"os":"Mac OS X",
"browser_version":"47.0.2526",
"session":1,
"country_code":"ES",
"document_encoding":"UTF-8",
"city":"Palma De Mallorca",
"tz":"Europe/Madrid",
"uuid":"A37F2D3A4B99FF003132D662EFEEAFCA",
"combination_goals_facet_term":"c2_g1",
"ts":1452015428,
"hour_of_day":17,
"os_version":"10.11.2",
"experiment":465,
"user_time":"2016-01-05T17:37:10.675000",
"direct_traffic":false,
"combination":"2",
"search_traffic":false,
"returning_visitor":false,
"hit_time":"2016-01-05T17:37:08",
"user_language":"es",
"device":"Other",
"active_goals":[
1
],
"account":196,
"url”:”http://someurl.com”,
“action”:”click”,
"country":"Spain",
"region":"Islas Baleares",
"day_of_week":"Tuesday",
"converted_goals":[
],
"social_traffic":false,
"converted_goals_info":[
],
"referrer”:”http://www.google.com”,
"browser":"Chrome",
"ua":"Mozilla/5.0 (Macintosh; Intel Mac OS X 10_11_2) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/47.0.2526.106 Safari/537.36",
"email_traffic":false
}
现在我们需要构建一个解决方案来分析这些数据。我们需要做一个可以聚合、过滤、切片和切块数据的报告平台。
我们需要建立的报告的一个例子是
向我展示所有来自美国并使用 chrome 浏览器并在 iPhone 上使用该浏览器的用户。
或者
显示来自referrer = “<a href="http://www.google.com" rel="nofollow noreferrer">http://www.google 的所有用户对特定按钮的点击总和.com”,总部位于印度,使用桌面。在一天之内,该服务每天发送数百万个此类事件,总计 GB 的数据。
这是我的具体疑问
- 我们应该如何存储如此大量的数据
- 我们应该如何让自己能够实时分析数据。
- 查询系统在这里应该如何工作(我对这部分比较一无所知)
- 如果我们正在考虑维护大约 4 TB 的数据,我们估计将累积超过 3 个月,那么保留这些数据的策略应该是什么。我们应该何时以及如何删除它?
解决方案
- 我们应该如何存储如此大量的数据。
使用云存储提供商之一(链接)根据日期和时间(日期=2018-11-25/小时=16)对数据进行分区,这将减少每次查询读取的数据量。将数据存储为一种二进制格式,如 parquet 或 ORC,将为您提供更好的性能和压缩比。
- 我们应该如何让自己能够实时分析数据。
您可以运行多个应用程序来监听一个 kakfa 主题。首先使用带有连续模式应用程序(链接)的 spark 结构化流 2.3 将事件存储到存储中。这将使您可以选择查询和分析历史数据并在需要时重新处理事件。您在这里有两个选择:
存储在 hdfs/s3/gcp 存储等中。在存储的数据上构建一个配置单元目录以获取事件的实时视图。可以使用 spark/hive/presto 查询数据。注意:如果正在生成小文件,则需要压缩。
存储在像 Cassandra 或 HBase 这样的宽列存储中。链接对于这个用例,我更喜欢这个选项。
并行运行另一个 spark 应用程序进行实时分析,如果您知道必须聚合数据的维度和指标,请使用带有窗口的 spark 结构化流。您可以每分钟或 5 分钟按列和窗口分组,并存储在上述可以实时查询的存储提供程序之一中。关联
- 查询系统在这里应该如何工作
如答案 3 中所述,在存储的数据上构建 Hive 目录以获取事件的实时视图。出于报告目的,使用 spark/hive/presto 查询数据。如果查询实时数据,请使用 Cassandra 或 HBase 作为低延迟系统。
- 如果我们正在考虑维护大约 4 TB 的数据,我们估计将累积超过 3 个月,那么保留这些数据的策略应该是什么。我们应该何时以及如何删除它?
如果您对数据进行了适当的分区,则可以根据定期归档规则将数据归档到冷备份。例如,可以维护从事件生成的维度和指标,并且可以在 1 个月后归档事件。
推荐阅读
- java - 将库模块集成到另一个项目模块时的 Pom.xml 冲突
- php - 更改语言时,wordpress 不翻译我的页脚
- c++ - 内部有 if-else 的 for 循环在 if 块匹配后终止
- arrays - 如何在 kotlin 中将 ArrayList 重复为随机索引?
- python - 在 Python 中从 CSV 创建嵌套字典
- flutter - 运行flutter build ios时Xcode构建失败-clang:错误:没有这样的文件或目录'grpc'
- pandas - Jupiter,无法重置数据帧索引
- python - 如何更新 tkinter 中的小部件?
- rust - 如何为不采用生命周期参数的特征内的类型实现命名生命周期?
- r - zoo::rollapply 没有给出滚动相关的整个运行