azure - Azure Log Analytics 和 Data Lake Store 诊断日志 - 过滤掉数据备份日志事件
问题描述
我们已将 Azure Data Lake Store 诊断日志配置为将数据推送到 Log Analytics。此数据稍后将用于审计目的。
我们遇到的问题 - 我们的每晚备份过程(将数据从一个 Data Lake Store 备份到另一个 Data Lake Store)会生成千兆字节的几乎无用的日志记录。我们可以在将这些日志上传到 Log Analytics 后(在查询中)过滤掉它们,但是这些数据占用空间并且成本很高。
有没有办法在将某些日志上传到 Log Analytics 之前过滤掉它们,所以这些数据永远不会到达 Log Analytics?(在我们的例子中,这是由 BACKUP 用户生成的日志)。可以使用哪些其他选项来摆脱数据备份日志?
解决方案
在将日志路由到 Log Analytics 之前,无法以这种方式筛选日志。
将来,您也许可以取消备份过程,转而使用异地冗余 Azure Data Lake Store。
推荐阅读
- angular - 我可以在量角器中使用这样的 baseUrl 吗?
- sgx - 英特尔 SGX 培训实验室:无法编译示例(缺少 sgx_tstdcxx.lib)
- excel - VLOOKUP 不返回结果
- javascript - 如何隐藏和显示折线图上的点
- excel - 日期返回 0 的 SUMIFS
- javascript - How do you include an existing javascript list inside your angularjs controller
- c# - MathNet.Filtering 带通零相位给出错误的结果
- javascript - Laravel 实时视频流通过服务器
- sql - 在多行中的逗号之间分布表达式
- django - 使用比萨将html转换为pdf