machine-learning - 屏幕截图 > 文本 (OCR) > 关键信息
问题描述
我正在使用 Googles Vision API 来分析来自我们产品的错误消息的屏幕截图。使用这些托管服务,OCR 部分很容易,但是是否有任何最佳实践工具可用于实际文本?
更具体地说,错误屏幕截图将包含产品名称、产品版本、底层操作系统版本(如果操作系统是 32 位或 64 位)以及实际错误消息(C# Stacktrace)
所以所有文本都来自 OCR 扫描,但由于屏幕截图是由用户拍摄的,因此不能假设上面的不同信息位于屏幕截图的特定区域。
如何着手分析这些数据?我们是在谈论简单的字符串操作和自定义领域知识(试过这个,它让我走得很远),还是这是谷歌/微软提供的某种机器学习文本分析的工作(或者是矫枉过正)?
解决方案
所以所有文本都来自 OCR 扫描,但由于屏幕截图是由用户拍摄的,因此不能假设上面的不同信息位于屏幕截图的特定区域。
- 使用简单的模板匹配查找您在屏幕截图中查找的错误消息窗口。
- 在与您在步骤 1 中找到的位置相关的特定区域中使用 Googles Vision API,以获取特定信息。
推荐阅读
- python - 在 try/except 块中连接数据帧
- javascript - 如何确保在文件系统终止写入流之后出现 Express 响应?
- python - 如何按顺序循环/解析表行而不跳到变量的下一个实例?
- java - 已解决:选择方式链接文本不工作尝试了一切
- javascript - 何时在构造函数(道具)上使用普通状态?
- asp.net-mvc - Azure 是否曾经在应用服务中缓存旧版本的视图?
- sql - 索引列上的非常慢的不同查询
- xamarin - 你如何请求 iOS 的权限?
- javascript - 命名和未命名匿名 Javascript 函数之间的区别
- regex - VBScript 正则表达式 - 匹配多个