google-cloud-platform - 是否可以在 GCS 中的一组文件上运行数据流 DLP 去识别作业?
问题描述
我在一个文件夹中有大量 csv 文件,我需要在这些文件上运行去识别化作业,并且想知道是否有人知道我可以在文件夹/多个文件上运行该作业的任何方式?目前,我正在使用 DLP 模板创建数据流作业,这对于单个数据集来说效果很好。我知道在 GCS 中,您可以在其中包含多个文件的文件夹上运行 DLP,但您只能使用检查模板而不是去识别模板。
将它们放入存储桶也不是一种选择,因为父文件夹已经是存储桶并且无法嵌套存储桶。
任何帮助将不胜感激谢谢
解决方案
正确,尚不支持此功能。推荐的解决方案是使用数据流。
推荐阅读
- android - java.lang.NullPointerException onPostExecute
- python - 从 JSON 文件中获取特定值并将其传递到现有 YAML 文件中的特定字段
- python - 关闭无限异步生成器
- python - 附加数据文件(.csv、.json)作为要在 Dataflow 上使用的设置包的一部分
- haskell - 您如何找到仅是 2、3 和 5 的幂的倍数的所有数字的列表?
- python - Python numpy 数组索引在第 4 位出现舍入错误
- angular - src/app/products/product-list.component.ts(1,2) 中的错误:错误 TS1109:预期表达式
- c# - 发现无法解决的“ICSharpCode.SharpZipLib”不同版本之间的冲突
- javascript - Web Worker 响应缓慢
- javascript - 无法在鼠标悬停时隐藏/显示工作