azure - 如何读取大型 JSON 文件作为 Azure 流分析的输入
问题描述
我提供了一个 5 MB 大小的 JSON 文件作为 Azure 流分析的输入,我收到以下错误。
“选定的文件‘文件名’必须在 1 到 2097152 字节之间”
选择的流单元数为 3。如何使流分析读取大型 Json 文件作为输入?
解决方案
我认为这是ASA作业测试的限制,您只能在2M以下的查询编辑器中上传json文件。
根据官方文档中的说法。
对于在云中存储大量非结构化数据的方案,Azure Blob 存储提供了一种经济高效且可扩展的解决方案。Blob 存储中的数据通常被认为是静态数据;但是,流分析可以将 blob 数据作为数据流进行处理。
我建议您将大型 json 文件存储到 blob 存储中,它将作为数据流处理。
推荐阅读
- screen - 如何在 Grav Learn2 上制作选项卡式代码屏幕
- python - 我如何在python中覆盖迭代的情节
- javascript - 如何在JS中对追加进行排序
- list - 按元组的第二个元素对元组列表进行排序,无需高阶函数或递归
- python - 如何在 python Telegram bot 的主要功能中获取 Telegram 用户的用户名?
- sip - 使用 ejabberd 进行 SIP 身份验证
- r - 如何在哑铃图中添加数据标签?
- mysql - SQL - 多 SELECT 和 GROUP BY 以获取表的 MIN(value)
- c - OpenSSL 中的时间范围是多少
- python - Pytorch 模型训练 CPU 内存泄漏问题