azure - 将数据插入 cosmosdb 时,有没有办法增加请求大小限制?
问题描述
我需要从 ADLS(Azure 数据湖存储)读取多个文件(105 个文件);解析它们,然后将解析后的数据直接添加到 azure cosmos db for mongodb api 中的多个集合中。所有这些都需要在一个请求中完成。平均文件大小为 120kb。问题是添加多个文档后,出现错误“请求大小限制太大”如果有人对此有任何意见,请告诉我。
解决方案
目前尚不清楚您是如何执行多文档插入的,但是......您无法增加最大请求大小。您需要执行单独的插入,或以较小的批量插入。
推荐阅读
- javascript - 如何使用js让a-tag消失?
- docker - GOMAXPROCS 如何在不同平台和容器内部确定?
- rabbitmq - 一个 SCDF 源,2 个处理器,但每个项目只有 1 个进程
- django - 姜戈。楷模。在它的方法中创建同一个类的另一个实例
- javascript - Puppeteer 错误找不到选择器的节点
- c - 使用位运算符时出现分段错误
- html - 为什么这些包含图像的无序列表项不显示在水平行中?
- jquery - 附加到链接并使用 jquery 添加 css 类
- java - 运行spring服务器时出现JRebel-JVMTI错误
- jenkins - Jenkins Job DSL 动态并行步骤