javascript - javascript - 进行数千次 $.getJSON 调用以避免 ERR_INSUFFICIENT_RESOURCE 的正确方法
问题描述
问题:
我正在从包含数千个.json
文件的网站上进行一些数据查找,现在我正在阅读那些 .json 并直接进行循环$.getJSON
调用。它在〜3000个文件中工作正常,但是当大小达到5000甚至20000(我必须阅读的最大数量)时。Chrome 浏览器变得超级慢或获取ERR_INSUFFICIENT_RESOURCE
.
我现在在做什么:
- 扫描数据
example.org/1.json
到20000.json
- 将这些
.json
内容读入arrayone[]
,处理捕获的数据数组 - 基于,
arrayone[]
我再做一个$.getJSON
example.org/someplace/1.json
20000.json
- 将这些
.json
内容读入arraytwo[]
- 比较
arrayone[]
&arraytwo[]
因此,鉴于我要读取 20000 个文件,实际上是 40000 个$.getJSON
调用。
寻求帮助:
有没有更聪明的方法来读取多个.json
性能更好的?希望清楚,提前谢谢!
解决方案
推荐阅读
- javascript - scrollIntoView 在 IOS 中不起作用 - javascript
- python - 如何在 Python 中合并多个具有不同表格列的 Excel 工作表?
- spring-webflux - Spring webflux过滤器:查询执行后如何获取reactor上下文?
- macos - 无法在 Spring 工具套件中添加 Pivotal Server
- linux - 链接多个 epoll 实例
- python - 如何在 Python 中计算加权邻接矩阵的拓扑重叠度量 [TOM]?
- java - Hw 在 JPA 查询中应用忽略大小写
- php - 如何在woocommerce商店页面中隐藏同名产品?
- javascript - webworker-theads 中的关闭
- vb.net - 如何进行随机图像比较