首页 > 解决方案 > 处理大数据(xls、csv、google sheet)并将其存储在数据库中

问题描述

有以下业务逻辑。

用户上传文件(xls、csv、google sheet)。文件可以是大约80K 行

根据每一行的数据,在数据库中创建记录 ( PostgreSQL)。每条记录都在ElasticSearch.

这需要相当长的时间。因此,我进行数据处理,将celery.

还有什么方法可以加快数据处理,在数据库中创建记录?Multiprocesses? Threads? Celery chunks?

标签: pythonmultithreadingflaskmultiprocessingcelery

解决方案


推荐阅读