python - 在 Python 脚本上导入海量数据
问题描述
我正在尝试每天将 txt 文件作为熊猫导入。但是我遇到了问题,因为它有数百万个数据,所以加载需要很长时间。我只需要 2021 年 7 月以后的数据,但我有 2018 年以来的数据。任何人都可以帮助我如何用我需要的数据更快地加载它?
# load data that takes forever since it reads the millions of rows
basepath = r'\\SERVER\folder\file.TXT'
df = pd.read_csv(basepath, sep=';', error_bad_lines=False, header=None)
df.head()
我不太确定块选项,如果它会得到我需要的正确数量,因为每天都会添加数据。
解决方案
推荐阅读
- mysql - 如何在mysql中的两个日期之间获取几个月的持续时间?
- python - 调用函数时如何丢弃多余的参数?
- ios - 是否可以从最近删除的照片中恢复?
- python - 为什么我在 BeautifulSoup 文档中找不到任何关于 .text 或 content 方法的内容?
- python - Python:如何用直线替换圆内的曲线点?
- docker - NGINX 反向代理配置结构
- node.js - 如何将子接口传递给父类?
- angular - 离子生产构建模块构建失败 webpack
- python - 将变量从 STT 传递到 url 在 Python 中被分开
- xampp - XAMP 中的 MYSQL 服务器不运行