python - 是否有更快的方法来写入或读取大约 100 万行的 pandas 数据帧
问题描述
我正在努力具体说明我的问题。我有一个包含 200 多列和 100 万多行的数据框。如果我记录正确,我正在将它读取或写入一个 excel 文件,这需要超过 45 分钟。
df = pd.read_csv("data_file.csv", low_memory=False, header=0, delimiter = ',', na_values = ('', 'nan'))
df.to_excel('data_file.xlsx', header=0, index=False)
我的问题-无论如何我们可以使用 pandas 数据框更快地读取或写入文件,因为这只是一个文件示例。我还有很多这样的文件
解决方案
推荐阅读
- django - 我可以从 post 方法调用基于 django 类的视图中的 get 方法吗
- c++ - Qt 应用程序中具有共享资源的工作线程
- excel - 根据在另一个表中选择的过滤器过滤一个表
- vue.js - Nuxt.js / Vuex - 在 mapActions 帮助器中使用命名空间模块,[vuex] 未知操作类型:FETCH_LABEL
- firebase - Firebase Auth 检查与 Vue-router
- vba - ActiveX 组合框不会自动关闭
- java - Java 瞬态运行时改进?
- unit-testing - 在 Bamboo 中添加 Junit 测试
- javascript - 如何使用 jquery 向数据库提交值?
- html - 如何创建允许使用纯 HTML 和 CSS 切换主题的 HTML 文档?