python - 使用熊猫数据框耗尽内存
问题描述
我的代码如下所示:
import pandas as pd
import os
import glob
import numpy as np
# Reading files and getting Dataframes
PathCurrentPeriod = '/home/sergio/Documents/Energyfiles'
allFiles = glob.glob(PathCurrentPeriod + "/*.csv")
frame = pd.DataFrame()
list_ = []
for file_ in allFiles:
df = pd.read_csv(file_)
list_.append(df)
frame = pd.concat(list_, axis='rows')
但是,文件大约有 300 个。我想当我在 VSCode 上运行它时,我会从终端得到一个“被杀死”的响应,因为尝试将这 300 个文件存储在“框架”上可能会导致我运行它的虚拟机去RAM 内存不足。
有解决办法吗?是否可以将硬盘驱动器用作处理内存或RAM?
问题不在于每个 .csv 的大小本身,所以我可以按块读取它们......问题是我附加了太多。
解决方案
推荐阅读
- c# - WPF - 以毫米为单位的鼠标坐标
- python - 使用 Pyodbc 在 MS Access 表中写入新行的问题
- cherrypy - CherryPy 在我播放 HTML 视频元素后自杀
- .net-core - SPFX(团队),代表后端的图形 API
- java - 序列化,编译时检查与运行时检查
- jquery - 光滑的滑块在断点后打破自动播放顺序中断
- java - 如何在java中比较同一个arraylist中的2个集合值
- raspberry-pi - RASPi 4B:如何从 OpenOCD/JTag 加载和运行 kernel8.img?
- python - 如果第一行为 0,则从 DataFrame 中选择列
- java - 我收到以下错误“不再支持源选项 5。使用 7 或更高版本”