pandas - AI Platform Notebooks:MemoryError:无法为阵列分配 1.16 GiB - GCP 中有 100 个磁盘空间
问题描述
我正在尝试使用 100 GB 磁盘和 15GB RAM 虚拟机在 GCP AI Platform 中加载 1 GB Pandas Dataframe,但出现以下错误:
MemoryError: Unable to allocate 1.16 GiB for an array with shape (20, 7762852) and data type object
您知道为什么虚拟机是 100 GB 磁盘用于 15 GB RAM 时分配不执行吗?
df_event = pd.concat([pd.read_csv(os.getcwd() + '/data/lead_inscrit_train.csv.gz',
compression='gzip',
sep=';',
quotechar='"',
quoting=csv.QUOTE_ALL,
dtype=str,
parse_dates=["date"]
),
pd.read_csv(os.getcwd() + '/data/lead_inscrit_test.csv.gz',
compression='gzip',
sep=';',
quotechar='"',
quoting=csv.QUOTE_ALL,
dtype=str,
parse_dates=["date"]
)]
, axis=0)
解决方案
推荐阅读
- kubernetes - 如何在 GKE Ingress 和它转发到的服务之间使用 HTTPS?
- python-3.x - 如何在使用 opencv 捕获时检测坏帧并忽略它们?
- angular - 即使我们可以用服务做所有事情,为什么我们还需要 NgRX?
- java - 在 Java 中读取 Docx/Doc 文件
- python-3.x - 如何使用 telnetlib 在 telnet 中按箭头键
- javascript - 如何在 Firebase 身份验证中发现错误
- debugging - 从 EXE 项目调试 DLL?
- android - React Native Expo android 文件夹在哪里?
- google-apps-script - 使用具有相同工作表名称但工作表顺序不同的应用脚本将多个 Google 工作表文件附加到一个 Google 工作表中
- google-sheets - 谷歌表格 - 选择多列进行数据验证