首页 > 解决方案 > 深度学习中大数据框的 MemoryError

问题描述

前言

大家好,

我正在尝试使用StellarGraph包制作几何深度学习模型。对于较小的数据集,它工作得很好,但不幸的是它不能扩展到更大的数据集。有关机器、环境、使用的数据和由此产生的错误的信息如下所示。

机器规格:

环境:

使用的数据(从 获取的大小sys.getsizeof()):

模块:

问题描述

我的目标是创建一种几何深度学习,以根据从静息状态功能 MRI 获得的邻接矩阵对主题进行分类。邻接矩阵假设有 55 个感兴趣区域,从而为所有主题生成 55x55 个矩阵。在构建深度学习模型时,我使用了来自 的谱图卷积网络模型StellarGraph,它以图对象和节点特征作为其输入。我从通过组合来自所有主题的邻接矩阵获得的稀疏块对角矩阵创建了图形对象。而节点特征是每个节点的特征(1个节点有5个特征值),构造成密集块对角矩阵。

以前,我使用人口样本的一个子集(大约 170 个)制作模型。它运行得很好,我认为我可以使用更大的数据集来做同样的事情。不幸的是,使用我MemoryError在注册StellarGraph对象时得到的相同代码。下一节介绍的代码和错误。

代码和错误

# Data parsing with scipy.io as sio and pandas as pd
data = sio.mmread('_data/sparse.mtx')
feature = sio.mmread('_data/sparse-feature.mtx')
feature = pd.DataFrame.sparse.from_spmatrix(feature)

# Create graph object using networkx as nx
g = nx.from_scipy_sparse_matrix(data)

# Create StellarGraph object and its generator
gs = StellarGraph(g, node_features=feature) # MemoryError
generator = FullBatchNodeGenerator(gs)

很抱歉由于保密原因没有提供sparse.mtxsparse-feature.mtx归档,但我希望前面关于数据形状和大小的描述可以帮助您理解它的构造。使用上面的代码,python给了我以下错误:

>>> gs = StellarGraph(g, node_features=feature) # MemoryError
Traceback (most recent call last):
  File "<stdin>", line 1, in <module>
  File "/home/lam/.local/lib/python3.6/site-packages/stellargraph/core/graph.py", line 786, in __init__
    super().__init__(incoming_graph_data, **attr)
  File "/home/lam/.local/lib/python3.6/site-packages/stellargraph/core/graph.py", line 381, in __init__
    node_features, type_for_node, node_types, dtype
  File "/home/lam/.local/lib/python3.6/site-packages/stellargraph/core/graph.py", line 216, in _convert_from_node_data
    {node_type: data}, node_type_map, node_types, dtype
  File "/home/lam/.local/lib/python3.6/site-packages/stellargraph/core/graph.py", line 182, in _convert_from_node_data
    data_arr = arr.values.astype(dtype)
  File "/home/lam/.local/lib/python3.6/site-packages/pandas/core/generic.py", line 5443, in values
    return self._data.as_array(transpose=self._AXIS_REVERSED)
  File "/home/lam/.local/lib/python3.6/site-packages/pandas/core/internals/managers.py", line 822, in as_array
    arr = mgr._interleave()
  File "/home/lam/.local/lib/python3.6/site-packages/pandas/core/internals/managers.py", line 840, in _interleave
    result = np.empty(self.shape, dtype=dtype)
MemoryError

在监控内存消耗时,我观察到 RAM 只使用了其总容量的 55%,并且根本没有使用交换空间。在运行代码时,我只使用了 TTY +tmux和 only vimtop并且python会话正在运行。此外,我还确保没有其他占用内存的进程在后台运行。所以我确定内存瓶颈很可能是由python.

我试过的

为了利用内存消耗,我尝试dask在管理密集feature数据帧时使用。不幸的是,StellarGraph函数只能将 pandas 数组、pandas 数据框、字典、元组或其他可迭代对象作为其输入。

除此之外dask,我还尝试使用稀疏矩阵(因为我的数据集几乎 80% 都是零值的)。但是,它给了我,TypeError因为StellarGraph它不能将稀疏矩阵作为node_features.

我还阅读了几种管理大型数据集的解决方案,这些解决方案(主要)建议将数据迭代解析到 python 会话中。StellarGraph但是,我在这种方法中找不到任何文档。

另一种选择是使用硬件更好的计算机,但遗憾的是,由于资金有限,我无法做到这一点。我是学生,现在买不起更好的机器。

潜在的解决方案

问题

  1. 为什么python在没有动态交换分配的情况下只使用我总 RAM 的 55%?
  2. 我应该如何有效地管理大数据框?
  3. MemoryError创建StellarGraph对象时如何处理?
  4. 我实际需要多少内存?32GB就够了吗?

标签: python-3.xdataframedeep-learningbigdatagraph-theory

解决方案


Python 工作正常。这是由 StellarGraph 引起的实现问题。

我认为 StellarGraph 到目前为止不支持巨大的矩阵。

File "/home/lam/.local/lib/python3.6/site-packages/stellargraph/core/graph.py", line 182, in _convert_from_node_data
data_arr = arr.values.astype(dtype)

从代码开始到这里,所有数据都存储为稀疏数组,不会占用太多内存。在这里,arr 应该是一个 DataFrame,其列为 pandas.SparseArray。这行代码将数据结构转换为普通的 numpy 数组,这会导致内存使用崩溃。

import numpy as np
a = np.empty((158950,14450),float)
print(a.nbytes/2**30)
17.112698405981064

这里一个空的 numpy 数组实际上需要 17 G 内存。我可以在我的 16 G 计算机上初始化 3 个数组。然后,如果我尝试获得超过 3 个,则会出现内存错误。而且我无法初始化 158,950 x 158,950 numpy 数组。


推荐阅读