python - Keras 是否可以将张量直接加载到 VRAM 并跳过 RAM?
问题描述
假设我有一台 RAM 很少的机器,但它有一个强大的 GPU,是否可以绕过 RAM 并将.npy
文件直接加载到 GPU 中?
例如,
model.fit(x=None, y=None)
如果我X
的太大而无法放入内存怎么办?有没有一种机制可以让我在文件系统中逐段加载它,因为它迭代批次,或者只是将整个张量传递给 GPU?我认为我的第一个选项可以通过使用生成器从批量 .npy 文件中训练 Keras 模型来回答?
解决方案
从技术上讲,这是可以做到的。CreateFileMapping 将允许将数据直接从磁盘传输到 gpu。但是,我不相信 tensorflow 会支持这样的事情。
推荐阅读
- macos - OSX 升级 => 酿造更新
- node.js - 将我的请求结果连接到启动 amazon lex 的问题
- python - Keras - 如何正确使用 fit() 来训练模型?
- python - 如何在 azure devops 管道上进行 python 覆盖测试时引发错误?
- c# - 在一秒钟内将复杂的 SQL 结果转换为 C#
- android - 如何获取 Appium Android 驱动程序?
- excel - 计算机因简单代码而窒息。我错过了什么?
- purescript - 如何在 Purescript 测试中跟踪失败的断言
- c# - SQL Server:删除具有多个条件的多行
- scala - 如何在具有数组类型列的值中添加索引