deep-learning - 我可以在更差的 GPU 上运行预训练模型吗?
问题描述
我很抱歉,因为我的问题可能听起来很愚蠢。但我在深度学习方面还很陌生。
所以基本上我使用了一台带有 TITAN X GPU 的计算机,我创建了我的数据集,然后我在 TITAN X 上对其进行了训练。
我的问题是,如果我要保存这个经过训练的模型,然后将模型加载到我的第二台计算机(它的 GPU 比我的 TITAN X 更差)上,然后在新计算机上测试模型——它会成功吗?或者我使用更差的 GPU 的事实可能会影响它?
解决方案
首先,它会运行得更慢。您的模型还需要完全适应旧 GPU 的内存,否则运行它会出现问题。但是,如果它运行,那么如果您使用的是现代框架,它应该可以正确执行。
推荐阅读
- azure - TLS1.2 上的 Azure 应用服务到应用服务通信失败
- typescript - i18next:在 TypeScript 中映射对象数组
- javascript - 我的 Discord 机器人多次响应一个命令,我想知道是否有办法只发送一次
- node.js - 套接字 io 在套接字连接时创建房间
- acumatica - Acumatica 中的可搜索用户定义字段
- command-line - 如何从任何文件夹运行 Windows 命令?
- sql - isdate 查询(ssrs 更新到 2017)
- python - 单击复选按钮时如何创建或移动 Tkinter 小部件,但小部件必须根据所单击的内容位于两个不同的位置?
- c++ - 将已安装、构建的库从外部 cmake 项目暴露给父级
- python - 我如何使用不和谐机器人从 Python 中的用户那里获取参数