python - Pytorch 模型:不同机器上的推理结果截然不同?
问题描述
0.93
我在 Pytorch 中训练了一个分割模型,并在我的本地计算机(Windows、conda、CUDA 10.2、Pytorch 1.2)上对其进行了测试以给出 F1 分数。0.3
但是,在 Linux 服务器(conda、CUDA 9.0、Pytorch 1.1)上进行测试时,F1 分数下降了。我仔细检查了两组代码、标签文件、测试集是否相同,并且我的代码中没有“显式”随机抽样(即使是这样,效果也不应该那么剧烈)。
我尝试了以下方法来解决我的问题:
我怀疑它可能与 Pytorch 版本有关,所以在我的 Windows 机器上安装了 Pytorch 1.1 以匹配服务器,但得到了相同的0.93
分数。然后我认为它与CUDA本身有关,因此完全消除了GPU因素并在服务器上对cpu进行了推理,我仍然0.3
在服务器上。
什么可能导致这种巨大的差异?
解决方案
推荐阅读
- c - 子进程是否应该比父进程执行得慢?
- php - 显示此站点的 localhost 项目是欺骗性警告
- flutter - Flutter Undraw Widget - 更新后的PictureStream错误
- swift - 如何将单独 Swift 包中的 C 标头包含到另一个 Swift 包的 C 部分中
- react-native - 如何使用 React native 找到解决方案
- ios - ScrollToTtem 不流畅
- geolocation - 为什么通过 IP 地址打开 Prestashop 的地理定位在 PageSpeed Insight 上给我一个 503 错误?
- python - 读取文件和分隔符(python)
- firebase - 如何将 Firebase/Firestore 添加到 NRWL monorepo 内的现有 NestJS 应用程序中?
- r - 在第一个 NA 出现后删除列表列表中的所有列表位置 (R)