deep-learning - 在评估期间标准化值
问题描述
我已经用归一化图像和掩码张量训练了一个 CNN,即 [0,1]。该模型在训练期间表现良好。在评估过程中,我发现即使没有对测试数据进行归一化,模型的性能也与归一化的测试数据相似。也就是说,即使在数据未标准化后,模型也能很好地测试模型。
我正在使用这个模型进行语义分割。
谁能解释这种奇怪的行为?
Ps 如果我不对训练数据进行归一化,模型在训练期间不会收敛到局部最小值。
解决方案
推荐阅读
- .net - QueryContainerDescriptor Elasticsearch - 获取所有描述不等于 String.Empty 的文档
- node.js - nodejs crypto.createhash('sha256') 为同一个 S3 对象产生不同的哈希
- python - 使用 Python 从 URL 中隐藏 api 密钥
- ruby-on-rails - Rails 6 应用程序有两个基本控制器:一个继承自 ActionController::Base 另一个 ActionController::API
- python - 无法在python,pygame中添加图像
- c# - 将字符串值转换为 md5
- python-3.x - 如何在python中将此列表转换为可读格式
- java - Intelij 导出到 jar -> jar 不起作用(javafx 错误)
- angular - 在 Angular 组件之间共享使用 HttpClient 检索到的数据
- python - 为什么文件读写功能在 Visual Studio Code 中不起作用?