tensorflow - 为什么将 reduce_mean 应用于 sparse_softmax_cross_entropy_with_logits 的输出?
问题描述
有几个教程适用reduce_mean
于sparse_softmax_cross_entropy_with_logits
. 例如
cross_entropy = -tf.reduce_sum(y_ * tf.log(y_conv))
或者
cross_entropy = tf.reduce_mean(tf.nn.sparse_softmax_cross_entropy_with_logits(
labels=tf.cast(y_, dtype=tf.int32), logits=y_conv))
为什么reduce_mean
应用于 的输出sparse_softmax_cross_entropy_with_logits
?是因为我们使用的是小批量,所以我们想计算(使用reduce_mean
)小批量所有样本的平均损失吗?
解决方案
原因是要获得批次的平均损失。
通常,您将训练一个输入批次大小 > 1 的神经网络,批次中的每个元素都会产生一个损失值,因此将它们合并为一个值的最简单方法是平均。
推荐阅读
- matlab - 为什么matlab的mldivide比dgels好那么多?
- python - Python3 日志记录
- java - 在JAVA中的控制器之间发送数据?
- ios - 为什么 Yp Cb Cr 图像缓冲区在 iOS 13 中全部洗牌?
- c# - 如何通过 C# windows 应用程序发送数据并使用 TCP/IP 协议从 android 客户端接收数据
- twitter-bootstrap - Bootstrap 轮播幻灯片跳跃
- vb.net - 在不覆盖第一个输入数据的情况下将用户输入数据添加到 word doc 时遇到问题
- office365connectors - 连接器在审查中停留了 7 个月没有回复
- javascript - 生成客户端即用型 Javascript 代码的命令数量最少?
- sql - 如何在结果末尾显示平均值