tensorflow - 如何用注意力屏蔽 Tensorflow Encoder-Decoder RNN 中的零填充值?
问题描述
在官方的 Tensorflow 神经机器翻译示例(https://www.tensorflow.org/alpha/tutorials/text/nmt_with_attention)中,在 Encoder 模型中,定义了一个 GRU 层。
但是,由于没有应用掩码,GRU 将正常处理零填充值。而在解码器中我认为情况更糟,因为填充值上的注意力将在上下文向量的最终计算中发挥重要作用。我认为在下面损失函数的定义中,零被屏蔽了,但此时为时已晚,编码器和注意力解码器的输出都会“损坏”。
我在整个过程中遗漏了什么吗?实现这一点的正常方法不应该是屏蔽填充值吗?
解决方案
推荐阅读
- php - 为什么我的字符串变量被识别为空?
- react-native - React-native-file-viewer:无法在文件查看器上方添加视图
- python - 未使用 Try 和 except 捕获特定错误
- react-native - 交互式推送通知不适用于 iOS - Expo
- c++ - static_assert 导致程序无法编译,即使断言位于函数模板的标头中
- python - Python 错误 - 'str' 对象没有属性 '_geom'
- javascript - 如何从我在网上找到的模板中在 Rails 6 中包含多个 js 文件?
- javascript - Dinero Multiply() 不是 cart.totalPrice 中的函数错误
- javascript - x 轴上日期的滑块实现在 Highcharts 中无法正常工作
- angular-material - 将 Angular 材料升级到 v9 时出错:无法将类型实体 ɵngcc3.MatCardModule 解析为符号中的错误