首页 > 解决方案 > TensorFlow 2 中 tf.contrib.seq2seq.prepare_attention 的等价性是什么

问题描述

我最近正在编写一些用 tensorflow 1.0.1 编写的代码,我想让它在 Tenorflow 2 上可用。我对 seq2seq 不是很熟悉。非常感谢。

(attention_keys,
attention_values,
attention_score_fn,
attention_construct_fn) = tf.contrib.seq2seq.prepare_attention(
    attention_states=attention_states,
    attention_option="bahdanau",
    num_units=self.decoder_hidden_units,
)

标签: pythontensorflowtensorflow2.0seq2seq

解决方案


根据这个Github 评论tf.contrib.seq2seq.prepare_attention()被重命名为tf.contrib.seq2seq.DynamicAttentionWrapper.

根据这个Github Tensorflow CommitDynamicAttentionWrapper已重命名为AttentionWrapper.

因此,在 1.15 中,等效于的函数tf.contrib.seq2seq.prepare_attention()tf.contrib.seq2seq.AttentionWrapper

等效tf.contrib.seq2seq.AttentionWrapperTensorFlow 2.x中的函数是tfa.seq2seq.AttentionWrapper.

请查找此TensorFlow 文档以获取更多信息。


推荐阅读