tensorflow - Pytorch nn.Conv1d 输出的结果与 Tensorflow 2.1 tensorflow.keras.layers.Conv1D 不同
问题描述
我正在尝试将我在 PyTorch 中创建的 seq-to-seq 模型预先生成到 Tensorflow 2.1。Pytorch 模型完美运行,但在 tf 2.1 中实现的相同模型的输出非常糟糕。经过大量调试,我发现由于nn.Conv1d和tf.keras.layers.Conv1D的实现方式不同,可能会出现不好的结果。
在我的 Pytorch 模型中,我使用:
self.conv = nn.Conv1d(in_channels=ic, out_channels=oc, kernel_size=k, stride=1, padding=0, bias=False)
在我的 Tensorflow 模型中,我使用:
self.conv = tf.keras.layers.Conv1D(filters=filters, kernel_size=kernel_size, padding='same', use_bias=use_bias)
有谁知道我如何在 tf 中产生与我的 Pytorch 代码相同的结果?还有其他功能可以帮助我吗?有任何想法吗?
先感谢您!!
解决方案
推荐阅读
- c# - 尝试在 VC# 2017 中安装 emgu.CV.runtime.windows 时出现 Emgu 错误
- openssl - 私钥:将有效的 EC 密钥转换为等效的 RSA 密钥
- python - 遍历 Dataframe 列
- javascript - 我应该如何在我的“约瑟夫问题”代码中解决这个异步问题?
- python - 使用正则表达式查找包含“标签”的块
- javascript - React JS - 语义 UI 中搜索组件的值是对象引用,而不是值
- python - json对python变量的响应
- bash - How to get first and second part of a string in bash on last occurrence of a delimiter
- r - 从连续字符串格式的日期列中提取“年”、“月”和“日”
- reactjs - 函数是否不会根据调用方式更新 React 钩子(尤其是 useState)?