首页 > 解决方案 > 在 Transformer 模型的解码器中应用 GloVe、fasttext 等预训练词嵌入是否会提高性能?

问题描述

我正在尝试用一些预训练的词嵌入(例如 GloVe、fasttext、...

我只是想知道这真的可以帮助模型吗?

我之前尝试在解码器中使用上下文词嵌入(BERT)。结果非常荒谬。波束搜索的所有输出为: </eos><eos><eos><eos><eos><eos>

标签: deep-learningnlpstanford-nlpword-embeddingtransformer

解决方案


推荐阅读