首页 > 解决方案 > 如何合并两个 Word2Vec 文件

问题描述

我使用 Word2Vec 创建了我的模型。但结果并不好。所以我想补充一句。我第一次创建的代码Creation是可以的,但是不能添加。请告诉我如何添加。

创建模型.py

token = loadCsv("test_data")
embeddingmodel = []
for i in range(len(token)):
temp_embeddingmodel = []
for k in range(len(token[i][0])):
    temp_embeddingmodel.append(token[i][0][k])
embeddingmodel.append(temp_embeddingmodel)

embedding = Word2Vec(embeddingmodel, size=300, window=5, min_count=3, iter=100, sg=1,workers=4, max_vocab_size = 360000000)
embedding.save('post.embedding')

加载Word2Vec.py

tokens = W2V.tokenize(sentence)
embedding = Convert2Vec('Data/post.embedding', tokens)
zero_pad = W2V.Zero_padding(embedding, Batch_size, Maxseq_length, Vector_size)

告诉我如何添加或合并 Word2Vec 的结果

标签: pythontensorflowword2vec

解决方案


没有简单的方法可以合并两个Word2Vec模型。

只有一起训练的词向量“在同一个空间”,因此具有可比性。

最好的策略是结合两个训练文本语料库,并在组合数据上训练一个新模型,从而从同一训练会话中获得所有单词的词向量。


推荐阅读