首页 > 解决方案 > 使用 tensorflow 的多语言通用句子编码器的问题

问题描述

我正在尝试下载今年 7 月刚刚发布的谷歌新的预训练多语言通用句子编码器。我已经使用 Colab 在他们的网站上进行了测试并且效果很好,但是当我尝试在本地进行测试时,它会在尝试下载它时永远挂起(从tf 的网站复制的代码):

import tensorflow as tf
import tensorflow_hub as hub
import numpy as np
import tf_sentencepiece

# Some texts of different lengths.
english_sentences = ["dog", "Puppies are nice.", "I enjoy taking long walks along the beach with my dog."]
italian_sentences = ["cane", "I cuccioli sono carini.", "Mi piace fare lunghe passeggiate lungo la spiaggia con il mio cane."]
japanese_sentences = ["犬", "子犬はいいです", "私は犬と一緒にビーチを散歩するのが好きです"]

#hangs here:
embed = hub.Module("https://tfhub.dev/google/universal-sentence-encoder-multilingual/1")

我已经安装了所有依赖项和软件包。其他更简单的模型(例如英语句子编码器)仅适用于这个新模型。有任何想法吗?谢谢你们!

标签: pythontensorflownlp

解决方案


为任何感兴趣的人找到并解决了问题。这似乎是 tensorflow 1.14 和 tf-sentencepiece 0.1.82.1 之间的兼容性问题。要解决它,只需将 tensorflow 1.14 降级到 1.13.1,如此处所述对我有用。


推荐阅读