python - Keras tokenizer.fit_on_texts 在做什么?
问题描述
如何使用 Keras Tokenizer 方法fit_on_texts
?
它与 有何不同fit_on_sequences
?
解决方案
fit_on_texts
与 结合使用texts_to_matrix
会产生文本的单热编码,请参阅https://www.tensorflow.org/text/guide/word_embeddings
fit_on_texts
使用示例fit_on_texts
from keras.preprocessing.text import Tokenizer
text='check check fail'
tokenizer = Tokenizer()
tokenizer.fit_on_texts([text])
tokenizer.word_index
会产生{'check': 1, 'fail': 2}
请注意,我们将[text]
其用作参数,因为输入必须是一个列表,其中列表的每个元素都被视为一个标记。输入也可以是文本生成器或字符串列表。
将文本生成器作为输入传递是节省内存的,这里是一个示例:(1)定义一个文本生成器,返回一个可迭代的文本集合
def text_generator(texts_generator):
for texts in texts_generator:
for text in texts:
yield text
(2) 将其作为输入传递给fit_on_texts
tokenizer.fit_on_text(text_generator)
fit_on_texts
在调用之前使用,texts_to_matrix
它为原始文本集生成单热编码。
num_words 参数
将参数传递num_words
给标记器将指定我们在表示中考虑的(最常见的)单词的数量。举个例子,首先num_words = 1
,我们只对最常见的词进行编码,love
sentences = [
'i love my dog',
'I, love my cat',
'You love my dog!'
]
tokenizer = Tokenizer(num_words = 1+1)
tokenizer.fit_on_texts(sentences)
tokenizer.texts_to_sequences(sentences) # [[1], [1], [1]]
其次,num_words = 100
我们对 100 个最常见的词进行编码
tokenizer = Tokenizer(num_words = 100+1)
tokenizer.fit_on_texts(sentences)
tokenizer.texts_to_sequences(sentences) # [[3, 1, 2, 4], [3, 1, 2, 5], [6, 1, 2, 4]]
fit_on_sequences
Fit_on_sequences
适用于“序列”,即整数词索引列表。在调用之前使用sequence_to_matrix
from tensorflow.keras.preprocessing.text import Tokenizer
test_seq = [[1,2,3,4,5,6]]
tok = Tokenizer(num_words=10)
tok.fit_on_sequences(test_seq)
tok.sequences_to_matrix(test_seq)
生产
array([[0., 1., 1., 1., 1., 1., 1., 0., 0., 0.]])
推荐阅读
- python - 在 Raspberry 中为 python3 安装包
- c++ - this 运算符和构造函数赋值
- sap - 链接设备 (EQUI) 到文档信息表 (DRAW)
- ruby-on-rails - CarrierWave 未上传到 EC2 服务器
- algorithm - 获取电子表格上矩形区域的 A1Notation
- python - 比较分子列表的相似性
- tensorflow - 无法在 Ubuntu 16.04LTS 上通过 bazel 构建 tensorflow 1.4
- python - 如何在 Python 中跨两个不同进程共享数据
- javascript - 嵌套范围内的 JavaScript 变量在范围外不会出错
- php - 如何在会话消息中显示可验证的值?