deep-learning - BertTokenizer 和词嵌入类似吗?
问题描述
从 huggingface 使用 BertTokenizer 的想法真的让我很困惑。
当我使用
tokenizer = BertTokenizer.from_pretrained("bert-base-uncased") tokenizer.encode_plus("Hello")
结果是否有点类似于我将表示“Hello”的单热向量传递给学习嵌入矩阵时的结果?
怎么
BertTokenizer.from_pretrained("bert-base-uncased")
不同于
BertTokenizer.from_pretrained("bert-**large**-uncased")
和其他预训练?
解决方案
encode_plus
和函数标记您的encode
文本并以正确的 BERT 模型输入格式准备它们。因此,您可以看到它们类似于您提供的示例中的 one-hot 向量。返回由、和组成
的encode_plus
BatchEncoding 。input_ids
token_type_ids
attention_mask
预训练模型因编码器层数而异。基础模型有 12 个编码器,大型模型有 24 层编码器。
推荐阅读
- mysql - MYSQL错误代码:1805密码不会更新
- reactjs - 如何在其他组件的属性中调用组件?
- python - 服务器抛出“是一个目录”错误,但我希望它是一个目录
- laravel - Laravel Query Builder 按关系字段排序
- sql - 将列添加到查询而不将其插入到 GROUP BY 子句
- google-app-engine - 在 GCP 上部署 SSR Web 应用程序的正确方法是什么?
- bootstrap-4 - 水平和垂直对齐的 Flex 问题
- neural-network - torchvision.datasets.MNIST 和 Michael Nielsens 神经网络和深度学习之间的不一致/不准确
- java - 如何使用 Spring Security 实现具有两级令牌认证的 Spring Boot 微服务?
- powershell - 如何在 Powershell 中运行带有一些 utf8 参数的命令