python-3.x - 如何在 Keras Embedding 层中使用 BERT 预训练模型
问题描述
如何bert-base-uncased
在 Keras 的嵌入层中使用预训练的 BERT 模型作为权重?
目前,我正在使用 BERT 模型生成词嵌入,这需要很多时间。我正在分配这些权重,如下所示
model.add(Embedding(307200, 1536, input_length=1536, weights=[embeddings]))
我在互联网上搜索,但方法是在 PyTorch 中给出的。我需要在 Keras 中完成。请帮忙。
解决方案
推荐阅读
- python - 在 tkinter 中使用 replace() 将文本输入从空格更改为 -
- jsf - 为什么即使调用了方法,Faces Message 也没有出现在某些页面上?
- vuejs2 - IE11、vuejs 2 中的 v-model 绑定
- haskell - 如何在 Haskell 中处理大量仿函数?
- symfony - 2nd Guard Authenticator 覆盖 Authentication
- javascript - SVG路径上的多个动画
- r - write.table 中的错误
- css - CSS:悬停时关键帧动画消失
- amazon-web-services - 在 Docker 容器中的 AWS EC2 上运行时,Apache Ignite 不正确的节点发现
- c# - 从 C# 上传 zip 文件到 S3