bert-language-model - 如何为 BertMasked 语言模型提供合成输入嵌入
问题描述
我试图找到一种方法来平均目标词及其同义词的嵌入,以通过使用 BERT 模型找到目标词的语义和上下文接近的候选者。
我似乎无法找到一种方法来以某种方式合成嵌入并提供给 BERT 以获得“好的”候选释义。有人可以通过代码解释一种方式吗?
解决方案
推荐阅读
- c - 为什么 gcc 打印“分段错误:11”?
- javascript - 检测点击外部组件
- c# - 使用 Entity Framework 的简单请求的大量执行时间
- odoo - odoo.tools.convert.ParseError:“在系统中找不到外部 ID:account.report_invoice_with_payments
- java - Mockito - 预期 0 个匹配器,记录 2 个(InvalidUseOfMatchersException)
- elasticsearch - Elasticsearch 连接器作为 Flink 中的源
- html - 如何反转 ul -> li 内的两个元素位置
- javascript - 为什么我的双引号被接收为单引号?
- python - Python 字符串替换 - 将“\”替换为“/”
- android - Android 虚拟设备检测到错误的屏幕尺寸?