nlp - Bert 针对语义相似性进行了微调
问题描述
我想应用微调 Bert 来计算句子之间的语义相似度。我搜索了很多网站,但我几乎没有在下游找到这个。
我刚刚找到STS benchmark。我想知道我是否可以使用 STS 基准数据集来训练微调 bert 模型,并将其应用于我的任务。合理吗?
据我所知,计算相似度的方法有很多,包括余弦相似度、皮尔逊相关度、曼哈顿距离等。语义相似度如何选择?
解决方案
此外,如果您要进行二元判断(“语义相似”是/否),BERT 实际上是使用 MRPC(Microsoft Research Paraphrase Corpus)在此任务上进行基准测试的。google github存储库https://github.com/google-research/bert包含一些对此的示例调用,请参阅句子(和句子对)分类任务部分中的 --task_name=MRPC。
推荐阅读
- karate - 如何从 Java 程序而不是 gradle gatlingRun 执行空手道加特林模拟
- javascript - 将猴子帖子篡改到另一个 api
- git - git rebase --preserve-merges 合并冲突
- ios - 如何拥有一个具有两个集合视图的视图控制器,但只有一个具有页眉/页脚视图?
- javascript - 无法控制台记录更新的状态数组
- django - 在 Django 中,我的视图中没有 URL 参数
- ansible - 未能创建网络 (EOS/IOS) 剧本以验证 STIG 要求
- python - 熊猫绘制国家总数和新科尔
- spring - Spring MVC 重定向与 Spring Cloud Eureka
- python - Scrapy:在重定向之前获取 URL 的特定部分