stanford-nlp - ELMo、BERT 和 GloVe 之间的比较
问题描述
ELMo、BERT、GloVe在单词表示上有什么区别?他们在执行词嵌入任务方面有何不同?与其他人相比,哪个更好,每个人都有哪些优点和缺点?
解决方案
这是一个很大的问题。
我将专注于文字表示。
ELMo、BERT 和 GloVe可以分为两大类。GloVe是非上下文词嵌入,ElMo、BERT属于上下文词嵌入。
第二组可分为单向模型(ELMo)和双向模型(BERT)。
首先,我们可以尝试理解 4 个术语:非上下文/上下文词嵌入和单向/双向模型。
之后,我们可以更深入地了解其他差异。
推荐阅读
- c# - 给定代码中员工 emp 的需求是什么?
- python - div Web Scrape on site output 返回无
- javascript - 第一次调用 ReactContext 将 isLoading 状态设置为 false
- python - Pandas:通过删除多索引数据框中的 NaN 将多行折叠成一行
- sql - 如何在 DB2 concat 函数中使用名为关键字的列
- python - 避免将 pytest 参数作为命令行参数传递
- reactjs - 在子目录上部署 Reactjs 后路由不起作用
- solr - Solr - 根据匹配数提升多值字段
- c++ - 在使用 AWS SDK for C++ 创建 S3 客户端时获取“调试断言”
- javascript - 静态内容网络上的 ReactJS