tensorflow - bert_en_uncased_preprocess 是如何制作的?例如通过训练 NN 或手动编码?
问题描述
我是深度学习的新手,遇到过 BERT。我尝试small_bert/bert_en_uncased_L-4_H-512_A-8
了 TensorFlow 教程,结果非常惊人。我想更深入地挖掘并想知道对应的内容bert_en_uncased_preprocess
是如何制作的。
据我所知,它完成了所有 WordPiece 标记化工作,因此它应该涉及一些编码,而不仅仅是训练。提供https://tfhub.dev/tensorflow/bert_en_uncased_preprocess/3
SavedModel。有没有源代码或类似的东西?它是如何制作的?
它与使用无关。用法很好,很清楚。目的是学习。
提前致谢。
解决方案
推荐阅读
- r - R中性能回归的单元测试
- python - 删除另一个列表中的列表中的第二个值
- jquery - 调用敲除的 valueHasMutated 方法时触发 Select2 更改事件
- java - 在 onActivityResult() 中获取模糊图像以及如何在 onActivityResult() 中获取高质量的捕获图像
- javascript - Vue.JS 中回调错误位置的意外文字
- mongodb - 从提供 SIGSEGV 的通道中读取:分段违规
- jmeter - 如何使用 Jmeter 计算登录用户的数量?
- javascript - 更新 Redux 的 store 后,React.js 什么时候重新渲染组件?
- angular - BehaviourSubject 只发出一次值
- c# - C# MongoDB 和投影。因序列化异常而失败