bert-language-model - 寻找 max_embeddings 为 1024 而不是 512 的 LayoutLM 模型
问题描述
我目前正在尝试在项目中使用 LayoutLM 模型。但是,最大嵌入是 512。我正在尝试查看是否可以找到具有 1024 最大嵌入的预训练模型。有谁知道这样的模型,或者是否有解决方法?
谢谢
解决方案
训练这样的模型将非常耗时,但我们会考虑这一点。
推荐阅读
- maven - 如何在启动时将 maven 快照 jar 添加到 aws EMR spark 中?
- python - 在 Tkinter 按钮 Python 的回调函数中运行永久 TCP 服务器
- timeout - Julia 中的超时函数
- c# - C#中如何计算每单位Items的剩余数量?
- excel - 彭博报价回顾在特定时间的 Excel 中的最新出价
- python - sklearn 截断 SVD (LSA) 实施的局限性
- symfony - 从 ChoiceType 扩展的自定义类型 Enum。Symfony
- elasticsearch - 通过 logstash 配置读取和使用 elasticsearch 元数据
- python - 使用 session.add 或 session.execute 的 Flask-SQLAlchemy 事务回滚的不同行为
- .net - 在我的 .Net 应用程序中开始使用 SolrNet