python - 如何使所有批次共享一层(批次大小为1)?
问题描述
我想制作训练字体的编码器-解码器模型。
# Encoder
(batch x 1 x 128 x 128) -> (batch x 512 x 1 x 1)
# Concatenate embedding layers
(batch x 512 x 1 x 1) + (batch x 128 x 1 x 1) # which is embedding layer
# Decoder
(batch x 640 x 1 x 1) -> (batch x 1 x 128 x 128)
通常,编码器-解码器模型训练计算机输入的单词,但我想让模型可以制作具有多种字体的各种单词。因此,我添加了呈现字体种类的嵌入层。(和word2vec一样,可能是font2vec?)
但是,该嵌入层是 128 维的,所有批次都应立即共享和更新。它可以使用 batch_size 为 1 进行训练,但我想使用大的 batch_size。如何使用一个 (128 x 1 x 1) 嵌入层将它们的权重共享给所有批次?
(框架是 pytorch 或 keras 或 tensorflow 之一)
解决方案
推荐阅读
- c++ - 这是存储浮点数的二维动态数组的正确初始化吗?
- sql - 拆分日期范围中的总 datediff 天数不等于非拆分日期范围中的 datediff 天数,为什么?
- c# - 如何修复播放模式后检查器中缺少的音频按钮?
- google-bigquery - BigQuery 中的 Firebase 数据,什么是“stream_id”?
- c# - 使用 C#/C++ 包装器寻找可能的内存泄漏
- python - 在python中预测正弦波
- javascript - Mongoose findOne 将文档作为错误返回?
- javascript - Javascript循环未运行或未结束
- .net - 为给定的编码转换整数 -> 字符
- javascript - 在会话存储中保持多个复选框状态