protocol-buffers - protobuf:将分隔消息序列化为编码流在 8192 字节后失败
问题描述
我正在尝试将使用此函数分隔的一系列消息写入google::protobuf::util
指向本地文件系统上文件的编码流。message.SerializeWithCachedSizes()
在成功将 8192 字节的分隔消息成功写入流后,调用似乎失败了。
我的用例几乎与这位询问有关如何将消息写入文件的问题的用户相同。
据我所知,协议缓冲区文档没有说明将数据写入超过 8192 字节的编码流的特殊处理,所以我认为这应该可以工作。这是预期的行为吗?其他人是否成功使用了此功能而没有问题?
我也尝试过使用 Ostream 和 ZeroCopyFileStream 以及相同的行为。
解决方案
推荐阅读
- c++ - 为什么此代码为相同的输入输出不同的结果?
- python - 如何在 python 中加入两个单词?
- kubernetes - 所有节点上的 Longhorn PVC 再分配卷
- flutter - 如何在颤动中导航到主屏幕
- node.js - 有没有办法使用 node.js 在 SMTP 服务器中创建电子邮件?
- excel - 用 vba 替换范围内的任何字母 [AZ]
- javascript - 使用托管服务中的 IHubContext 检查有效的 SignalR 连接
- python - 数组有项目数,然后在 python 中循环设置次数
- javascript - 反应酶反应路由器测试用例警告:React.createElement:类型无效
- javascript - 在数组中分组子数组