performance - 是否可以 memcpy 连续的 HDF5 数据集?
问题描述
我希望将几个 HDF5 文件聚合为一个:此操作有时需要将所有“源”数据集并排复制到生成的一个中。
有没有办法以 memcpy 风格做到这一点?H5Dwrite和H5Dread函数需要使用临时缓冲区,因此需要额外的分配/复制/释放。
我知道 HDF5 规范允许将数据集物理存储在块中。但这里不是这种情况。
解决方案
推荐阅读
- java - 添加 Spring 布局时,GUI 不会显示标签和文本字段
- reactjs - React/Redux 订阅 redux store 发出的最新状态值
- php - PUT 方法抛出 BadMethodCallException
- typescript - Firebase Cloud Functions with Typescript,如何转换复杂的界面
- c - 为TFT绘图计算固定点中元素的位置
- apache-spark - spark 是否优化了广播变量的网络流量?
- html - 如何使用本地服务器在本地显示图像以做出反应?
- ruby-on-rails - 使用 gem axlsx Ruby on Rails 通过 AJAX 导出数据不起作用
- wordpress - WordPress:带有标题的响应式特色图片
- mariadb - MariaDB 仅在我选择所有字段时才显示数据