python - h5py 分块结构化结构化 numpy 数组
问题描述
我从传感器获取数据并使用 h5py 将其存储在 HDF5 文件中。sensordata 以字节对象的形式出现,我使用 numpy 将其转换为结构化数组。然后我将结构化数组写入 HDF5 文件。这一切都按预期工作。
现在我想从 HDF5 文件中读回数据,我只对其中的某些部分感兴趣。例如,如果我只想阅读一列。问题是直接将结构化的 numpy 数组写入 HDF5 文件会将所有数据作为单个块写入,例如形状为 (10,)。默认块大小设置为 (256,)。这意味着我为每个块读取了 256 行和所有数据列。但是,当列数增加时,这会变得非常慢。
有没有办法修改数据或更改分块参数,以便我可以读取单列数据而不是每个块中的整个块?
我正在使用的一个最小示例如下所示:
import h5py
import ctypes
import numpy as np
class SensorStruct(ctypes.Structure):
_pack_ = 4
_fields_ = [('tc_time',ctypes.c_int64),
('pc_time',ctypes.c_double),
('nSample', ctypes.c_ushort),
('fMean', ctypes.c_float),
('fLowerbound', ctypes.c_float),
('fUpperbound', ctypes.c_float)]
def CreateFile(filename):
#Create a new HDF5 file
with h5py.File(filename, 'w', libver='latest') as f:
f.swmr_mode = True
def AddDataset(filename, dsetname, struct):
#Add a dataset to an existing HDF5 file
with h5py.File(filename, 'r+', libver='latest', swmr=True) as f:
f.create_dataset(dsetname,
dtype = struct,
shape = (0,), #Shape will update each time data is added
maxshape = (60480000,),
chunks = True, #Need to modify this somehow
compression = 'gzip')
def WriteData(filename, data):
#Append an existing dataset with new data
with h5py.File(filename, 'r+', libver='latest', swmr=True) as f:
dset = f[dsetname]
length = dset.shape[0]
maxlength = dset.maxshape[0]
newlength = length + len(data)
if newlength < maxlength:
dset.resize((newlength,))
dset[length:newlength] = data
filename = 'TESTFILE.h5'
dsetname = 'Sensor1'
struct_dt = np.dtype(SensorStruct)
#Rawdata comes in from a sensor every few seconds, returns as bytes object
rawdata1 = b"\x15\xcd[\x07\x00\x00\x00\x00 x\x81BA\x02\xd7A\x00\x00\x00\x00'u\x1fA\xf4Q\x01AbY?A\x16\xcd[\x07\x00\x00\x00\x00 x\x81BA\x02\xd7A\x01\x00\x00\x00\x1c\xe4&A[\x85\x0bA\x97\x96=A\x17\xcd[\x07\x00\x00\x00\x00 x\x81BA\x02\xd7A\x02\x00\x00\x00\xf6\x8b\x02A\xe5\xd5\xd5@\xc1Y\x1bA\x18\xcd[\x07\x00\x00\x00\x00 x\x81BA\x02\xd7A\x03\x00\x00\x00 \xec9A?W\x17A\xd0vRA\x19\xcd[\x07\x00\x00\x00\x00 x\x81BA\x02\xd7A\x04\x00\x00\x00\xf2\t/A\x83U\x19A\r&[A\x1a\xcd[\x07\x00\x00\x00\x00 x\x81BA\x02\xd7A\x05\x00\x00\x00s\x8a\x18A\xb0\x19\x04A\xc6\xb51A\x1b\xcd[\x07\x00\x00\x00\x00 x\x81BA\x02\xd7A\x06\x00\x00\x00P\xb6>A6\xc5 A)erA\x1c\xcd[\x07\x00\x00\x00\x00 x\x81BA\x02\xd7A\x07\x00\x00\x00\xe5e\x11A\x17\x9c\xff@^\xbf5A\x1d\xcd[\x07\x00\x00\x00\x00 x\x81BA\x02\xd7A\x08\x00\x00\x00*\xbe\x19At\xd5\x04AN\x919A\x1e\xcd[\x07\x00\x00\x00\x00 x\x81BA\x02\xd7A\t\x00\x00\x00\xa2* A(-\x03AE\xedFA"
rawdata2 = b'\x1f\xcd[\x07\x00\x00\x00\x00 x\x01EA\x02\xd7A\n\x00\x00\x00\xb6\x89&A\xd7\x8f\x07A\xe9\x00SA \xcd[\x07\x00\x00\x00\x00 x\x01EA\x02\xd7A\x0b\x00\x00\x00\x91I\xfd@*\\\xdc@<\x17!A!\xcd[\x07\x00\x00\x00\x00 x\x01EA\x02\xd7A\x0c\x00\x00\x00,q\x12A\x81\x1f\xfa@\x81\xfe(A"\xcd[\x07\x00\x00\x00\x00 x\x01EA\x02\xd7A\r\x00\x00\x00\x04@\x1cA\x03p\x05A\x05\xb03A#\xcd[\x07\x00\x00\x00\x00 x\x01EA\x02\xd7A\x0e\x00\x00\x00\xad\x89:A8h#A\xab\x88SA$\xcd[\x07\x00\x00\x00\x00 x\x01EA\x02\xd7A\x0f\x00\x00\x00I\x0f\xf5@\x15\xaa\xca@Rk\x0cA%\xcd[\x07\x00\x00\x00\x00 x\x01EA\x02\xd7A\x10\x00\x00\x00\xab\xeb\x1dA\x86 \x05A\x1807A&\xcd[\x07\x00\x00\x00\x00 x\x01EA\x02\xd7A\x11\x00\x00\x00Q\xda3A\xdc\xa6\x1cAT)ZA\'\xcd[\x07\x00\x00\x00\x00 x\x01EA\x02\xd7A\x12\x00\x00\x00U\xb3=A\xae\xcb\x1aA\xebmQA(\xcd[\x07\x00\x00\x00\x00 x\x01EA\x02\xd7A\x13\x00\x00\x00\x8f\x82\x0cA\x11\x15\xf3@$]&A'
data1 = np.frombuffer(rawdata1, dtype=SensorStruct)
data2 = np.frombuffer(rawdata2, dtype=SensorStruct)
CreateFile(filename)
AddDataset(filename, dsetname, SensorStruct)
WriteData(filename, data1)
WriteData(filename, data2)
在这里,我试图读取单列数据:
import time
t0 = time.time()
with h5py.File(filename, 'r', libver='latest', swmr=True) as f:
dset = f[dsetname]
#Optimize chunking so I can read one column
#My real dataset contains hundreds of columns and milions of rows
#So this minimal example may look slightly trivial
print('Chunksize: {}'.format(dset.chunks))
t = dset['pc_time']
print('Reading the time column took {} seconds'.format(time.time()-t0))
解决方案
In [551]: dt = np.dtype([('a',int),('b','uint8'),('c','float32'),('d','float64')])
In [552]: x = np.ones(10, dt)
In [553]: x.dtype
Out[553]: dtype([('a', '<i8'), ('b', 'u1'), ('c', '<f4'), ('d', '<f8')])
In [554]: x.itemsize
Out[554]: 21
In [555]: x.__array_interface__
Out[555]:
{'data': (40185408, False),
'strides': None,
'descr': [('a', '<i8'), ('b', '|u1'), ('c', '<f4'), ('d', '<f8')],
'typestr': '|V21',
'shape': (10,),
'version': 3}
该数组的每条记录占用 21 个字节,“V21”。
In [557]: f = h5py.File('vtype.h5','w')
In [558]: ds = f.create_dataset('data', data=x)
In [559]: ds
Out[559]: <HDF5 dataset "data": shape (10,), type "|V21">
In [560]: ds.dtype
Out[560]: dtype([('a', '<i8'), ('b', 'u1'), ('c', '<f4'), ('d', '<f8')])
在h5dump
此数据集中显示为
DATATYPE H5T_COMPOUND {
H5T_STD_I64LE "a";
H5T_STD_U8LE "b";
H5T_IEEE_F32LE "c";
H5T_IEEE_F64LE "d";
}
分块的文档显示了一个分块元组,其元素数量与数组的形状相同。
http://docs.h5py.org/en/stable/high/dataset.html#chunked-storage
在这里,我创建了一个一维数组,因此如果指定了分块,则仅适用于该维度,而不适用于复合数据类型。
对于 numpy 数组,访问结构化数组的单个字段相对较快,与访问 2d 数组的列或沿 1d 数组的立场相当。这是一个视图。
但是从数据集加载h5
是一个副本。通过这个小例子,加载ds[:]
速度比ds['a']
. 并且ds[:n]['a']
比ds['a'][:n]
.
我不知道这些时间与简单二维数组的列访问相比如何。而且我不知道时间是否取决于 dtype 的大小。
推荐阅读
- django - django 用户字段在模板中显示为空
- javascript - Javascript:滚动页面时计时器数量增加
- active-directory - 如何从 Active Directory 域服务器中提取 Active Directory 组和林元数据
- vb.net - 如何在 VB.NET 的面板中动态添加文本框?
- java - 将连续的字符串数据拆分为所需的垂直输出
- jquery - 如何将 LIKE Query 与 2 个表一起使用?
- sql-server - 使用 SQL Server 查询检索包含 @ 的 xml
- c# - Ajax 数据类型响应更改为字符串,尽管它被称为 Json
- codeigniter-3 - 如何防止登录时的sql注入
- javascript - 如何为分页 REST API 执行“实际页面”