python - 大型数据集上的 np_expand 和 np.concatenate
问题描述
我正在一个相对较大的数据集上执行一些数据转换(扩展每个图像的维度,然后将它们连接起来进行训练):来自 wiki 数据集的 62,000 张人脸图像。但是,使用下面的代码,我已经加载了 6 个多小时的数据,它仍然不完整......我该如何改进这里加载图像的过程?下面的代码来自Generative Adversarial Networks Projects一书。整个代码可以在这里找到
def load_images(data_dir, image_paths, image_shape):
images = None
for i, image_path in enumerate(image_paths):
print()
try:
# Load image
loaded_image = image.load_img(os.path.join(data_dir, image_path), target_size=image_shape)
# Convert PIL image to numpy ndarray
loaded_image = image.img_to_array(loaded_image)
# Add another dimension (Add batch dimension)
loaded_image = np.expand_dims(loaded_image, axis=0)
# Concatenate all images into one tensor
if images is None:
images = loaded_image
else:
images = np.concatenate([images, loaded_image], axis=0)
except Exception as e:
print("Error:", i, e)
return images
解决方案
推荐阅读
- python - Django教程第5部分错误
- javascript - 如何使用 classList 工具隐藏/显示菜单
- java - Bean 名称“mstUsermaster”的 BindingResult 和普通目标对象都不能用作请求属性
- android - 将多个值存储为 SharedPreference 是个好主意吗?
- logging - 关于 Yii2 日志的 DbTarget
- python - AttributeError:模块“Tkinter”没有属性“__file__”
- java - Kotlin-kapt 不会生成任何东西
- java - 构建我的应用程序,但它说构建失败并出现一个错误
- json - 如何忽略 Spray-json [Scala] 中的字段
- javascript - JavaScript 重定向到下一页错误