machine-learning - 通过复制人为地增加数据集的大小?
问题描述
我正在做一个机器学习项目,我正在使用神经网络来解决二进制分类问题,但是,我的数据集(.csv 格式)相对较小。它只有大约 60 个是/否案例,虽然它能够训练,但准确性不是很好。我的解决方案只是复制数据集并在每次复制时对数字进行微小的更改,即为每个数字添加 +-1 或乘以 0.999。通过这样做,我将数据集的大小增加到大约 1100 个新案例,并实现了更高的准确度。我想知道这是否是 ML 研究人员使用的实际技术,如果是,它是否有实际的官方/学术名称?
谢谢你!
解决方案
Yes, the process you are referring to is called data augmentation.
However, I would highly recommend you to not use neural networks on datasets with merely hundred to thousand rows. Ideally Neural networks are used to train models over large datasets.
推荐阅读
- python - 如何在 beautifulsoup 中刮取 image-src
- mapping - 将不兼容的属性从 DTO 映射到实体
- rest - 如何正确创建自定义 REST API 端点
- javascript - 执行前如何在另一个键中调用对象属性
- bash - bash 遍历文件夹中的文件,并在文件夹中有新文件时更新循环
- sequelize.js - 当内部连接为空时如何更新 res?
- javascript - 获取运行时默认语言环境的 JavaScript 标准 API?
- python - 有没有办法使用 Python 和 BeautifulSoup 收集城市中特定特许经营权的 Yelp 页面的所有 URL?
- vue.js - 向 vee 验证器添加自定义错误(ErrorBag)
- mariadb - ViciDial:MyISAM 指定的密钥太长;最大密钥长度为 1000 字节