machine-learning - 为更新数据训练神经网络
问题描述
我有一个已经在一些数据集上训练过的神经网络。假设数据集最初有 10k 个数据点,现在又添加了 100 个数据点。我的神经网络有没有办法在不从头开始训练的情况下学习整个(更新的)数据集?此外,灾难性干扰是否适用于此?我知道当 NN 试图学习“新信息”时,灾难性干扰是适用的,但我不确定“更新(由于插入)信息”是否算作“新信息”。
解决方案
事实上,不幸的是,灾难性干扰(或遗忘)适用于您的情况。但是深度学习有一个分支专注于这个问题,称为持续学习。
推荐阅读
- spring-boot - spring-boot 和 thymeleaf 实现中的国际化
- r - 在 R 中找不到列
- rust - 局部变量引用的特征界限
- java - 为什么 java.util.Iterator 不会在嵌套循环中重置?
- amazon-elastic-beanstalk - 在 AWS elasticbeanstalk 配置文件中引用环境变量
- javascript - 找到 div 后如何在 javascript/jquery 中设置 img 标签的样式?
- c - 用 `mmap` 替换 `chardev`
- json - 仪表板使用本地 json 数据,但在从 WS 加载数据时返回错误
- node.js - AWS Lambda 函数超时但适用于本地实例
- python - 无法在 Django 中创建对象