neural-network - 使用反向页更新多层神经网络中一个随机层的权重?
问题描述
在使用反向传播训练多层神经网络时,所有层的权重在每次迭代中都会更新。
我在想如果我们随机选择任何层并仅在反向传播的每次迭代中更新该层的权重。
它将如何影响训练时间?模型性能(模型的泛化能力)是否会受到这种训练的影响?
我的直觉是泛化能力相同,训练时间会减少。如果我错了,请纠正。
解决方案
你的直觉是错误的。您提出的是块协调下降,虽然如果梯度不相关,这样做是有意义的,但在这种情况下这样做是没有意义的。
NN 中的问题在于,由于链式法则,您可以免费获得前一层的梯度,而您可以计算任何单层的梯度。因此,您只是无缘无故地丢弃此信息。
推荐阅读
- docker - gitlab docker login 失败:证书由未知机构签名
- excel - VBA如何检查行号是否是偶数
- javascript - Vue | 如何将网络端口号更改为 80?
- google-bigquery - 查询查找在bigquery中一个接一个创建的记录
- javascript - 这些 Vue 和手动生成的 html css 元素有什么区别?
- autohotkey - 比较不同目录中的文件名(减去扩展名),如果名称与 AutoHotkey 相同,则复制/移动
- extjs - EXTJS:未捕获的 ReferenceError:Dexie 未在 myJavascriptFile.js:18 中定义
- vue.js - 在 Vue.JS 应用加载时从远程 API 获取数据
- apache - NGINX 不使用 proxy_cache_background_update 提供“快速”陈旧内容
- java - 在我的系统中哪里可以找到 App Engine Maven 插件的当前安装版本?