machine-learning - 在某些迭代后成本变为 NaN
问题描述
我正在尝试使用softmax 回归multiclass classification
解决问题(包含 3 个标签)。
这是我第一个使用梯度下降和反向传播(不使用正则化和任何高级优化算法)的粗略实现,仅包含1 层。
同样,当学习率很大(> 0.003)时,成本变为NaN
,在降低学习率时,成本函数可以正常工作。谁能解释我做错了什么?
# X is (13,177) dimensional
# y is (3,177) dimensional with label 0/1
m = X.shape[1] # 177
W = np.random.randn(3,X.shape[0])*0.01 # (3,13)
b = 0
cost = 0
alpha = 0.0001 # seems too small to me but for bigger values cost becomes NaN
for i in range(100):
Z = np.dot(W,X) + b
t = np.exp(Z)
add = np.sum(t,axis=0)
A = t/add
loss = -np.multiply(y,np.log(A))
cost += np.sum(loss)/m
print('cost after iteration',i+1,'is',cost)
dZ = A-y
dW = np.dot(dZ,X.T)/m
db = np.sum(dZ)/m
W = W - alpha*dW
b = b - alpha*db
这就是我得到的:
cost after iteration 1 is 6.661713420377916
cost after iteration 2 is 23.58974203186562
cost after iteration 3 is 52.75811642877174
.............................................................
...............*upto 100 iterations*.................
.............................................................
cost after iteration 99 is 1413.555298639879
cost after iteration 100 is 1429.6533630169406
解决方案
好吧,过了一段时间我想通了。
首先,成本因此而增加:
cost += np.sum(loss)/m
这里不需要加号,因为它将添加在每个时期计算的所有先前成本,这不是我们想要的。在小批量梯度下降期间通常需要此实现,以计算每个时期的成本。
其次,对于这个问题,学习率太大了,这就是成本超过最小值并变成 NaN 的原因。
我查看了我的代码,发现我的特征范围非常不同(一个是从-1 到 1,另一个是-5000 到 5000),这限制了我的算法使用更大的学习率值。
所以我应用了特征缩放:
var = np.var(X, axis=1)
X = X/var
现在学习率可以更大(<=0.001)。
推荐阅读
- html - 将所有元素放在一行中
- c++builder - AnsiString 头文件
- java - 在 Java 中从一组关键对象实例化 Map
- types - Haxe lua.Table
: 字符串应该是 Int - node.js - 通过视图将动态数据发送到路由
- python - 在 Plotly Express 时间线中使用自定义时间格式
- c# - 使用 DynamicParameters 从 Sqlite 查询中获取接口类型
- python - 根据日期范围按类别计算总出现次数和出现次数
- swagger - 请求正文中的显式类型未显示在 Swagger (NestJS) 中
- c# - WPF Prism 对话框窗口 - 绑定到 DialogWindow 的宽度和高度