首页 > 解决方案 > 权重和输入的点积

问题描述

我正在阅读初学者级别的 ML 书籍,似乎每个人都在写

output = np.dot(inputs, np.array(weights).T) + biases

这对我来说看起来很尴尬,因为等式是y = wx + b,不是y = xw + b。变量写在其系数之后。

output = np.dot(weights, np.array(inputs).T) + np.array([biases]).T

为什么不是这个?这有什么原因吗?还是只是一个约定?

标签: machine-learningdot-product

解决方案


这是作者采用的惯例。甚至变量(它们的维度)的初始化方式也是导致这种情况的另一个约定。

如果您正确实施它们,这两种方法都是可以接受的并且是正确的,即满足等式的目标。


推荐阅读