首页 > 解决方案 > 如何用pytorch实现Softmax回归?

问题描述

我正在做一个需要Softmax RegressionPytorch. 作业说:

Implement Softmax Regression as an nn.Module and pipe its output with its output with torch.nn.Softmax.

由于我是 pytorch 的新手,我不知道该怎么做。到目前为止,我已经尝试过:

class SoftmaxRegression(nn.Module): # 继承自 nn.Module!

def __init__(self, num_labels, num_features):

    super(SoftmaxRegression, self).__init__()
    self.linear = torch.nn.Linear(num_labels, num_features)

def forward(self, x):
    # should return the probabilities for the classes, e.g.
    # tensor([[ 0.1757,  0.3948,  0.4295],
    #         [ 0.0777,  0.3502,  0.5721], 
    #         ...

    # not sure what to do here

有人知道我该怎么做吗?我不确定该forward方法中应该写什么。我感谢任何帮助!

标签: pythonpytorchregressionsoftmax

解决方案


据我了解,该作业希望您实现自己的 Softmax 函数版本。但是,我没明白你的意思and pipe its output with torch.nn.Softmax。他们是否要求您返回自定义 Softmax 的输出以及自定义的torch.nn.Softmax输出nn.Module?你可以这样做:

class SoftmaxRegression(nn.Module):
    def __init__(self, dim=0):
        super(SoftmaxRegression, self).__init__()
        self.dim = dim
    def forward(self, x):
        means = torch.mean(x, self.dim, keepdim=True)[0]
        exp_x= torch.exp(x-means)
        sum_exp_x = torch.sum(exp_x, self.dim, keepdim=True)
        value = exp_x/sum_exp_x
        return value

推荐阅读