losses.py [29:35]:
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
        self.softmax = nn.Softmax()
        self.num_classes = num_classes
    def forward(self,feats, scores, classifier_weight, labels):
        one_hot = get_one_hot(labels, self.num_classes)
        p = self.softmax(scores)
        if type(scores.data) is torch.cuda.FloatTensor:
            p = p.cuda()
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -



losses.py [46:53]:
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
        self.softmax = nn.Softmax()
        self.num_classes = num_classes

    def forward(self,feats, scores, classifier_weight, labels):
        one_hot = get_one_hot(labels, self.num_classes)
        p = self.softmax(scores)
        if type(scores.data) is torch.cuda.FloatTensor:
            p = p.cuda()
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -



