kats/models/globalmodel/utils.py [633:657]:
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
            size_average=None, reduce=None, reduction=reduction
        )
        if len(quantile) < 1:
            msg = "quantile should not be empty."
            logging.error(msg)
            raise ValueError(msg)
        if len(quantile.size()) != 1:
            msg = "quantile should be a 1-dimentional tensor."
            logging.error(msg)
            raise ValueError(msg)

        self.quantile = quantile
        self.quantile.requires_grad = False

        if weight is None:
            d = len(quantile)
            weight = torch.ones(d) / d
        else:
            if weight.size() != quantile.size():
                msg = "weight and quantile should have the same size."
                logging.error(msg)
                raise ValueError(msg)

        self.register_buffer("weight", weight)
        self.reduction = reduction
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -



kats/models/globalmodel/utils.py [741:763]:
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
            size_average=None, reduce=None, reduction=reduction
        )
        if len(quantile) < 1:
            msg = "quantile should not be empty."
            logging.error(msg)
            raise ValueError(msg)
        if len(quantile.size()) != 1:
            msg = "quantile should be a 1-dimentional tensor."
            logging.error(msg)
            raise ValueError(msg)
        self.quantile = quantile
        self.quantile.requires_grad = False

        if weight is None:
            d = len(quantile)
            weight = torch.ones(d) / d
        else:
            if weight.size() != quantile.size():
                msg = "weight and quantile should have the same size."
                logging.error(msg)
                raise ValueError(msg)
        self.register_buffer("weight", weight)
        self.reduction = reduction
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -



