lib/models/conv.py [119:129]:
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
        if activation == 'relu':
            self.activation = F.relu
        elif activation == 'lrelu':
            self.activation = lambda x: F.leaky_relu(x, 0.2)
        else:
            raise ValueError()

        self.batchnorm = batchnorm


    def forward(self, z):
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -



lib/models/conv.py [208:217]:
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
        if activation == 'relu':
            self.activation = F.relu
        elif activation == 'lrelu':
            self.activation = lambda x: F.leaky_relu(x, 0.2)
        else:
            raise ValueError()

        self.batchnorm = batchnorm

    def forward(self, z):
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -



