models/compressive.py [260:268]:
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
        return out, h_cache, aux_loss

    def init_hid_cache(self, batch_sz):
        hid = []
        for l in range(self.args.nlayers):
            h = torch.zeros(
                batch_sz, self.get_layer(l).get_cache_size(), self.args.hid_sz
            )
            hid.append(h.to(self.args.device))
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -



models/transformer_seq.py [244:252]:
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
        return out, h_cache, aux_loss

    def init_hid_cache(self, batch_sz):
        hid = []
        for l in range(self.args.nlayers):
            h = torch.zeros(
                batch_sz, self.get_layer(l).get_cache_size(), self.args.hid_sz
            )
            hid.append(h.to(self.args.device))
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -



