optimum/executorch/modeling.py [544:551]:
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
            echo=echo,
            max_seq_len=max_seq_len,
        )

        self.stats.on_inference_end()
        self.stats.print_report()

        return self.tokenizer.decode(generated_tokens, skip_special_tokens=True)
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -



