src/chug/text/tokenization.py [68:73]:
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
        ignore_id: int = -100,
        include_target: bool = True,
        return_dict: bool = True,
        input_key: str = "text_input",
        target_key: str = "text_target",
):
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -



src/chug/text/tokenization.py [104:109]:
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
        ignore_id: int = -100,
        include_target: bool = True,
        return_dict: bool = True,
        input_key: str = "text_input",
        target_key: str = "text_target",
):
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -



