exec_knowledge_eval.py [29:34]:
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
            model_response, _ = model.chat(
                tokenizer,
                prompt,
                history=None,
            )
            if len(model_response.split('\n')) == 2:
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -



exec_knowledge_eval.py [40:45]:
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
            model_response, _ = model.chat(
                tokenizer,
                prompt,
                history=None,
            )
            if len(model_response.split('\n')) == 2:
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -



