datasets.py [395:401]:
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
                tokens = question.split(" ")
                for token in tokens:
                    if token not in self.vocabulary:
                        self.vocabulary[token] = count
                        self.word_to_idx[token] = count
                        self.idx_to_word[count] = token
                        count += 1
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -



datasets.py [406:412]:
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
                    tokens = question.split(" ")
                    for token in tokens:
                        if token not in self.vocabulary:
                            self.vocabulary[token] = count
                            self.word_to_idx[token] = count
                            self.idx_to_word[count] = token
                            count += 1
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -



