recipes/local_prior_match/librispeech/train_init.cfg (39 lines of code) (raw):

--runname=lpm_init --rundir=[...] --tokensdir=[MODEL_DST]/am --archdir=[...] --train=[DATA_DST]/lists/train-clean-100.lst --valid=dev-clean:[DATA_DST]/lists/dev-clean.lst,dev-other:[DATA_DST]/lists/dev-other.lst --lexicon=[MODEL_DST]/am/librispeech-paired-train+dev-unigram-5000-nbest10.lexicon --arch=network.arch --tokens=librispeech-paired-train-unigram-5000.tokens --criterion=seq2seq --lr=0.05 --lrcrit=0.05 --momentum=0.0 --stepsize=40 --gamma=0.5 --maxgradnorm=15 --mfsc=true --dataorder=output_spiral --inputbinsize=25 --filterbanks=80 --attention=keyvalue --encoderdim=512 --attnWindow=softPretrain --softwstd=4 --trainWithWindow=true --pretrainWindow=3 --maxdecoderoutputlen=150 --usewordpiece=true --wordseparator=_ --sampletarget=0.01 --target=ltr --batchsize=16 --labelsmooth=0.1 --nthread=6 --memstepsize=4194304 --eostoken=true --pcttraineval=1 --pctteacherforcing=99 --iter=10