视频链接:https://www.youtube.com/watch?v=dymfkWtVUdo&list=PLJV_el3uVTsO07RpBYFsXg-bN5Lu0nhdG&index=8&ab_channel=Hung-yiLee
课件链接:https://speech.ee.ntu.edu.tw/~tlkagk/courses/DLHLP20/ASR3.pdf
LM的作用是预测token sequence出现的概率。对于输出文本的模型,LM通常都是很有帮助的。
N-gram LM 有smooth的问题,然后,引出Continuous LM,再进一步扩展到Deep Learning based LM.
传统的LM是N-gram LM,下面介绍一下N-gram LM的技术细节。
常见的N-gram有2-gram,3-gram,。。。
局限是什么?估计的概率可能并不准确。