赞
踩
(20分)1、(1)什么是n-gram?
(2)“I am in Shandong University” 写出1-gram、2-gram、3-gram
(3)给了四个语句,计算(2)中的2-gram概率。
(20分)2、(1)写出常见的中文分词方法。
(2)写出HMM算法的组成部分并解释,说明HMM能够同时实现分词和词性标注的原理。
(20分)3、(1)画出统计机器翻译图示,通过概率公式说明翻译过程。
(2)画出神经机器翻译模型,并解释翻译过程。
(15分)4、(1)写出一个离散化的缺点。
(2)画出CBOW和skip-gram的网络结构,解释原理。
(15分)5、(1)给出三个mask的例子,说明预训练模型能够从中学到什么(示例是mask了her,说明它学到了指代关系)。
(2)举出Encoder、Decoder、Encoder-Decoder三个结构的代表模型,并结合例子说明原理。
(10分)6、你对大模型的感受,和大模型的发展与应用前景。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。