赞
踩
使用一些开源工具,分析结果。如:
(1)语言模型工具包srilm:选取各类平滑方法,计算困惑度。如有余力,可使用工具包其他功能。语料:train-austen.txt和test-austen.txt。(这里可以改成其他合适的语料进行测试)
(2)其他:如ChatGPT
从官网下载srilm工具包:
打开终端,输入指令设置环境变量并检查:
export SRILM=~/srilm(工具包的实际路径)
安装SRILM工具包的依赖项:
sudo apt-get install g++ make zlib1g-dev
然后cd到工具包解压目录下,输入指令进行编译:
make World
编译成功后,将测试数据集“test-austen.txt”和与它相似的训练数据集“train-austen.txt”放到工具包解压目录下。
在终端中输入以下命令训练一个三元语言模型:
bin/i686-m64/ngram-count -text /home/eaibot/srilm/train-austen.txt -order 3 -lm /home/eaibot/srilm/output.lm
这里我先创建了一个保存三元语言模型的输出文件“output.lm”:
SRILM工具包将在训练语言模型时将模型参数写入输出文件中:
在终端中输入命令计算文本文件“test-austen.txt”的困惑度
在SRILM中,有多种平滑方法可供选择,包括Laplace平滑、Kneser-Ney平滑、Witten-Bell平滑、Katz平滑等。
bin/i686-m64/ngram -lm /home/eaibot/srilm/output.lm -ppl /home/eaibot/srilm/test-austen.txt -debug 2
1-best解码器是一种简单的解码器,它只考虑每个词的最可能的预测结果,而不考虑其他可能性。因此,ppl1通常比ppl要高。
bin/i686-m64/ngram-count -text /home/eaibot/srilm/train-austen.txt -order 3 -lm /home/eaibot/srilm/output1.lm -addsmooth 1
bin/i686-m64/ngram -lm /home/eaibot/srilm/output1.lm -ppl /home/eaibot/srilm/test-austen.txt -debug 2
bin/i686-m64/ngram-count -text /home/eaibot/srilm/train-austen.txt -order 3 -lm /home/eaibot/srilm/output2.lm -kndiscount
bin/i686-m64/ngram -lm /home/eaibot/srilm/output2.lm -ppl /home/eaibot/srilm/test-austen.txt -debug 2
ChatGPT选择使用GPT-2模型来计算文本困惑度:
并提供了代码:
但是GPT-2模型在计算困惑度时需要较长的时间和较大的计算资源,可能需要使用更高性能的计算设备。所以我选择直接提供文件让它帮我算:
困惑度是语言模型性能的一个重要指标,它衡量了模型对测试数据集的预测能力。困惑度越低,模型的性能越好。
不同的平滑方法会对语言模型的计算方式产生影响,因此计算出的困惑度也会不同。以下是一些可能导致困惑度差异的因素:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。