1. 安装
git clone https://github.com/kpu/kenlm.git
cd kenlm/
mkdir -p build
cd build
cmake ..
make -j 32
安装过程中可能会出现没有libboost库,engin3,执行命令:
sudo yum install boost-devel
sudo yum install eigen3
其他linux发行版,自行查找对应的安装方式。 测试安装是否成功,build/bin/lmplz ,有显示则安装成功。 将bin目录加入PATH,这样在任意目录下都可以使用bin下面的命令。
2. 训练
基本用法:
lmplz -o N --verbose_header --text your_corpus --arpa model.arpa
将.arpa 转成.bin 效果是一样的,但是速度会更快。
build_binary -s test.arpa test.bin
参数解释: (1) --vocab_estimate 为了在corpus count计算预分配内存,默认词表大小为1000000,可以根据实际的词表大小进行设置(稍大词表大小) (2) --verbose_header 生成的arpa文件头部显示一些信息,如各个文法元组的个数 (3) --text 需要训练的文本,事先得预处理好,去标点,正则化等等,训练词级别的N-gram需要进行分词,字级别的N-gram,只要把各个字符用空格空开就可 (4) --arpa 生成的arpa文件的名称 (5) --prune 剪枝操作,使用方法如: --prune 1 1 3 4 ,首先这四个位置的数字表示对应元组词频的阈值,即小于这个词频的元组会被剪枝掉,如 4 表示4-gram中元组出现次数小于4的需要被剪枝。另外需要注意,这一串数字需要满足 非递减 。 (6) --limit_vocab_file 指定词表文件,不在词表的字都会被剪枝掉。词表的形式是,用空格隔开每个单元,如 我 你 他 (7) --discount_fallback 平滑操作 (8) --interpolate_unigrams 为了模拟srilm的实现,这个几乎用不上
3. Python接口
安装
pip install kenlm
以 kenlm/lm/test.arpa 为例:
import kenlm
model=kenlm.LanguageModel('test.arpa')
print(model.score('this is a sentence.',bos = True,eos = True))
结果如下:
|