当前位置:   article > 正文

最好用的中文分词库cppjieba_ok【可直接编译使用用版】

cppjieba

最好用的中文分词库cppjieba_ok【可直接编译使用用版】

中文分词技术在自然语言处理领域中扮演着非常重要的角色,其中cppjieba是一个高效、开源的中文分词库,它提供了多种分词算法和分词模式,并且能够支持多线程,能够大大提升分词效率。
本文将介绍cppjieba的使用方法和技术原理。
在这里插入图片描述

一、cppjieba的安装

cppjieba是一个C++库,可以在Linux、Windows、Mac OS等多个平台上使用,安装cppjieba也非常简单。

依赖:

  • g++ (version >= 4.1 is recommended) or clang++;
  • cmake (version >= 2.6 is recommended);

可以先从github上克隆cppjieba的代码仓库,然后进入cppjieba的源码目录,执行命令进行编译:

1.1 按照原作者方法:

在shell中:

git clone –depth=10 –branch=master git://github.com/yanyiwu/cppjieba.gitcd cppjieba
mkdir build
cd build
cmake ..
make
  • 1
  • 2
  • 3
  • 4
  • 5

但是这里是有坑的,编译会报错:缺少limonp库。

这时可以在原作者主页的开源库里找到limonp,
再shell 中 cd 切换到 /cppjieba/include,
下载:git clone https://github.com/yanyiwu/limonp.git

1.2 可以直接使用以下我整理好的方法:

在shell中:

git clone https://github.com/sweetorange2022/jiebacpp_ok.git
cd cppjieba
mkdir build
cd build
cmake ..
make -j4;
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

编译完成后,即可在编译目录中找到生成的动态库和静态库文件。

二、cppjieba的使用方法

2.1 cppjieba的基本使用方法

cppjieba提供了非常简单的API,使得使用者能够快速地进行中文分词:

cpp


#include "cppjieba/Jieba.hpp"

int main(int argc, char** argv) {
    cppjieba::Jieba jieba("../dict/jieba.dict.utf8",
                          "../dict/hmm_model.utf8",
                          "../dict/user.dict.utf8",
                          "../dict/idf.utf8",
                          "../dict/stop_words.utf8");

    std::string text = "今天天气不错,我们一起出去玩吧!";
    std::vector<std::string> words;
    jieba.Cut(text, words, true);

    for (auto& word : words) {
        std::cout << word << "/";
    }

    return 0;
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20

result:
今天/天气/不错/,/我们/一起/出去/玩吧/!/
  • 1

在这个例子中,首先创建了一个cppjieba::Jieba对象,用于进行分词。
然后,指定了分词所需的词典文件路径、模型文件路径、用户自定义词典路径、IDF值文件路径以及停用词文件路径。
接着,使用Jieba对象的Cut()函数对一个输入字符串进行分词,最后将分词结果输出到标准输出流中。

2.2 分词算法和分词模式:

除了基本的分词方法外,cppjieba还提供了多种分词算法和分词模式。

2.2.1 分词算法:

Jieba算法(cut_all = false):根据词典和模型进行精确切分。

全模式算法(cut_all = true):将所有可能的词语都列出来,速度很快,但准确率较低。

HMM算法(use_hmm = true):基于隐马尔可夫模型进行切分,对未登录词的识别能力较强

2.2.2 分词模式:

搜索模式(mode = cppjieba::Search):用于搜索引擎分词,适合于对文本进行深度分析,但速度较慢。

默认模式(mode = cppjieba::Default):在精度和速度上做了一个平衡,适用于大多数分词场景。

MP模式(mode = cppjieba::MP):适用于对速度要求很高的场景,但精度会有一定的下降。

2.3 多线程分词:

cppjieba还提供了多线程分词的功能,能够更快地进行分词。以下是使用多线程分词的例子:

cpp


#include "cppjieba/Jieba.hpp"
#include <thread>

int main(int argc, char** argv) {
    cppjieba::Jieba jieba("../dict/jieba.dict.utf8",
                          "../dict/hmm_model.utf8",
                          "../dict/user.dict.utf8",
                          "../dict/idf.utf8",
                          "../dict/stop_words.utf8");

    std::string text = "今天天气不错,我们一起出去玩吧!";
    std::vector<std::string> words;

    std::vector<std::thread> threads;
    const int thread_count = 4;
    for (int i = 0; i < thread_count; i++) {
        threads.emplace_back([&jieba, &text, &words]() {
            std::vector<std::string> sub_words;
            jieba.Cut(text, sub_words, true);
            std::lock_guard<std::mutex> lock(words_mutex);
            words.insert(words.end(), sub_words.begin(), sub_words.end());
        });
    }

    for (auto& thread : threads) {
        thread.join();
    }

    for (auto& word : words) {
        std::cout << word << "/";
    }

    return 0;
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35

在这个例子中,首先创建了一个cppjieba::Jieba对象,然后指定了分词所需的文件路径。
接着,将要进行分词的文本分成多个部分,并使用多个线程进行分词。
最后,将所有的分词结果合并到一个结果集合中,并输出到标准输出流中。

2.4 cppjieba的分词流程:

加载词典文件:cppjieba使用jieba.dict.utf8和hmm_model.utf8文件构建前缀词典和HMM模型。这些文件包含了词语、词性、词频等信息。

构建前缀词典:将词典中的所有词语按照字典序排列,并将它们拆分成多个前缀。对于每个前缀,记录下对应的词语、词性和词频等信息。

分词:对于输入的文本,先进行基于HMM的分词,得到一个初步的分词结果。然后使用前缀词典进行匹配,得到所有可能的分词结果。最后,对这些结果进行歧义消解,找出最优的分词结果。

输出分词结果:将分词结果输出到标准输出流中,或者存储到文件中。

三、cppjieba的技术原理

cppjieba使用的分词算法是基于前缀词典和有向无环图的,主要包含:

  1. 前缀词典构建:将词典中的所有词语按照字典序排列,并将它们拆分成多个前缀。对于每个前缀,记录下对应的词语、词性和词频等信息。
  2. DAG构建:将待分词的文本字符串构建成一个有向无环图(DAG),其中每个节点代表一个可能的词语,边表示词语之间的前后关系。DAG的构建可以通过动态规划算法实现。
  3. 最大概率路径计算:使用Viterbi算法计算出DAG中的最大概率路径,即分词结果。
  4. 未登录词分词:对于DAG中没有被词典覆盖的节点(即未登录词),根据节点周围的字符信息进行分词。
  5. 歧义消解:根据语言学和统计学的方法,对分词结果进行歧义消解,找出最优的分词结果。

总结

  • cppjieba是一个快速、准确、易用的中文分词库,它基于前缀词典和有向无环图的算法,能够有效地对中文文本进行高效的分词。
  • cppjieba支持多种分词模式和多线程分词,并且具有很好的可定制性和扩展性。
  • 如果你需要在自然语言处理中使用中文分词功能,cppjieba是一个非常不错的选择。
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/羊村懒王/article/detail/344047?site
推荐阅读
相关标签
  

闽ICP备14008679号