#CppJieba是"结巴"中文分词的C++版本
现在支持utf8,gbk编码的分词。
master
分支支持utf8
编码gbk
分支支持gbk
编码
Trie.cpp/Trie.h 负责载入词典的trie树,主要供Segment模块使用。
MPSegment.cpp/MPSegment.h (Maximum Probability)最大概率法:负责根据Trie树构建有向无环图和进行动态规划算法,是分词算法的核心。
HMMSegment.cpp/HMMSegment.h
是根据HMM模型来进行分词,主要算法思路是根据(B,E,M,S)四个状态来代表每个字的隐藏状态。
HMM模型由dicts/下面的hmm_model.utf8
提供。
分词算法即viterbi算法。
TransCode.cpp/TransCode.h 负责转换编码类型,将utf8和gbk转换成uint16_t
类型,也负责逆转换。
这部分的功能经过线上考验,一直稳定运行,暂时没有发现什么bug。
cd ./demo;
make;
./segment_demo testlines.utf8
Output:
我来到北京清华大学
我/来到/北京/清华大学
他来到了网易杭研大厦
他/来到/了/网易/杭/研/大厦
小明硕士毕业于中国科学院计算所,后在日本京都大学深造
小/明/硕士/毕业/于/中国科学院/计算所/,/后/在/日本京都大学/深造
我来自北京邮电大学。。。学号091111xx。。。
我/来自/北京邮电大学/。。。/学/号/091111xx/。。。
cd ./demo;
make;
./segment_demo testlines.utf8 --modelpath ../dicts/hmm_model.utf8 --algorithm cutHMM
Output:
我来到北京清华大学
我来/到/北京/清华大学
他来到了网易杭研大厦
他来/到/了/网易/杭/研大厦
小明硕士毕业于中国科学院计算所,后在日本京都大学深造
小明/硕士/毕业于/中国/科学院/计算所/,/后/在/日/本/京/都/大/学/深/造
我来自北京邮电大学。。。学号091111xx。。。
我来/自北京/邮电大学/。。。/学号/091111xx/。。。
cd ./demo;
make;
./segment_demo testlines.utf8 --algorithm cutMix
Output:
我来到北京清华大学
我/来到/北京/清华大学
他来到了网易杭研大厦
他/来到/了/网易/杭研/大厦
杭研
杭研
小明硕士毕业于中国科学院计算所,后在日本京都大学深造
小明/硕士/毕业/于/中国科学院/计算所/,/后/在/日本京都大学/深造
我来自北京邮电大学。。。学号091111xx。。。
我/来自/北京邮电大学/。。。/学号/091111xx/。。。
引入了husky这个文件夹,husky是一个简单的http服务框架。
cd ./demo;
make;
./start.sh #启动一个服务,监听11258这个端口(在start.sh里面指定)。
关闭和重启分别是stop.sh
和restart.sh
然后用chrome浏览器打开http://127.0.0.1:11258/?key=我来自北京邮电大学
(用chrome的原因是chrome的默认编码就是utf-8)
或者用命令 curl "http://127.0.0.1:11258/?key=我来自北京邮电大学"
以上依次是MP,HMM,Mix三种方法的效果。
可以看出效果最好的是Mix,也就是融合MP和HMM的切词算法。即可以准确切出词典已有的词,又可以切出像"杭研"这样的未登录词。
本项目主要是如下目录组成:
主要是一些工具函数,例如字符串操作等。
直接include就可以使用。
核心目录,包含主要源代码。 make 之后产生libcppjieb.a 使用方法参考如上cppcommon
如下:
usage:
./segment_demo[options] <filename>
options:
--algorithm Supported methods are [cutDAG, cutHMM, cutMix] for now.
If not specified, the default is cutDAG
--dictpath If not specified, the default is ../dicts/jieba.dict.utf8
--modelpath If not specified, the default is ../dicts/hmm_model.utf8
If not specified, the default is utf8.
example:
./segment_demo testlines.utf8 --dictpath ../dicts/jieba.dict.utf8
./segment_demo testlines.utf8 --modelpath ../dicts/hmm_model.utf8 --algorithm cutHMM
./segment_demo testlines.utf8 --modelpath ../dicts/hmm_model.utf8 --algorithm cutMix
分词速度大概是 62M / 54sec = 1.15M/sec
测试环境: Intel(R) Xeon(R) CPU E5506 @ 2.13GHz
如果有运行问题或者任何疑问,欢迎联系 : wuyanyi09@gmail.com
"结巴中文"分词作者: SunJunyi
https://github.com/fxsjy/jieba
顾名思义,之所以叫CppJieba,是参照SunJunyi大神的Jieba分词Python程序写成的,所以饮水思源,再次感谢SunJunyi。