龙空技术网

北大开源全新中文分词工具包!

AI中国 228

前言:

当前姐妹们对“分词工具包”大概比较注意,姐妹们都想要知道一些“分词工具包”的相关内容。那么小编同时在网上收集了一些有关“分词工具包””的相关知识,希望咱们能喜欢,看官们快快来了解一下吧!

点击上方关注,All in AI中国

最近,北大开源了一个中文分词工具包,它在多个分词数据集上都有非常高的分词准确率。其中广泛使用的结巴分词误差率高达 18.55% 和 20.42,而北大的 pkuseg 只有 3.25% 与 4.32%。

pkuseg 是由北京大学语言计算与机器学习研究组研制推出的一套全新的中文分词工具包。它简单易用,支持多领域分词,也支持用全新的标注数据来训练模型。

pkuseg 具有如下几个特点:

高分词准确率:相比于其他的分词工具包,该工具包在不同领域的数据上都大幅提高了分词的准确度。根据北大研究组的测试结果,pkuseg 分别在示例数据集(MSRA 和 CTB8)上降低了 79.33% 和 63.67% 的分词错误率。多领域分词:研究组训练了多种不同领域的分词模型。根据待分词的领域特点,用户可以自由地选择不同的模型。支持用户自训练模型:支持用户使用全新的标注数据进行训练。

预训练模型

分词模式下,用户需要加载预训练好的模型。研究组提供了三种在不同类型数据上训练得到的模型,根据具体需要,用户可以选择不同的预训练模型。以下是对预训练模型的说明:

PKUSeg提供了三个预训练模型,用户需要加载预训练好的模型,根据具体需要,用户可以选择不同的预训练模型,以下是说明:

MSRA:在 MSRA(新闻语料)上训练的模型。:在 CTB8(新闻文本及网络文本的混合型语料)上训练的模型。:在微博(网络文本语料)上训练的模型。

其中,MSRA 数据由第二届国际汉语分词评测比赛提供,CTB8 数据由 LDC 提供,WEIBO 数据由 NLPCC 分词比赛提供。

安装与使用

pkuseg 的安装非常简单,我们可以使用 pip 安装,也可以直接从 GitHub 下载:

pip install pkuseg

使用 pkuseg 实现分词也很简单,基本上和其它分词库的用法都差不多:

'''代码示例1: 使用默认模型及默认词典分词'''import pkuseg​#以默认配置加载模型seg = pkuseg.pkuseg()#进行分词text = seg.cut('我爱北京天安门')print(text)​'''代码示例2: 设置用户自定义词典'''import pkuseg​#希望分词时用户词典中的词固定不分开lexicon = ['北京大学', '北京天安门']#加载模型,给定用户词典seg = pkuseg.pkuseg(user_dict=lexicon)text = seg.cut('我爱北京天安门')print(text)​'''代码示例3'''import pkuseg​#假设用户已经下载好了ctb8的模型并放在了'./ctb8'目录下,通过设置model_name加载该模型seg = pkuseg.pkuseg(model_name='./ctb8')text = seg.cut('我爱北京天安门')print(text)

对于大型文本数据集,如果需要快速分词的话,我们也可以采用多线程的方式:

'''代码示例4'''import pkuseg#对input.txt的文件分词输出到output.txt中,使用默认模型和词典,开20个进程pkuseg.test('input.txt', 'output.txt', nthread=20)

最后,pkuseg 还能重新训练一个分词模型:

'''代码示例5'''import pkuseg​#训练文件为'msr_training.utf8',测试文件为'msr_test_gold.utf8',模型存到'./models'目录下,开20个进程训练模型pkuseg.train('msr_training.utf8', 'msr_test_gold.utf8', './models', nthread=20)

这些都是 GitHub 上的示例,详细的内容请参考 GitHub 项目,例如参数说明和参考论文等。

大家可以按照自己的需要,选择加载不同的模型。

除此之外,也可以用全新的标注数据,来训练新的模型。

代码示例

1代码示例1 使用默认模型及默认词典分词2import pkuseg3seg = pkuseg.pkuseg() #以默认配置加载模型4text = seg.cut('我爱北京天安门') #进行分词5print(text)1代码示例2 设置用户自定义词典2import pkuseg3lexicon = ['北京大学', '北京天安门'] #希望分词时用户词典中的词固定不分开4seg = pkuseg.pkuseg(user_dict=lexicon) #加载模型,给定用户词典5text = seg.cut('我爱北京天安门') #进行分词6print(text)1代码示例32import pkuseg3seg = pkuseg.pkuseg(model_name='./ctb8') #假设用户已经下载好了ctb8的模型并放在了'./ctb8'目录下,通过设置model_name加载该模型4text = seg.cut('我爱北京天安门') #进行分词5print(text)

如果想自己训练一个新模型的话:

1代码示例52import pkuseg3pkuseg.train('msr_training.utf8', 'msr_test_gold.utf8', './models', nthread=20) #训练文件为'msr_training.utf8',测试文件为'msr_test_gold.utf8',模型存到'./models'目录下,开20个进程训练模型

欲知更详细的用法,可前往文底传送门。

GitHub传送门:

论文传送门:

来源:部分内容参考机器之心:

编译出品

标签: #分词工具包