- 基于 CPU 的高性能、持续优化 中文分词器。
-
基于 C 优化的 Python 接口分词器,单进程运行性能达 5.2 万字/秒,多个分词工具性能对比
-
网页版 JioNLP源站,可快速试用分词、词性标注功能
-
基于 CRF 算法,精细优化的 字符特征工程,模型特征说明
-
对模型文件的尽力压缩,500万特征参数,模型文件大小30M,方便 pip 安装
-
将词典静态、动态加入模型,共同预测分词序列,流程一致性强,词典配置说明
-
将规则加入模型,有效克服某些类型文本受限于模型处理的情况,分词-添加正则
-
支持词性标注功能,与 JioNLP 联合实现关键短语抽取、新闻地域识别 等功能
- pip 方式(稳定版本)
$ pip install jiojio
- Git 方式(开发版本)
$ git clone https://github.com/dongrixinyu/jiojio
$ cd jiojio
$ pip install .
- 基础方式
>>> import jiojio
>>> jiojio.init()
>>> print(jiojio.cut('开源软件应秉持全人类共享的精神,搞封闭式是行不通的。'))
# ['开源', '软件', '应', '秉持', '全人类', '共享', '的', '精神', ',', '搞', '封闭式', '是', '行', '不通', '的', '。']
# 可通过 jiojio.help() 获取基本使用方式说明
# 可通过 print(jiojio.init.__doc__) 获取模型初始化的各类参数
- 对分词器效果做标注数据更新,模型长期优化
- 欢迎加入自然语言处理NLP交流群,搜索wx公众号“一个Bug”,或扫以下码即可入群