找到相关仓库约为899个
搜索工具
排序方式:
最多watches
为应用提供全文检索功能,目前的版本(2.x 3.x)基于 Sphinx 0.9.8,支持使用 Python 定义数据源,支持中文分词
elasticsearch-jieba-plugin 是 Jieba 中文分词插件
snailseg:Chinese Words Segment Library in Python 简单的中文分词库 在线分词效果展示 https://snailsegdemo.ap
PHPAnalysis分词程序使用居于unicode的词库,使用反向匹配模式分词,理论上兼容编码更广泛,并且对utf-8编码尤为方便。 由于PHPAnalysis是无组件的系统,因此速度会比有组件的稍慢,不过在大量分词中,由于边分词边完成词库载入,因此内
首先感谢jieba分词原作者fxsjy,没有他的无私贡献,我们也不会结识到结巴 分词,更不会有现在的java版本
FoolNLTK 中文处理工具包 特点 可能不是最快的开源中文分词,但很可能是最准的开源中文分词 基于BiLSTM模型训练而成 包含分词,词性标注,实体识别, 都有比较高的准确率
推荐博客
...