找到相关仓库约为922个
搜索工具
排序方式:
最多forks
elasticsearch-jieba-plugin 是 Jieba 中文分词插件
PHPAnalysis分词程序使用居于unicode的词库,使用反向匹配模式分词,理论上兼容编码更广泛,并且对utf-8编码尤为方便。 由于PHPAnalysis是无组件的系统,因此速度会比有组件的稍慢,不过在大量分词中,由于边分词边完成词库载入,因此内
中文自然语言处理工具集【断句/分词/词性标注/组块/句法分析/语义分析/NER/N元语法/HMM/代词消解/情感分析/拼写检查】
库MongoDB则用来存放json格式的格式化数据,应用可视化工具Echarts辅助绘制关系图实现知识关系可视化,利用LTP分词模型和相似词典相结合实现知识查询,设计并完成了《骆越演义》知识可视化系统。
Lucene分词 解析收货地址 单省市区 省市区街道收件人详细地址 参考:https://github.com/IOrzo/chineseaddressanalyzer
ansj分词.ict的真正java实现.分词效果速度都超过开源版的ict. 中文分词,人名识别,词性标注,用户自定义词典
自然语言处理 中文分词 词性标注 命名实体识别 依存句法分析 新词发现 关键词短语提取 自动摘要 文本分类聚类 拼音简繁
ient、ElasticsearchTemplate 三种java 客户端,包含索引创建 删除、数据增删改查、批量操作,以及分词、高亮查询等。。。
推荐博客
...