找到相关仓库约为922个
搜索工具
排序方式:
最多forks
elasticsearch-jieba-plugin 是 Jieba 中文分词插件
PHPAnalysis分词程序使用居于unicode的词库,使用反向匹配模式分词,理论上兼容编码更广泛,并且对utf-8编码尤为方便。 由于PHPAnalysis是无组件的系统,因此速度会比有组件的稍慢,不过在大量分词中,由于边分词边完成词库载入,因此内
中文自然语言处理工具集【断句/分词/词性标注/组块/句法分析/语义分析/NER/N元语法/HMM/代词消解/情感分析/拼写检查】
库MongoDB则用来存放json格式的格式化数据,应用可视化工具Echarts辅助绘制关系图实现知识关系可视化,利用LTP分词模型和相似词典相结合实现知识查询,设计并完成了《骆越演义》知识可视化系统。
Lucene分词 解析收货地址 单省市区 省市区街道收件人详细地址 参考:https://github.com/IOrzo/chineseaddressanalyzer
基于springboot、websocket的简易聊天室,并分词使用echarts进行词频可视化展示,新人练手向
HanLP作者的新书《自然语言处理入门》详细笔记!业界良心之作,书中不是枯燥无味的公式罗列,而是用白话阐述的通俗易懂的算法模型。从基本概念出发,逐步介绍中文分词、词性标注、命名实体识别、信息抽取、文本聚类、文本分类、句法分析这几个热门问题的算法原理与工程实现。
一个简单的相似度比对核心。将一片文章拆分一句一句的跟另一篇进行比对,分词使用盘古分词。支持重写比对方法实现自己的比对。
推荐博客
...