找到相关仓库约为1042个
搜索工具
排序方式:
最多stars
sphinx结合结巴分词,在 https://github.com/frankee/sphinx-jieba 基础上解决了安装出错问题
自然语言处理探索入门的整个心路历程都记录在这个工程下面。保存的内容有: 中文分词: Ansj 复旦大学(fnlp) 中科院(nlp) 斯坦福(Stanford segments、Stanford ner、Stanford pos tagger、Stanford
基于java开发的,在springBoot框架上开发的,用到了redis,mongoDB,ElasticSearch IK及其中文分词,搭建fastdfs文件系统,以及rabbitmq,即时通讯用的环信,mysql数据库脚本已没有,需要自己再根据自己需求设计,该项目仅供参考
springmvc集成Elasticsearch实现一个简单的全文检索系统,系统包含tika提取文件内容,hanlp进行自然分词、提取短语关键字等
首先感谢jieba分词原作者fxsjy,没有他的无私贡献,我们也不会结识到结巴 分词,更不会有现在的java版本
推荐博客
...