仓库 Issues 博客
语言: 全部
排序: 最多watches
找到相关仓库约为915
搜索工具
北京邮电大学机器学习创新实践课程大作业,实现了类 jieba 库的中文分词与标记算法以及 TextRank 关键词提取算法
Python 3 0 0 更新于 2023-12-17
tarter便可开始你的项目。封装了数据库操作、认证授权、单点登录、文档操作、工作流、统一支付、WebSocket/Sse、分词敏感词过滤、钉钉通知、微信SDK等各种开箱即用的Starter。还有中间件(如Es、Mq、Flink等)、各场景下应用解决方案的代码示例。
Java 3 110 21 更新于 2024-02-23
scseg中文分词,是基于mmseg的简单分词组件 Feature 支持pinyin分词 支持用户自定义词典 支持单位合并 支持汉字数字识别 Install pip install
Python 3 0 0 更新于 2023-09-13
MySQL 结巴中文分词插件 SqlJieba  『关键词』 MySQL, 插件(Plugin), 中文分词, 结巴分词(Jieba), 全文检索(Full-Text), SqlJ
C/C++ 3 0 0 更新于 2023-09-13
mmseg4j core 使用 Chih-Hao Tsai 的 MMSeg 算法实现的中文分词器。
Java 3 0 0 更新于 2023-09-12
FoolNLTK 中文处理工具包 特点 可能不是最快的开源中文分词,但很可能是最准的开源中文分词 基于BiLSTM模型训练而成 包含分词,词性标注,实体识别, 都有比较高的准确率
3 1 2 更新于 2023-09-12
GoJieba 是 Jieba 分词 (结巴中文分词)的 Golang 语言版本分词
3 1 0 更新于 2023-09-12
lucene 中 smartcn 分词器使用自带的词库,在工作中,需要扩展词库,而自带的词库是使用自然语言处理生成的词库,如果我们已有词库或者不想通过自然语言处理构建词库时,可使用
3 0 0 更新于 2023-09-12
lucene 中 smartcn 分词器使用自带的词库,在工作中,需要扩展词库,而自带的词库是使用自然语言处理生成的词库,如果我们已有词库或者不想通过自然语言处理构建词库时,可使用
Java 3 1 0 更新于 2023-09-12
中文词库/词典,可用于NLP项目、分词等场景。
3 5 5 更新于 2023-12-20
中文分词器,这么好用,作者居然不更新了 http://git.oschina.net/wltea/IK-Analyzer-2012FF
Java 2 2 0 更新于 2020-12-18

推荐博客

...