找到相关仓库约为741个
搜索工具
排序方式:
最多watches
FudanNLP:复旦大学自然语言处理实验室开发的中文自然语言处理工具包,包含信息检索: 文本分类、新闻聚类;中文处理: 中文分词、词性标注、实体名识别、关键词抽取、依存句法分析、时间短语识别;结构化学习: 在线学习、层次分类、聚类。 Github地址:https://github
对jieba分词工具的分词效果进行评测。采取的标准是bakeoff2005的评测标准,采取的语料是来自于北京大学的语料(pku_test.utf8)。
使用seqtoseq神经网络用于特定领域中的精确中文分词Python
y的web服务器,方便各大语言直接http调用,同时提供了最新版本的lucene, solr, elasticsearch的分词接口!
comments analyzing toolbox in Chinese 微博评论分析工具, 实现功能: 1.微博评论数据爬取; 2.分词与关键词提取; 3.词云与词频统计; 4.情感分析; 5.主题聚类
Jiagu深度学习自然语言处理工具 知识图谱关系抽取 中文分词 词性标注 命名实体识别 情感分析 新词发现 关键词 文本摘要 文本聚类
探索了在中文上产生的一些额外的挑战,包括中文问题对英文数据库的对应问题(question-to-DBmapping)、中文的分词问题以及一些其他的语言现象。 挑战赛链接:https://taolusi.github.io/CSpider-explorer/
推荐博客
...