找到相关仓库约为894个
搜索工具
排序方式:
最多watches
基于 NLP 技术实现的中文分词插件,准确度比常用的分词器高太多,同时提供 ElasticSearch 和 OpenSearch 插件。
利用IK分词器,扩展了solr4.7.2,luence4.7.2,拼音分词,基于IK2012FF,JDK1.6,
pkuseg-python:一个高准确度的中文分词工具包 pkuseg-python 简单易用,支持多领域分词,在不同领域的数据上都大幅提高了分词的准确率
一个好用的数据查重引擎。包含了数据建模,清洗算法设计,查重,结构导出等功能。查重的算法中对数据每个属性均可以设定权重和灵活选择比对算法。使用的中文分词引擎对较长中文句子进行分司和比对。
Java开源项目cws_evaluation:中文分词器分词效果评估。本站是cws_evaluation在Github的镜像站点,仅做备份使用。
个人毕设所做项目-“基于词典的中文微博细粒度情感分析系统的设计与实现”,简称WEA,后台主要用到网络爬虫,NLPIR中文分词,XML解析,情感分析算法,图片转换,前端是采用div+css网页布局,利用AJAX,JavaScript以及Highchart
xmnlp 是一个轻量级中文自然语言处理工具,提供中文分词, 词性标注, 命名体识别,情感分析,文本纠错,文本转拼音,文本摘要,偏旁部首等功能
推荐博客
...