找到相关仓库约为839个
搜索工具
排序方式:
最佳匹配
是一款用于Go 语言的文本处理库(主要是英文),支持 okenization(标记化)、part-of-speech tagging(词性标注)、named-entit
PHPAnalysis分词程序使用居于unicode的词库,使用反向匹配模式分词,理论上兼容编码更广泛,并且对utf-8编码尤为方便。 由于PHPAnalysis是无组件的系统,因此速度会比有组件的稍慢,不过在大量分词中,由于边分词边完成词库载入,因此内容越
The IK Analysis plugin integrates Lucene IK analyzer (http://code.google.com/p/ik-analyzer/) into opensearch, support customized
基于ik-analyzer分词器,在其基础上实现对不同版本的lucene兼容,ik-analyzer项目主页地址为:https://code.google.com/archive/p/ik-analyzer/
中文词法分析(LAC) 中文分词(Word Segmentation)是将连续的自然语言文本,切分出具有语义合理性和完整性的词汇序列的过程
基于人民日报语料库,实现以下操作:加载语料库进行n-gram词频统计生成词典;用生成的词典生成有意义的语句;对任意输入语句进行正确分词,实现FMM和BMM的分词方法。有GUI界面
中文爬虫的代码,需不断维护(故只是个selenium+chromedriver+demo,欢迎白嫖); 主要是使用gensim分词基于词频修正jieba中文分词误拆分(其他什么的分词也可以)
推荐博客
...