找到相关仓库约为1078个
搜索工具
排序方式:
最佳匹配
PHPAnalysis分词程序使用居于unicode的词库,使用反向匹配模式分词,理论上兼容编码更广泛,并且对utf-8编码尤为方便。 由于PHPAnalysis是无组件的系统,因此速度会比有组件的稍慢,不过在大量分词中,由于边分词边完成词库载入,因此内
中文爬虫的代码,需不断维护(故只是个selenium+chromedriver+demo,欢迎白嫖); 主要是使用gensim分词基于词频修正jieba中文分词误拆分(其他什么的分词也可以)
我打算DIY一个智能家居项目,需要对语句进行中文分词,之前想用jieba做,但是jieba的速度很是无奈,不适合做实时语音信息提取,所以根据分词算法编写了这个工具。
基于人民日报语料库,实现以下操作:加载语料库进行n-gram词频统计生成词典;用生成的词典生成有意义的语句;对任意输入语句进行正确分词,实现FMM和BMM的分词方法。有GUI界面
目标:符系技术路线的汉语实现---H语言; 本案以node.js宿主环境为例,尝试建立汉语版的符系系统“词典”(即:系统预设的中文关键词、符号)示范,详见readme文件声明。
推荐博客
...