找到相关仓库约为886个
搜索工具
排序方式:
最佳匹配
我打算DIY一个智能家居项目,需要对语句进行中文分词,之前想用jieba做,但是jieba的速度很是无奈,不适合做实时语音信息提取,所以根据分词算法编写了这个工具。
基于人民日报语料库,实现以下操作:加载语料库进行n-gram词频统计生成词典;用生成的词典生成有意义的语句;对任意输入语句进行正确分词,实现FMM和BMM的分词方法。有GUI界面
中文爬虫的代码,需不断维护(故只是个selenium+chromedriver+demo,欢迎白嫖); 主要是使用gensim分词基于词频修正jieba中文分词误拆分(其他什么的分词也可以)
推荐博客
...