找到相关仓库约为957个
搜索工具
排序方式:
最佳匹配
我打算DIY一个智能家居项目,需要对语句进行中文分词,之前想用jieba做,但是jieba的速度很是无奈,不适合做实时语音信息提取,所以根据分词算法编写了这个工具。
基于人民日报语料库,实现以下操作:加载语料库进行n-gram词频统计生成词典;用生成的词典生成有意义的语句;对任意输入语句进行正确分词,实现FMM和BMM的分词方法。有GUI界面
推荐博客
...