找到相关仓库约为899个
搜索工具
排序方式:
最多stars
基于开源hanlp基础上,拆分和优化而形成的自然语言理解组件库,提供拼音转换、简繁体转换、关键字抽取、自动摘要、自动聚类、文本分类、分词等能力
用于医疗大数据处理的文本信息分类模型首先使用分词算法与doc2vec算法计算文本间的相似度,然后使用KNN聚类方法对文本进行有效聚类。将医生的医嘱文本信息转换为0-1标签信息,方便预测模型进行进一步处理。为了限制项目内存消耗数据做过阉割
python3 django2 结合jieba,wordcloud讲excel中内容分词后生成词云,显示到web页面
啊哈自然语言处理包,提供包括分词、依存句法分析、自动摘要、语义相似度计算、LDA 主题预测、词云等服务。
选择一本喜欢的小说,对该小说进行分析。比如分析该小说的分词,词频,词性,小说人物出场次数排序,小说中食物排序(这个得有,我喜欢吃),小说人物关系等等。
MMSegmentation 是一个基于 PyTorch 的语义分割开源工具箱。它是 OpenMMLab 项目的一部分
中文分词器,这么好用,作者居然不更新了 http://git.oschina.net/wltea/IK-Analyzer-2012FF
推荐博客
...