找到相关仓库约为892个
搜索工具
排序方式:
最多stars
xmnlp 是一个轻量级中文自然语言处理工具,提供中文分词, 词性标注, 命名体识别,情感分析,文本纠错,文本转拼音,文本摘要,偏旁部首等功能
数据库模型映射,自动建表, 自动更新表,数据增删改查, FTS全文搜索, 支持自定义fts3,4,5分词器,可拼音分词. sql,fmdb,wcdb,sqlite3,orm,fts,fts3,fts4,fts5
基于ik-analyzer分词器,在其基础上实现对不同版本的lucene兼容,ik-analyzer项目主页地址为:https://code.google.com/archive/p/ik-analyzer/
仿照Sphinx for Chinese,基于sphinx 2.2.9版本,结合cppJieba分词系统,让sphinx支持中文
论文中用到的部分基础文本分析技术(包括分词、去除停用词、word2vec、TF-IDF、词云图、名称提取、词性标注、LDA主题模型)
地区、PE值、总资产、流动资产、固定资产、留存资产等) 对抓取的新闻文本按照,去停用词、加载新词、分词的顺序进行处理 利用前两步中所获取的股票名称和分词后的结果,抽取出每条新闻里所包含的(0支、1支或多支)股票名称,并将所对应的所有股票代码,组合成与该
个人毕设所做项目-“基于词典的中文微博细粒度情感分析系统的设计与实现”,简称WEA,后台主要用到网络爬虫,NLPIR中文分词,XML解析,情感分析算法,图片转换,前端是采用div+css网页布局,利用AJAX,JavaScript以及Highchart
利用IK分词器,扩展了solr4.7.2,luence4.7.2,拼音分词,基于IK2012FF,JDK1.6,
聊天机器人,客服机器人 HTML5版 首先从根据录入的聊天内容,进行分词,然后分析(通过分词软件)出关键词,然后在本地sqlite 库 查询关键字,如果没有查询第三方图灵机器人接口。可做简单的客服。采用javascript+php
推荐博客
...