找到相关仓库约为869个
搜索工具
排序方式:
最多stars
OpenNLP 是一个机器学习工具包,用于处理自然语言文本。支持大多数常用的 NLP 任务,例如:标识化、句子切分、部分词性标注、名称抽取、组块、解析等
仿照Sphinx for Chinese,基于sphinx 2.2.9版本,结合cppJieba分词系统,让sphinx支持中文
基于ik-analyzer分词器,在其基础上实现对不同版本的lucene兼容,ik-analyzer项目主页地址为:https://code.google.com/archive/p/ik-analyzer/
地区、PE值、总资产、流动资产、固定资产、留存资产等) 对抓取的新闻文本按照,去停用词、加载新词、分词的顺序进行处理 利用前两步中所获取的股票名称和分词后的结果,抽取出每条新闻里所包含的(0支、1支或多支)股票名称,并将所对应的所有股票代码,组合成与该
个人毕设所做项目-“基于词典的中文微博细粒度情感分析系统的设计与实现”,简称WEA,后台主要用到网络爬虫,NLPIR中文分词,XML解析,情感分析算法,图片转换,前端是采用div+css网页布局,利用AJAX,JavaScript以及Highchart
目,使用2个经典案例(百度地图找房+文章内容搜索),演示es常用的功能及代码原生写法和简化写法(easy-es)~支持高亮,分词,Geo等功能
利用IK分词器,扩展了solr4.7.2,luence4.7.2,拼音分词,基于IK2012FF,JDK1.6,
聊天机器人,客服机器人 HTML5版 首先从根据录入的聊天内容,进行分词,然后分析(通过分词软件)出关键词,然后在本地sqlite 库 查询关键字,如果没有查询第三方图灵机器人接口。可做简单的客服。采用javascript+php
论文中用到的部分基础文本分析技术(包括分词、去除停用词、word2vec、TF-IDF、词云图、名称提取、词性标注、LDA主题模型)
推荐博客
...