找到相关仓库约为992个
搜索工具
排序方式:
最多stars
个人毕设所做项目-“基于词典的中文微博细粒度情感分析系统的设计与实现”,简称WEA,后台主要用到网络爬虫,NLPIR中文分词,XML解析,情感分析算法,图片转换,前端是采用div+css网页布局,利用AJAX,JavaScript以及Highchart
利用IK分词器,扩展了solr4.7.2,luence4.7.2,拼音分词,基于IK2012FF,JDK1.6,
聊天机器人,客服机器人 HTML5版 首先从根据录入的聊天内容,进行分词,然后分析(通过分词软件)出关键词,然后在本地sqlite 库 查询关键字,如果没有查询第三方图灵机器人接口。可做简单的客服。采用javascript+php
库MongoDB则用来存放json格式的格式化数据,应用可视化工具Echarts辅助绘制关系图实现知识关系可视化,利用LTP分词模型和相似词典相结合实现知识查询,设计并完成了《骆越演义》知识可视化系统。
Java开源项目cws_evaluation:中文分词器分词效果评估。本站是cws_evaluation在Github的镜像站点,仅做备份使用。
推荐博客
...