找到相关仓库约为922个
搜索工具
排序方式:
最多forks
地区、PE值、总资产、流动资产、固定资产、留存资产等) 对抓取的新闻文本按照,去停用词、加载新词、分词的顺序进行处理 利用前两步中所获取的股票名称和分词后的结果,抽取出每条新闻里所包含的(0支、1支或多支)股票名称,并将所对应的所有股票代码,组合成与该
Surfing-Segment是一个先进的文本分词工具,专门增强ik-analyzer。包含多个自定义词典,动态识别型号、同义词功能、elasticsearch插件等功能。显著的增强了对专业术语及复杂型号的分词精确度。是电商平台优化体验的理想选择。
OpenNLP 是一个机器学习工具包,用于处理自然语言文本。支持大多数常用的 NLP 任务,例如:标识化、句子切分、部分词性标注、名称抽取、组块、解析等
一个好用的数据查重引擎。包含了数据建模,清洗算法设计,查重,结构导出等功能。查重的算法中对数据每个属性均可以设定权重和灵活选择比对算法。使用的中文分词引擎对较长中文句子进行分司和比对。
sphinx结合结巴分词,在 https://github.com/frankee/sphinx-jieba 基础上解决了安装出错问题
基于结巴分词java版实现(https://github.com/huaban/jieba-analysis)进行的改进,以适用于词频统计
推荐博客
...