虫虫首页| 资源下载| 资源专辑| 精品软件
登录| 注册

中文分词

  • 庖丁解羊中文分词

    官方说明:“刨丁解羊中文分词器,主要用于对网络蜘蛛或网络爬虫抓取的网页进行分词,支持繁体中文分词、简体中文分词、英文分词,是制作通用搜索引擎和垂直搜索引擎的核心组件。该软件在普通PC机器上测试显示:TXT格式正文分词速度约为3000万字/分钟,网页分词速度约为277.8个网页/秒。该软件采用基础词库(63万词语)+扩展词库(用户可手工添加新词)。DLL及OCX调用请联系QQ(601069289)。” 很小的绿色中文分词软件,我也是从网上找到的,还是足够日常中一些小场景使用,对不懂程序的同学而言,可能用这样的小软件比去想办法自学程序再去研究一套分词工具出来要干脆。当然更复杂的需求,这个可能也解决不了。

    标签: 分词 分词软件 中文分词

    上传时间: 2017-10-21

    上传用户:hanboy

  • 最短路径法分词程序。将中文句子经过原子切分后生成一个有向无环图

    最短路径法分词程序。将中文句子经过原子切分后生成一个有向无环图,然后使用Dijkstra算法求出由起点到终点的最短路径以实现中文分词

    标签: 最短路径 程序

    上传时间: 2013-12-27

    上传用户:yulg

  • 庖丁分词模块

    庖丁分词模块,对中文分词效果不错,可以好好学习

    标签: 模块

    上传时间: 2014-11-12

    上传用户:waitingfy

  • 爱博汉语分词系统

    爱博汉语分词系统,是中文分词的商业话应用,非常好。

    标签: 汉语

    上传时间: 2016-09-28

    上传用户:zsjzc

  • 结巴分词包

    结巴中文分词包,使用Python进行编写的,比较好用  支持三种分词模式: - 精确模式,试图将句子最精确地切开,适合文本分析; - 全模式,把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义; - 搜索引擎模式,在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词。

    标签: 中文分词

    上传时间: 2018-06-04

    上传用户:吓人的土豆

  • 中文文本分类中对文本进行分词处理

    中文文本分类中对文本进行分词处理,以降温本表示称词的集合,然后用词向量来进行分类。

    标签: 文本分类

    上传时间: 2013-12-26

    上传用户:小草123

  • 一段关于中文信息分类的分词算法

    一段关于中文信息分类的分词算法,他实现了信息过滤中的分词,为信息过滤的分类打下基础

    标签: 分类 算法

    上传时间: 2013-12-26

    上传用户:zhaoq123

  • 中文信息处理方面的一个源码。此为一个分词软件

    中文信息处理方面的一个源码。此为一个分词软件,这个分词的算法虽然简单,但是原理和其他相同,是最大概率法分次。功能强大,代码简洁易懂。

    标签: 信息处理 方面 源码

    上传时间: 2016-01-05

    上传用户:hxy200501

  • 一个用java语言编写的中文文本分词算法

    一个用java语言编写的中文文本分词算法

    标签: java 语言 编写

    上传时间: 2013-12-06

    上传用户:zsjinju

  • 中文信息处理的分词词库

    中文信息处理的分词词库,百度分词词库,用于中文信息处理的词库分析和源程序链接

    标签: 信息处理

    上传时间: 2016-05-22

    上传用户:标点符号