您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 中文分词包

  2. 采用MMseg算法实现的中文分词器,特色是是使用搜狗词库
  3. 所属分类:Java

    • 发布日期:2012-12-26
    • 文件大小:2097152
    • 提供者:lee_xiong
  1. 常用中文分词库

  2. 词库文件,适合配合中文分词,例如庖丁解牛
  3. 所属分类:其它

    • 发布日期:2012-12-26
    • 文件大小:1048576
    • 提供者:zheng198212
  1. jcseg java中文分词

  2. friso是使用c语言开发的一个中文分词器,使用流行的mmseg算法实现。完全基于模块化设计和实现,可以很方便的植入到其他程序中,例如:MySQL,PHP等。
  3. 所属分类:C

    • 发布日期:2013-01-04
    • 文件大小:861184
    • 提供者:yangjian8801
  1. 中文分词算法程序

  2. 用C++写的一个中文分词算法程序,主要对文章语句进行分词处理。
  3. 所属分类:C++

    • 发布日期:2013-01-15
    • 文件大小:15728640
    • 提供者:yt83970023
  1. 中文分词器 IK

  2. 中文分词器 IK包,完美支持中文和英文分词,还可以配置
  3. 所属分类:Java

    • 发布日期:2013-01-25
    • 文件大小:1048576
    • 提供者:yinjian520
  1. 带词性中文分词_支持数据挖掘

  2. Java语言开发带词性的中文分词,支持快速启动模式,最准确模式和数据挖掘模式,另外需要一个util.jar工具包,在我共享资源里有下载,程序代码本人未能严格考虑其性能,但现在改进后感觉还算满意,如果下载使用者觉得需要改进则自行改进,源代码在jar包内,敬请大家指教,方便的话可以email联系。
  3. 所属分类:Java

    • 发布日期:2008-08-25
    • 文件大小:1048576
    • 提供者:zhima_2008
  1. IKAnalyzer中文分词器使用手册

  2. IKAnalyzer中文分词器V3.1.3使用手册.pdf
  3. 所属分类:专业指导

    • 发布日期:2013-02-08
    • 文件大小:404480
    • 提供者:arrow734
  1. 中文分词的小系统

  2. 中文分词得小系统,基本功能已实现,但还有很多地方有待改进,没有实现自动学习,人名识别等功能
  3. 所属分类:C++

    • 发布日期:2013-02-19
    • 文件大小:1048576
    • 提供者:qq1377203712
  1. 正向最大匹配中文分词算法

  2. 中文分词一直都是中文自然语言处理领域的基础研究。目前,网络上流行的很多中文分词软件都可以在付出较少的代价的同时,具备较高的正确率。而且不少中文分词软件支持Lucene扩展。但不管实现如何,目前而言的分词系统绝大多数都是基于中文词典的匹配算法。其中最为常见的是最大匹配算法 (Maximum Matching,以下简称MM算法) 。MM算法有三种:一种正向最大匹配,一种逆向最大匹配和双向匹配。本程序实现了正向最大匹配算法。
  3. 所属分类:C++

    • 发布日期:2013-02-26
    • 文件大小:3145728
    • 提供者:lewsn2008
  1. 中文分词pscws,重新修改了核心代码

  2. 中文分词pscws,很出名的,我在原来的基础重新修改了核心代码,原来的分词有局限性,比如助词没去掉,分出来很多没用的单个字。商店名称没办法分出,变成都是单字的,比如:我佳牛排,分出的是:我 佳 牛排,而不是:我佳 牛排,这样导致全文索引搜索不准确。本代码已经做了修正。(有带Demo)
  3. 所属分类:MySQL

    • 发布日期:2013-02-26
    • 文件大小:3145728
    • 提供者:zengzhenkun
  1. 横瓜中文分词器

  2. 横瓜中文分词器,主要用于对网络蜘蛛或网络爬虫抓取的网页进行分词,支持繁体中文分词、简体中文分词、英文分词,是制作通用搜索引擎和垂直搜索引擎的核心组件。该软件在普通PC机器上测试显示:TXT格式正文分词速度约为3000万字/分钟,网页分词速度约为277.8个网页/秒。该软件采用基础词库(63万词语)+扩展词库(用户可手工添加新词)。
  3. 所属分类:Web开发

  1. 中文分词器

  2. 中文分词器 IKAnalyzer 分词 Query Lucene 关于中文分词的技术。内附文档 可以直接使用
  3. 所属分类:Java

    • 发布日期:2013-02-27
    • 文件大小:2097152
    • 提供者:xiyuliuguang274
  1. 中文分词演示系统(跨平台)论文

  2. 中文分词演示系统(跨平台)论文 主演介绍中文分词的实现方法与技术
  3. 所属分类:专业指导

  1. 中文分词算法研究整理资料

  2. 中文分词算法研究整理资料
  3. 所属分类:其它

    • 发布日期:2013-03-22
    • 文件大小:27262976
    • 提供者:lorkingsky
  1. 浅谈ICTCLAS中科院中文分词

  2. 中科院分词,最流行的中文分词,我的总结。
  3. 所属分类:专业指导

    • 发布日期:2008-08-28
    • 文件大小:548864
    • 提供者:soul20040103
  1. 中文分词用统计词频词典,一词一行

  2. 中文分词用统计词频词典,一词一行,txt文本保存
  3. 所属分类:其它

    • 发布日期:2013-03-27
    • 文件大小:2097152
    • 提供者:cseedwyt
  1. windows中文分词系统(支持web的post调用

  2. 支持http post的windows下中文分词系统。最多支持 800个汉字左右的分词,暂时只支持gb2312编码,其他编码则需要转换使用
  3. 所属分类:其它

    • 发布日期:2013-04-03
    • 文件大小:8388608
    • 提供者:jilieryuyi
  1. 基于VC++中文分词

  2. 改程序完成了对中文分词的基本操作,提供了分词词典和基本的功能模块
  3. 所属分类:C++

    • 发布日期:2013-04-09
    • 文件大小:17825792
    • 提供者:u010226770
  1. 中文分词器nlpir Java32位开发接口

  2. 需配合完整开发包使用,NLPIR汉语分词系统(又名ICTCLAS2013),主要功能包括中文分词;词性标注;命名实体识别;用户词典功能;支持GBK编码、UTF8编码、BIG5编码。新增微博分词、新词发现与关键词提取;张华平博士先后倾力打造十余年,内核升级10次。 全球用户突破20万,先后获得了2010年钱伟长中文信息处理科学技术奖一等奖,2003年国际SIGHAN分词大赛综合第一名,2002年国内973评测综合第一名。
  3. 所属分类:Java

    • 发布日期:2013-04-15
    • 文件大小:788480
    • 提供者:wskings
  1. 中文分词与关键词提取(NLPIR java版)

  2. NLPIR汉语分词系统(又名ICTCLAS2013),主要功能包括中文分词;词性标注;命名实体识别;用户词典功能;支持GBK编码、UTF8编码、BIG5编码。新增微博分词、新词发现与关键词提取;这个是java版本
  3. 所属分类:其它

    • 发布日期:2013-04-24
    • 文件大小:3145728
    • 提供者:tiancaiywt
« 1 2 ... 7 8 9 10 11 1213 14 15 16 17 ... 50 »