您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 中文分词开发工具

  2. 用于将中文字段进行分词,分词之后方便后续文本处理
  3. 所属分类:Java

    • 发布日期:2013-07-29
    • 文件大小:2097152
    • 提供者:u011518657
  1. 中英文 分词

  2. 中英文的 停用词删除 词干提取 中文分词 含绝大部分代码
  3. 所属分类:C/C++

    • 发布日期:2013-08-05
    • 文件大小:1048576
    • 提供者:wangjiao528
  1. 中科院分词软件2013版基础包

  2. 这是一个中科院中文词法分析器,能对输入的文本进行分词,词性标注,2013基础版的
  3. 所属分类:专业指导

    • 发布日期:2013-10-13
    • 文件大小:5242880
    • 提供者:u011832823
  1. 中科院ICTCLAS分词系统认识与代码研究

  2. 中科院ICTCLAS分词系统是值得学习和研究,是目前中文分词系统中公认的最为完善的一个,但其缺乏文档使很多爱好者带来极大的困难,参考他人意见,结合代码对其内部进行简要分析。
  3. 所属分类:专业指导

    • 发布日期:2008-09-24
    • 文件大小:92160
    • 提供者:JustinpanRobot
  1. 中科院分词系统

  2. 中科院开发的开源中文分词系统。 可以作为自然语言处理的预处理工具。
  3. 所属分类:C

    • 发布日期:2013-10-29
    • 文件大小:3145728
    • 提供者:u012607649
  1. friso分词开发文档

  2. friso是c语言开发的中文分词器 完全基于模块化设计和实现
  3. 所属分类:C

    • 发布日期:2013-10-30
    • 文件大小:352256
    • 提供者:zhu_x_xiao
  1. 30万 中文分词词库

  2. 30万 中文分词词库精心整理。
  3. 所属分类:互联网

    • 发布日期:2013-11-17
    • 文件大小:7340032
    • 提供者:xiangkun1
  1. 中文 分词 -- 同义词大全整理

  2. 同义词的处理方法: 作者Attilax 艾龙, EMAIL:1466519819@qq.com 来源:attilax的专栏 地址:http://blog.csdn.net/attilax 去重复 去反意词 合并多词条 a,b>>> a,b,c,d,... tonitsi1_deduli_deFei.txt 14797条词条 tonitsi1_deduli_deFei_join.txt 大概6734条词条 参考: │ 0两万同义词大全.txt │ 1伪原创同义词库(13000条
  3. 所属分类:其它

    • 发布日期:2013-11-25
    • 文件大小:95232
    • 提供者:attilax
  1. JAVA版本,每秒约10万汉字,基于词典的中文纯文本分词程序

  2. java版本基于词典匹配,速度为每秒约10万个汉字,本人测试。同时生成倒排索引,倒排索引包含了对于分词的相关信息,如词频。若有Bug可与我联系。
  3. 所属分类:Java

    • 发布日期:2013-12-20
    • 文件大小:124928
    • 提供者:zhukova
  1. 百度分词词库

  2. 中文分词不同于英文分词。该数据集是百度中文分词词库。
  3. 所属分类:其它

    • 发布日期:2014-01-02
    • 文件大小:425984
    • 提供者:nacozz
  1. 分词器NLPIR

  2. 目前NLPIR汉语分词系统(又名ICTCLAS2013),主要功能包括中文分词;词性标注;命名实体识别;用户词典功能;支持GBK编码、UTF8编码、BIG5编码。新增微博分词、新词发现与关键词提取;张华平博士先后倾力打造十余年,内核升级10次。国内国际排名均为第一。 项目已经配置好环境,导入Eclipse即可使用,文件内src下的TestUTF8.java可以直接运行,提供了分词接口
  3. 所属分类:Java

    • 发布日期:2014-01-21
    • 文件大小:4194304
    • 提供者:reacherxu
  1. scws中文分词源码包

  2. scws是 基于词频词典的中文分词系统,源码包中含有win下php的dll拓展.测试可用
  3. 所属分类:互联网

    • 发布日期:2014-03-17
    • 文件大小:435200
    • 提供者:qq564766474
  1. 结巴中文分词源代码

  2. 中文分词、标注系统源代码,我用过挺好的跟大家分享一下
  3. 所属分类:Python

    • 发布日期:2014-04-11
    • 文件大小:9437184
    • 提供者:jkkl2016
  1. 中科院分词工具

  2. 一款很好用的分词工具,目前中文分词领域最好的分词工具包
  3. 所属分类:Java

    • 发布日期:2014-05-05
    • 文件大小:1048576
    • 提供者:u012554540
  1. Java Lucene IKAnalyzer 3.2.3stable_bin.rar IK分词器

  2. IK Analyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始, IKAnalyzer已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IK Analyzer 3.0则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。
  3. 所属分类:Java

    • 发布日期:2014-06-05
    • 文件大小:1048576
    • 提供者:hongchongyuan
  1. 中分分词与分词性能评测代码及详细设计文档

  2. 通过本资源了解中文分词的意义,在实现正向、逆向最大匹配分词算法的过程中,加深对自然语言理解原理的探讨兴趣。本资源内含详细的代码设计分档、测试语料、源代码以及多个自己制作的语料库词典,分别实现了正、逆向最大匹配中文分词,并且设计了算法对分词效果进行了详细的评测,可以对大作业乃至毕业设计提供巨大的帮助.
  3. 所属分类:C++

    • 发布日期:2014-06-09
    • 文件大小:4194304
    • 提供者:u014132695
  1. 中文热门词库(155073)

  2. 中文热门词库(155073) 数据数量:155073 最后更新:2007/06 数据说明:包括了词性的划分,可以用于搜索时的分词.
  3. 所属分类:专业指导

    • 发布日期:2008-10-17
    • 文件大小:7340032
    • 提供者:jiamingwudi
  1. thinkphp 3.1.3 分词完整版

  2. thinkphp 3.1.3 分词完整版,可以直接放到框架中直接使用,非常实用!
  3. 所属分类:PHP

    • 发布日期:2014-07-07
    • 文件大小:5242880
    • 提供者:huangjianbao
  1. 分词系统NLPIR2013

  2. NLPIR汉语分词系统(又名ICTCLAS2013),主要功能包括中文分词;词性标注;命名实体识别;用户词典功能;支持GBK编码、UTF8编码、BIG5编码。新增微博分词、新词发现与关键词提取;张华平博士先后倾力打造十余年,内核升级10次。 全球用户突破20万,先后获得了2010年钱伟长中文信息处理科学技术奖一等奖,2003年国际SIGHAN分词大赛综合第一名,2002年国内973评测综合第一名。
  3. 所属分类:Java

    • 发布日期:2014-07-13
    • 文件大小:7340032
    • 提供者:qq_15192337
  1. 解决NLPIR-ICTCLAS2014分词系统词库过大,造成读取缓慢问题

  2. 解决NLPIR-ICTCLAS2014分词系统词库过大,造成读取缓慢问题 需要结合我的blog来看: http://blog.csdn.net/zengraoli/article/details/38369969
  3. 所属分类:C++

    • 发布日期:2014-08-04
    • 文件大小:24117248
    • 提供者:zengraoli
« 1 2 ... 42 43 44 45 46 4748 49 50 »