您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. linux下中文分词系统

  2. linux下的中文分词工具 源代码,支持繁体。分词精度很高。
  3. 所属分类:C

    • 发布日期:2013-05-02
    • 文件大小:435200
    • 提供者:sins_cj
  1. Ansj中文分词(强大)

  2. Ansj中文分词是一款纯Java、主要用于自然语言处理、高精度的中文分词工具,目标是“准确、高效、自由地进行中文分词”。 内容简介:http://www.iteye.com/magazines/102#234 此分词具有自己学习的功能,所以拜托大家不要.乱提交数据.会带坏人家的.说着神秘.其实是一种机器学习动态规划模型!如果你发现此模式分词存在问题.可以看.新词发现.是此分词的初始版本! 此分词保证了准确率,具有人名识别的功能! 此分词结果,具有新词发现,人名识别,机构名识别.也许准确率稍差.
  3. 所属分类:Java

    • 发布日期:2013-06-21
    • 文件大小:13631488
    • 提供者:kutekute
  1. 中科院ICTCLAS分词使用示例

  2. 本包是中科院的ICTCLAS分词工具包的程序使用示例程序,还有相应的帮助文档,未曾使用过的初学者,完全可以通过该Demo掌握ICTCALS的使用方法。
  3. 所属分类:Java

    • 发布日期:2013-08-06
    • 文件大小:8388608
    • 提供者:tszhbaoquan
  1. ANSJ分词JAR包

  2. ANSJ分词JAR包,Github上面已经找不到了,这是孙健老师通过QQ发给我的,很是感谢,关于ANSJ更多请看 http://blog.csdn.net/blogdevteam/article/details/8148451
  3. 所属分类:Java

    • 发布日期:2013-08-27
    • 文件大小:7340032
    • 提供者:jj12345jj198999
  1. ICTCLAS中文分词工具

  2. 中国科学院计算技术研究所在多年研究工作积累的基础上,研制出了汉语词法分析系统ICTCLAS(Institute of Computing Technology, Chinese Lexical Analysis System),主要功能包括中文分词;词性标注;命名实体识别;新词识别;同时支持用户词典。
  3. 所属分类:专业指导

    • 发布日期:2013-09-05
    • 文件大小:8388608
    • 提供者:u011992656
  1. java中文分词

  2. java中文分词工具,下载后有两个压缩文件,解压导入到myeclipse中即可
  3. 所属分类:Java

    • 发布日期:2013-11-14
    • 文件大小:4194304
    • 提供者:hnhcc39
  1. 庖丁中文分词

  2. 庖丁中文分词JAR包及使用说明. 用于对中文文章进行分词。基于lucene的中文分词工具。
  3. 所属分类:Java

    • 发布日期:2013-11-18
    • 文件大小:3145728
    • 提供者:jiaopihai
  1. 百度竞价分词工具

  2. 关键词自动分组工具,SEM竞价人员使用,快速便捷
  3. 所属分类:其它

    • 发布日期:2013-12-31
    • 文件大小:90112
    • 提供者:zhiping_kang
  1. IK分词,测试可以使用

  2. 中文的汉字截词工具,效果不错!可以实现类聊天或搜索类的截词功能
  3. 所属分类:Java

    • 发布日期:2014-02-17
    • 文件大小:2097152
    • 提供者:homeboylover
  1. 结巴中文分词

  2. 比较好的Python下的中文分词工具,但是速度不是特别快,可以看看我的博客说明
  3. 所属分类:Python

    • 发布日期:2014-03-19
    • 文件大小:9437184
    • 提供者:caicai1617
  1. 庖丁解牛中文分词工具

  2. 庖丁系统是个完全基于lucene的中文分词系统,它就是重新建了一个analyzer,叫做PaodingAnalyzer,这个analyer的核心任务就是生成一个可以切词TokenStream。
  3. 所属分类:Java

    • 发布日期:2014-03-25
    • 文件大小:5242880
    • 提供者:yeruby
  1. Java Lucene IKAnalyzer 3.2.3stable_bin.rar IK分词器

  2. IK Analyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始, IKAnalyzer已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IK Analyzer 3.0则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。
  3. 所属分类:Java

    • 发布日期:2014-06-05
    • 文件大小:1048576
    • 提供者:hongchongyuan
  1. 分词系统NLPIR2013

  2. NLPIR汉语分词系统(又名ICTCLAS2013),主要功能包括中文分词;词性标注;命名实体识别;用户词典功能;支持GBK编码、UTF8编码、BIG5编码。新增微博分词、新词发现与关键词提取;张华平博士先后倾力打造十余年,内核升级10次。 全球用户突破20万,先后获得了2010年钱伟长中文信息处理科学技术奖一等奖,2003年国际SIGHAN分词大赛综合第一名,2002年国内973评测综合第一名。
  3. 所属分类:Java

    • 发布日期:2014-07-13
    • 文件大小:7340032
    • 提供者:qq_15192337
  1. 盘古分词工具

  2. 这是盘古分词小工具,用于动态维护词典,适合初学者结合Lucene研究盘古分词。
  3. 所属分类:其它

    • 发布日期:2014-07-18
    • 文件大小:2097152
    • 提供者:u014696025
  1. SEM关键词分组工具

  2. SEM分词工具,可将大量关键词细分至70分 关键词分组工具优选,您的关键词分组好帮手!
  3. 所属分类:电子政务

    • 发布日期:2014-08-18
    • 文件大小:58368
    • 提供者:butowenjeff
  1. 结巴分词Python代码

  2. 结巴分词,很不错的分词工具,python写的,亲身试用,不管英文还是中文分得很准!
  3. 所属分类:Python

    • 发布日期:2014-08-26
    • 文件大小:6291456
    • 提供者:csdn20140826
  1. CSW中文分词工具包

  2. CSW分词,比较好用的分词工作,JAVA、C接口
  3. 所属分类:C

    • 发布日期:2008-10-24
    • 文件大小:3145728
    • 提供者:zhangyq2007
  1. 中文分词工具word-1.0,Java实现的中文分词组件多种基于词典的分词算法

  2. word分词是一个Java实现的中文分词组件,提供了多种基于词典的分词算法,并利用ngram模型来消除歧义。 能准确识别英文、数字,以及日期、时间等数量词,能识别人名、地名、组织机构名等未登录词。 同时提供了Lucene、Solr、ElasticSearch插件。 分词使用方法: 1、快速体验 运行项目根目录下的脚本demo-word.bat可以快速体验分词效果 用法: command [text] [input] [output] 命令command的可选值为:demo、text、file
  3. 所属分类:Java

    • 发布日期:2014-11-05
    • 文件大小:10485760
    • 提供者:love_hachi
  1. 中文分词资料!

  2. 基于文本的分词工具
  3. 所属分类:其它

    • 发布日期:2015-03-29
    • 文件大小:629760
    • 提供者:qq_23188275
  1. 分词工具 IKAnalyzer2012_SRC

  2. 内附分词所用的 IKAnalyzer2012_SRC的全部源码,并附带使用说明
  3. 所属分类:Java

    • 发布日期:2015-04-07
    • 文件大小:4194304
    • 提供者:liudaimu
« 1 2 3 4 56 7 8 9 10 ... 40 »