您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 中文分词PPT

  2. 中文分词 ppt 牛*
  3. 所属分类:Java

    • 发布日期:2007-08-06
    • 文件大小:525312
    • 提供者:dashgo
  1. Lucene中文分词器包

  2. 来自“猎图网 www.richmap.cn”基于IKAnalyzer分词算法的准商业化Lucene中文分词器。1. 正向全切分算法,42万汉字字符/每秒的处理能力(IBM ThinkPad 酷睿I 1.6G 1G内存 WinXP)2. 对数量词、地名、路名的优化处理3. 对未知词汇采用自识别结合二元切分算法,确保搜索召回率(使用方法请参考IKAnalyzer V1.1版)
  3. 所属分类:其它

    • 发布日期:2007-08-14
    • 文件大小:873472
    • 提供者:linliangyi2006
  1. 吕教授所改中文分词系统

  2. 开源中文分词系统,解决了中文分词的难题,c#语言
  3. 所属分类:C#

    • 发布日期:2009-04-30
    • 文件大小:1048576
    • 提供者:egan_wang
  1. 中科院研发的中文分词程序,VC++/MFC

  2. 中科院研发的中文分词系统,运用MFC编写完成,可用
  3. 所属分类:C++

    • 发布日期:2009-05-08
    • 文件大小:2097152
    • 提供者:wuduyouo
  1. Lucene中文分词 庖丁解牛 2_0_0版

  2. Paoding中文分词参考手册 本文档对应paoding-analysis 2.0.4–alpha2,目前还在草稿状态。 由于没有docbook编辑文档的经验和环境,暂时以word编辑文档。 目录 一般使用 使用评估 参考资料 下载 开始使用 分词策略 高级专题 配置参考 PaodingMaker的设计 庖丁架构 词典的抽象与设计 词典定制 词典动态加载 自定制分词策略 集成指南 Spring XML 配置 一般使用 使用评估 暂略 参考资料 ...展开收缩
  3. 所属分类:Java

    • 发布日期:2009-05-10
    • 文件大小:5242880
    • 提供者:iMLuther
  1. Lucene中文分词器包

  2. 此分词器包用于搜索引擎中文分词,与Lucene搜索引擎框架搭配使用。
  3. 所属分类:Java

    • 发布日期:2009-05-13
    • 文件大小:873472
    • 提供者:Simonright
  1. 【分享:Lucene关于几种中文分词的总结 】--<下载不要分,回帖加1分,欢迎下载,童叟无欺>

  2. Lucene关于几种中文分词的总结 目前最新版本的lucene自身提供的StandardAnalyzer已经具备中文分词的功能,但是不一定能够满足大多数应用的需要。 另外网友谈的比较多的中文分词器还有: CJKAnalyzer ChineseAnalyzer IK_CAnalyzer(MIK_CAnalyzer) 还有一些热心网友自己写的比较不错的分词器在此就不说了,有兴趣的可以自己研究研究。
  3. 所属分类:Java

    • 发布日期:2009-05-15
    • 文件大小:36864
    • 提供者:Star_of_Java
  1. 强大的中文分词器,有使用案例

  2. 强大的中文分词器,有使用案例,不过占用交大的内存空间,可能需要在eclipse中设置一下jvm的堆大小,防止出现outofmemory错误。
  3. 所属分类:专业指导

    • 发布日期:2009-05-22
    • 文件大小:2097152
    • 提供者:pope123
  1. perl实现中文分词-双向扫描法找出歧义段-n元语法概率模型消歧

  2. perl实现中文分词 先双向扫描法找出歧义段 再n元语法概率模型消歧 1998年人民日报语料下F1值达94%
  3. 所属分类:Perl

    • 发布日期:2009-05-27
    • 文件大小:7168
    • 提供者:heycinderella
  1. idf词频统计小巧中文分词词库

  2. idf词频统计小巧中文分词词库 idf词频统计小巧中文分词词库
  3. 所属分类:专业指导

    • 发布日期:2009-05-31
    • 文件大小:790528
    • 提供者:leo1314lll
  1. MM2中文分词软件,可添加新词到词库中

  2. 中文分词软件,可以添加新词,适合初学者研究。
  3. 所属分类:专业指导

    • 发布日期:2009-06-14
    • 文件大小:2097152
    • 提供者:orangelv
  1. 纯文本词典 中文分词 分词文本 文本词典

  2. 文本词典 中文分词 分词文本 纯文本词典 中文分词 分词文本 文本词典 信息检索
  3. 所属分类:Java

    • 发布日期:2009-06-15
    • 文件大小:1048576
    • 提供者:behappy373
  1. Yard中文分词系统V0.1.1版

  2. Yard中文分词系统采用改进了的正向最大匹配算法,利用双字哈希进行词典组织解决了中文分词中最长词带来的分词效率低下问题。 本次发布的版本为0.1.1版能对中文词组进行完美的切分同时利用词组的词频和词性解决了歧义划分的问题,但是对人名、地名、组织名、英文、数字等还不能进行很好的切分,在下一个版本中将解决这些问题。中文词典应用了搜狗实验室提供的互联网词库。纯java编写源码和词典在附件中可以下载。本软件为开源软件你可以进行任何修改以适应你的需求,如果你加入了新功能请发送一份副本给我,我们一同完善改
  3. 所属分类:其它

    • 发布日期:2009-06-16
    • 文件大小:1048576
    • 提供者:Soul_fly
  1. php 中文分词程序

  2. 包含中文分词程序 与中文分词库 配置方法请看官方网站
  3. 所属分类:PHP

    • 发布日期:2009-06-24
    • 文件大小:3145728
    • 提供者:tangdayun
  1. net 中文分词程序 包含C# web测试源码

  2. net 中文分词程序 包含C# web测试源码
  3. 所属分类:Web开发

    • 发布日期:2009-06-24
    • 文件大小:1037312
    • 提供者:tangdayun
  1. 中文分词包ictclas4j

  2. 中文分词包ictclas4j 中文分词包ictclas4j
  3. 所属分类:Java

    • 发布日期:2009-06-24
    • 文件大小:2097152
    • 提供者:buaacjl
  1. 一种中文分词词典新机制-双字哈希机制

  2. 一种中文分词词典新机制-双字哈希机制,中文分词算法
  3. 所属分类:其它

  1. 中文分词 庖丁解牛 2_0_0版本发布 - 企业应用

  2. 中文分词 庖丁解牛 2_0_0版本发布 - 企业应用 中文分词 庖丁解牛 2_0_0版本发布 - 企业应用
  3. 所属分类:Java

    • 发布日期:2009-07-19
    • 文件大小:110592
    • 提供者:ruanpanliang
  1. 中文分词函数库CipSegSDK

  2. 采用visual c++开放的中文分词函数库,采用visual c++开放的中文分词函数库;
  3. 所属分类:C++

    • 发布日期:2009-07-21
    • 文件大小:661504
    • 提供者:yeyanbin
  1. IKAnalyzer 3.0 中文分词器

  2. 1.IKAnalyzer3.0介绍 IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer 已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0 则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 1.2IKAnalyzer3.0特性 * 采用了特有的“正向迭代最细粒度切分
  3. 所属分类:其它

    • 发布日期:2009-07-21
    • 文件大小:1048576
    • 提供者:linliangyi2006
« 12 3 4 5 6 7 8 9 10 ... 50 »