您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 分词器的最新版本和相关资讯

  2. * 关于shuzhen分词器的最新版本和相关资讯 * ShuzhenAnalyzer是一款基于字典的中文分词器,此版本是1.1.7 * 中文名称是:淑珍分词器(又称Shuzhen分词器) * 英文名称是:ShuzhenAnalyzer
  3. 所属分类:专业指导

    • 发布日期:2009-05-21
    • 文件大小:837632
    • 提供者:tansh
  1. 强大的中文分词器,有使用案例

  2. 强大的中文分词器,有使用案例,不过占用交大的内存空间,可能需要在eclipse中设置一下jvm的堆大小,防止出现outofmemory错误。
  3. 所属分类:专业指导

    • 发布日期:2009-05-22
    • 文件大小:2097152
    • 提供者:pope123
  1. perl实现中文分词-双向扫描法找出歧义段-n元语法概率模型消歧

  2. perl实现中文分词 先双向扫描法找出歧义段 再n元语法概率模型消歧 1998年人民日报语料下F1值达94%
  3. 所属分类:Perl

    • 发布日期:2009-05-27
    • 文件大小:7168
    • 提供者:heycinderella
  1. idf词频统计小巧中文分词词库

  2. idf词频统计小巧中文分词词库 idf词频统计小巧中文分词词库
  3. 所属分类:专业指导

    • 发布日期:2009-05-31
    • 文件大小:790528
    • 提供者:leo1314lll
  1. 一种能够检测所有交叉歧义的汉语分词算法

  2. 一种能够检测所有交叉歧义的汉语分词算法,一篇实用的分词算法研究论文。
  3. 所属分类:其它

    • 发布日期:2009-06-02
    • 文件大小:152576
    • 提供者:ydhbzkx002
  1. 最大匹配分词算法概述

  2. 最大匹配分词算法最大匹配分词算法最大匹配分词算法最大匹配分词算法最大匹配分词算法最大匹配分词算法
  3. 所属分类:其它

    • 发布日期:2009-06-02
    • 文件大小:372736
    • 提供者:anyupu
  1. 有关中文分词的源代码c++实现的

  2. 本程序简单的实现了中文的分词,采用的是基于词典的逆向最大匹配的方法,同时包含了新词的识别以及部分歧义处理。
  3. 所属分类:C++

    • 发布日期:2009-06-04
    • 文件大小:2048
    • 提供者:dongfangqishi
  1. 后院分词系统(yard)源代码下载

  2. 最新的算法带来了完美的分词体验。源代码下载全java编写。附带词典下载。
  3. 所属分类:其它

    • 发布日期:2009-06-11
    • 文件大小:1048576
    • 提供者:Soul_fly
  1. 庖丁分词paoding-analysis-2.0.4-beta.zip

  2. 庖丁分词paoding-analysis-2.0.4-beta.zip庖丁分词paoding-analysis-2.0.4-beta.zip庖丁分词paoding-analysis-2.0.4-beta.zip庖丁分词paoding-analysis-2.0.4-beta.zip庖丁分词paoding-analysis-2.0.4-beta.zip庖丁分词paoding-analysis-2.0.4-beta.zip庖丁分词paoding-analysis-2.0.4-beta.zip庖丁分词
  3. 所属分类:Java

    • 发布日期:2009-06-11
    • 文件大小:5242880
    • 提供者:smbmaths
  1. MM2中文分词软件,可添加新词到词库中

  2. 中文分词软件,可以添加新词,适合初学者研究。
  3. 所属分类:专业指导

    • 发布日期:2009-06-14
    • 文件大小:2097152
    • 提供者:orangelv
  1. 纯文本词典 中文分词 分词文本 文本词典

  2. 文本词典 中文分词 分词文本 纯文本词典 中文分词 分词文本 文本词典 信息检索
  3. 所属分类:Java

    • 发布日期:2009-06-15
    • 文件大小:1048576
    • 提供者:behappy373
  1. Yard中文分词系统V0.1.1版

  2. Yard中文分词系统采用改进了的正向最大匹配算法,利用双字哈希进行词典组织解决了中文分词中最长词带来的分词效率低下问题。 本次发布的版本为0.1.1版能对中文词组进行完美的切分同时利用词组的词频和词性解决了歧义划分的问题,但是对人名、地名、组织名、英文、数字等还不能进行很好的切分,在下一个版本中将解决这些问题。中文词典应用了搜狗实验室提供的互联网词库。纯java编写源码和词典在附件中可以下载。本软件为开源软件你可以进行任何修改以适应你的需求,如果你加入了新功能请发送一份副本给我,我们一同完善改
  3. 所属分类:其它

    • 发布日期:2009-06-16
    • 文件大小:1048576
    • 提供者:Soul_fly
  1. ICTCLAS分词系统.NET版,源代码+文档,非常实用,值得珍藏!

  2. 这是ICTCLAS开发的开源项目。 想必大家遇到过需要进行汉语分词的情况,如检索一篇文章中词频最高的几个词,文章相似性对比等,都需要将文章进行分词处理后才能进行,这套系统是全球最受欢迎的汉语分词开源系统,内含所需词典、文档和示例做参考,你可以直接调用也可以研究其源代码(其代码习惯值得借鉴),是不可多得的好东西。 感谢大家的支持,觉得好的话别忘了评分哦!
  3. 所属分类:C#

    • 发布日期:2009-06-24
    • 文件大小:1048576
    • 提供者:chenshidan
  1. php 中文分词程序

  2. 包含中文分词程序 与中文分词库 配置方法请看官方网站
  3. 所属分类:PHP

    • 发布日期:2009-06-24
    • 文件大小:3145728
    • 提供者:tangdayun
  1. net 中文分词程序 包含C# web测试源码

  2. net 中文分词程序 包含C# web测试源码
  3. 所属分类:Web开发

    • 发布日期:2009-06-24
    • 文件大小:1037312
    • 提供者:tangdayun
  1. 中文分词包ictclas4j

  2. 中文分词包ictclas4j 中文分词包ictclas4j
  3. 所属分类:Java

    • 发布日期:2009-06-24
    • 文件大小:2097152
    • 提供者:buaacjl
  1. 百度(baidu)分词算法分析.doc

  2. 之前在广州点石茶话会上也有重点讨论过百度分词算法,那时很多SEOer都认为百度在测试分词技术中,有些关键词带公司字眼的关键词,在搜索结果内容时基本上跟关键词不乎核。下面是中科院软件所张俊林一篇百度分词算法的三步曲,希望能帮SEOer解答一些关于百算分词算法的问题,内容可能长点,各位慢慢消化!
  3. 所属分类:其它

  1. 一种中文分词词典新机制-双字哈希机制

  2. 一种中文分词词典新机制-双字哈希机制,中文分词算法
  3. 所属分类:其它

  1. 非常好的检索分词算法PPT文档

  2. 非常好的检索分词算法PPT文档,提供检索分词算法,如何处理分词结果。
  3. 所属分类:其它

    • 发布日期:2009-06-30
    • 文件大小:131072
    • 提供者:fengdefu
  1. IKAnalyzer1.4分词

  2. IKAnalyzer是一个基于Lucene的中文分词库,最新V1.4版的改进包括 1.修订特定情况下数量词切分造成指针越界异常的 BUG 2.进一步优化算法效率 3.优化词典 4.对英文和数词进行分割处理 IKAnalyzer基于lucene2.0版本API开发,实现了以词典分词为基础的正反向全切分算法,是Lucene Analyzer接口的实现
  3. 所属分类:其它

    • 发布日期:2009-07-04
    • 文件大小:868352
    • 提供者:sxd147635549
« 1 23 4 5 6 7 8 9 10 ... 50 »