您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. IKAnalyzer 3.0 中文分词器

  2. 1.IKAnalyzer3.0介绍 IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer 已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0 则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 1.2IKAnalyzer3.0特性 * 采用了特有的“正向迭代最细粒度切分
  3. 所属分类:其它

    • 发布日期:2009-07-21
    • 文件大小:1048576
    • 提供者:linliangyi2006
  1. csw5.0中文分词组件

  2. 一、CSW中分词组件简介 CSW中文分词组件,是一套可自动将一段文本按常规汉语词组进行拆分,并以指定方式进行分隔的COM组件。本组件采用独有的高效的分词引擎及拆分算法,具有准确、高速、资源占用率小等特点。为了满足客户对文本语义进行研究分析的需要,本组件同时提供词性及词频标注功能,可根据用户要求,对其拆分后的词组进行词性标注或词频标注。互联网信息检索、数据库信息查询、智能聊天机器人、文本校对、自动翻译、 自动摘要、自动分类及信息加工处理等各个领域。 二、本组件特点: 1.适应性强 本组全部件采用
  3. 所属分类:C#

    • 发布日期:2009-09-01
    • 文件大小:3145728
    • 提供者:madl_lxj_163
  1. CSW中文分词组件,在asp环境中使用的分词组件

  2. CSW中文分词组件,在asp环境中使用的分词组件。
  3. 所属分类:C#

    • 发布日期:2010-01-12
    • 文件大小:3145728
    • 提供者:qqcxw
  1. CSW中文分词组件

  2. CSW中文分词组件,搞搜索引擎研究的朋友值得一用啊
  3. 所属分类:Java

    • 发布日期:2008-01-02
    • 文件大小:3145728
    • 提供者:huangwenqiang2
  1. Lucene.Net中文分词组件 Lucene.Net.Analysis.Cn

  2. Lucene.Net中文分词组件 Lucene.Net.Analysis.Cn
  3. 所属分类:C#

    • 发布日期:2010-10-08
    • 文件大小:16384
    • 提供者:cheqiyolin
  1. je-analyzer-1.5.3lucene中文分词组件

  2. 分词算法:正向最大匹配 + 词尾多重消歧 + 22万精选词典分词效率:每秒30万字(测试环境迅驰1.6,第一次分词需要1-2秒加载词典) 内存消耗:30M 支持分词粒度控制支持Lucene分词接口支持英文、数字、中文混合分词支持中文词典动态维护 支持中英文噪声词过滤 支持人名匹配 支持地名匹配 支持数量词匹配 支持中文数字匹配 支持日期时间匹配 支持电子邮件匹配 支持商品编码匹配
  3. 所属分类:其它

    • 发布日期:2008-04-14
    • 文件大小:892928
    • 提供者:shylanse
  1. IKAnalyzer中文分词好帮手

  2. IK Analyzer 是一个开源的,基于java 语言开发的轻量级的中文分词工具包。从2006 年12 月推出1.0 版开始, IKAnalyzer 已经推出了3 个大版本。最初,它是以开源项目 Luence 为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IK Analyzer 3.0 则发展为面向Java 的公用分词组件,独立于Lucene 项目,同时提供了对 Lucene 的默认优化实现。
  3. 所属分类:Java

    • 发布日期:2011-06-20
    • 文件大小:495616
    • 提供者:zfding2
  1. lucene中文分词组件

  2. 给lucene提供中文分词功能
  3. 所属分类:Java

    • 发布日期:2008-05-08
    • 文件大小:861184
    • 提供者:xiaofangwei
  1. 分词组件V2.3.1源码

  2. 分词组件V2.3.1源码 程序介绍: 盘古分词是一个中英文分词组件。作者eaglet 曾经开发过KTDictSeg 中文分词组件,拥有大量用户来自51ASPX。 作者基于之前分词组件的开发经验,结合最新的开发技术重新编写了盘古分词组件。 中文分词功能 中文未登录词识别 盘古分词可以对一些不在字典中的未登录词自动识别 词频优先 盘古分词可以根据词频来解决分词的歧义问题 多元分词 盘古分词提供多重输出解决分词粒度和分词精度权衡的问题 中文人名识别 输入: “张三说的确实在理” 分词结果:张三/说/
  3. 所属分类:C#

    • 发布日期:2012-05-23
    • 文件大小:6291456
    • 提供者:ss_geng
  1. DEDE中文分词组件PHP

  2. DEDE的中文分词组件,PHP代码,可自定义词库
  3. 所属分类:PHP

    • 发布日期:2012-08-14
    • 文件大小:683008
    • 提供者:czjim
  1. ShootSearch 中文分词组件(c#开源)

  2. ShootSearch 中文分词组件(c#开源) 技术支持:support@shootsoft.net http://www.shootsoft.net 分词算法:词库+最大匹配 词库来自www.jesoft.cn,已经过一定的修改 使用说明: 先加载词库,再进行分词.分词过程重载两次:支持回车的和不支持回车的,注意选择! 可以手动添加词语到sDict.txt,不过每次手动修改后需要调用SortDic()方法,否则无法实现最大匹配! sDict.txt的编码为UTF-8! 示例: 文字内容来自
  3. 所属分类:C#

    • 发布日期:2006-08-18
    • 文件大小:1001472
    • 提供者:shootsoft
  1. Solr4.3 版本中文分词组件

  2. 最高版本的 solr 中文分词配置 , 小弟已经测试过了 里面的 jar 要到各官网上下载
  3. 所属分类:Java

    • 发布日期:2013-07-09
    • 文件大小:856
    • 提供者:lklkdawei
  1. Lucene中文分词组件 JE-Analysis 1.5.1

  2. 发布于:http://www.jesoft.cn/posts/list/5.page 1.5.1 —— 2006-01-22 修正细粒度分词错误的问题 1.5.0 —— 2007-01-18 全面支持Lucene 2.0 增强了词典维护的API 增加了商品编码的匹配 增加了Mail地址的匹配 实现了词尾消歧算法第二层的过滤 整理优化了词库 1.4.0 —— 2006-08-21 增加词典的动态扩展能力 1.3.3 —— 2006-07-23 修正无法多次增加词典的问题 1.3.2 —— 200
  3. 所属分类:其它

    • 发布日期:2007-01-22
    • 文件大小:891904
    • 提供者:diystar
  1. Java中文分词组件word-1.0.rar

  2. Java中文分词组件word-1.0.rar
  3. 所属分类:Java

    • 发布日期:2014-08-21
    • 文件大小:10485760
    • 提供者:u011073939
  1. 中文分词工具word-1.0,Java实现的中文分词组件多种基于词典的分词算法

  2. word分词是一个Java实现的中文分词组件,提供了多种基于词典的分词算法,并利用ngram模型来消除歧义。 能准确识别英文、数字,以及日期、时间等数量词,能识别人名、地名、组织机构名等未登录词。 同时提供了Lucene、Solr、ElasticSearch插件。 分词使用方法: 1、快速体验 运行项目根目录下的脚本demo-word.bat可以快速体验分词效果 用法: command [text] [input] [output] 命令command的可选值为:demo、text、file
  3. 所属分类:Java

    • 发布日期:2014-11-05
    • 文件大小:10485760
    • 提供者:love_hachi
  1. 一个免费的中文分词组件

  2. 一个免费的中文分词组件,我也没有实际用过,共享一下,大家如果有用的还希望能够把经验共享一下哦
  3. 所属分类:Java

    • 发布日期:2008-10-31
    • 文件大小:727040
    • 提供者:jinou624
  1. IKAnalyzer最强的中文分词器

  2. 从2006年12月推出1.0版开始,IKAnalyzer已经推出 了3个大版本。最初,它是以开源项目Lucene为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0则发展为 面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。
  3. 所属分类:Java

    • 发布日期:2016-01-26
    • 文件大小:2097152
    • 提供者:ll327577416
  1. Jieba0.35中文分词组件

  2. Jieba是一个中文分词组件,可用于中文句子/词性分割、词性标注、未登录词识别,支持用户词典等功能。该组件的分词精度达到了97%以上。
  3. 所属分类:Python

    • 发布日期:2016-03-23
    • 文件大小:7340032
    • 提供者:sanqima
  1. CSW中文分词组件 5.0 (标准C++)

  2. CSW中文分词组件 5.0 (标准C++)
  3. 所属分类:其它

    • 发布日期:2016-05-06
    • 文件大小:7340032
    • 提供者:u013411813
  1. 中文分词组件(csw中文分词组件)

  2. csw中文分词组件,测试过,可以用的。可以用于搜索引擎或是自然语言处理领域……
  3. 所属分类:Java

    • 发布日期:2009-04-13
    • 文件大小:3145728
    • 提供者:u010556961
« 12 3 4 5 6 7 8 9 10 »