您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 中英文分词算法

  2. 中英文分词算法。。。找了好久
  3. 所属分类:其它

    • 发布日期:2007-08-06
    • 文件大小:1039360
    • 提供者:dashgo
  1. JE中文分词je-analysis-1.5.1.jar

  2. 1.5.1 —— 2006-01-22 修正细粒度分词错误的问题 1.5.0 —— 2007-01-18 全面支持Lucene 2.0 增强了词典维护的API 增加了商品编码的匹配 增加了Mail地址的匹配 实现了词尾消歧算法第二层的过滤 整理优化了词库 1.4.0 —— 2006-08-21 增加词典的动态扩展能力 1.3.3 —— 2006-07-23 修正无法多次增加词典的问题 1.3.2 —— 2006-07-03 修正细粒度分词错误的问题 1.3.1 —— 2006-0 6-23 修
  3. 所属分类:其它

    • 发布日期:2009-04-28
    • 文件大小:891904
    • 提供者:tiancen2001
  1. 支持lucene的词典机械中文分词

  2. 采用反向机械分词算法。 对数字、英文进行特别的处理。 支持中英文数字混合词的处理。 分词速度快。
  3. 所属分类:其它

    • 发布日期:2009-05-14
    • 文件大小:18432
    • 提供者:wolffool
  1. 中英文分词算法KTDictSeg

  2. * KTDictSeg 简介: KTDictSeg 是由KaiToo搜索开发的一款基于字典的简单中英文分词算法 * 主要功能: 中英文分词,未登录词识别,多元歧义自动识别,全角字符识别能力 * 主要性能指标: * 分词准确度:90%以上(有待专家的权威评测) * 处理速度: 600KBytes/s
  3. 所属分类:其它

    • 发布日期:2010-02-20
    • 文件大小:1039360
    • 提供者:naughty610
  1. KTDictSeg分词系统V1.3.01

  2. * KTDictSeg 简介: KTDictSeg 是由KaiToo搜索开发的一款基于字典的简单中英文分词算法 * 主要功能: 中英文分词,未登录词识别,多元歧义自动识别,全角字符识别能力 * 主要性能指标: * 分词准确度:90%以上(有待专家的权威评测) 代码采用 Visual Studio 2005 编译通过,需在.net framework 2.0 下运行
  3. 所属分类:其它

    • 发布日期:2010-04-27
    • 文件大小:2097152
    • 提供者:kang2004wei
  1. 分词程序 (高效准确),可直接使用

  2. 高效较准确的中英文分词程序(源代码),可直接在VS上使用,并有与其他分析算法的比较分析,好!
  3. 所属分类:其它

    • 发布日期:2010-09-15
    • 文件大小:1048576
    • 提供者:qiang121
  1. ppldic.csv分词词库PHP应用——提取内容关键字

  2. 用RMM分词算法可以实现,调用“ppldic.csv”中英文词库。在分词过程中要过滤掉 标点符号,否则,这些标点符号都将分成一个词,而这些词并不是用户查询搜索的关键内容。
  3. 所属分类:PHP

    • 发布日期:2010-12-20
    • 文件大小:25600
    • 提供者:a738611
  1. je-analyzer-1.5.3lucene中文分词组件

  2. 分词算法:正向最大匹配 + 词尾多重消歧 + 22万精选词典分词效率:每秒30万字(测试环境迅驰1.6,第一次分词需要1-2秒加载词典) 内存消耗:30M 支持分词粒度控制支持Lucene分词接口支持英文、数字、中文混合分词支持中文词典动态维护 支持中英文噪声词过滤 支持人名匹配 支持地名匹配 支持数量词匹配 支持中文数字匹配 支持日期时间匹配 支持电子邮件匹配 支持商品编码匹配
  3. 所属分类:其它

    • 发布日期:2008-04-14
    • 文件大小:892928
    • 提供者:shylanse
  1. 简易中文分词服务器

  2. 中英文混合分词服务器3.0正式发布,绝对稳定高效,分词库扩大到了190多万词汇,算法做了全面修正,稳定性、健壮性、速度都有了质的飞跃!同时提供c、java、C#、delphi、js调用范例 支持大规模并发,线程安全、5万字以内的文章但线程切分1秒内可以切分完毕!
  3. 所属分类:其它

    • 发布日期:2012-03-17
    • 文件大小:6291456
    • 提供者:max09601
  1. ppldic.csv 分词

  2. 用RMM分词算法可以实现,调用“ppldic.csv”中英文词库。在分词过程中要过滤掉 标点符号,否则,这些标点符号都将分成一个词,而这些词并不是用户查询搜索的关键内容。
  3. 所属分类:PHP

    • 发布日期:2012-05-08
    • 文件大小:25600
    • 提供者:rj06204
  1. 分词组件V2.3.1源码

  2. 分词组件V2.3.1源码 程序介绍: 盘古分词是一个中英文分词组件。作者eaglet 曾经开发过KTDictSeg 中文分词组件,拥有大量用户来自51ASPX。 作者基于之前分词组件的开发经验,结合最新的开发技术重新编写了盘古分词组件。 中文分词功能 中文未登录词识别 盘古分词可以对一些不在字典中的未登录词自动识别 词频优先 盘古分词可以根据词频来解决分词的歧义问题 多元分词 盘古分词提供多重输出解决分词粒度和分词精度权衡的问题 中文人名识别 输入: “张三说的确实在理” 分词结果:张三/说/
  3. 所属分类:C#

    • 发布日期:2012-05-23
    • 文件大小:6291456
    • 提供者:ss_geng
  1. 中英文分词算法

  2. 由KaiToo搜索开发的一款基于字典的简单中英文分词算法 主要功能: 中英文分词,未登录词识别,多元歧义自动识别,全角字符识别能力
  3. 所属分类:其它

    • 发布日期:2013-01-21
    • 文件大小:1048576
    • 提供者:rootea
  1. 盘古分词源代码

  2. 盘古分词是一个基于 .net framework 的中英文分词组件。主要功能 中文未登录词识别 盘古分词可以对一些不在字典中的未登录词自动识别 词频优先 盘古分词可以根据词频来解决分词的歧义问题 多元分词 盘古分词提供多重输出解决分词粒度和分词精度权衡的问题 中文人名识别 输入: “张三说的确实在理” 分词结果:张三/说/的/确实/在理/ 输入 “李三买了一张三角桌子” 分词结果:李三/买/了/一张/三角/桌子/ 强制一元分词 输入 “张三说的确实在理” 分词结果: 张(0,1)/张三(0,5
  3. 所属分类:C#

    • 发布日期:2013-02-17
    • 文件大小:681984
    • 提供者:trustman
  1. 中英文 分词

  2. 中英文的 停用词删除 词干提取 中文分词 含绝大部分代码
  3. 所属分类:C/C++

    • 发布日期:2013-08-05
    • 文件大小:1048576
    • 提供者:wangjiao528
  1. 中文分词技术

  2. c#开发的winform项目,网上搜集的资料。基于.net2.0的轻量级分词组件,分词效率和准确性都较高。KTDictSeg 简介: KTDictSeg 是由KaiToo搜索开发的一款基于字典的简单中英文分词算法
  3. 所属分类:C#

    • 发布日期:2015-03-17
    • 文件大小:3145728
    • 提供者:txy395354170
  1. sphinx 中英文分词检索介绍

  2. sphinx 中英文分词快速检索 大数据快速搜索
  3. 所属分类:PHP

    • 发布日期:2015-06-16
    • 文件大小:585728
    • 提供者:wen_qiang2012
  1. 新版盘古代码+分词词库+分词工具

  2. 新版盘古代码+分词词库+分词工具 Pan Gu Segment is a library that can segment Chinese and English words from sentence. 盘古分词是一个中英文分词组件。作者eaglet 曾经开发过KTDictSeg 中文分词组件,拥有大量用户。 作者基于之前分词组件的开发经验,结合最新的开发技术重新编写了盘古分词组件。
  3. 所属分类:其它

    • 发布日期:2017-10-13
    • 文件大小:1048576
    • 提供者:baidu_34303629
  1. KTDictSeg 中英文分词组件

  2. KTDictSeg 简介: KTDictSeg 是由KaiToo搜索开发的一款基于字典的简单中英文分词算法主要功能: 中英文分词,未登录词识别,多元歧义自动识别,全角字符识别能力主要性能指标:分词准确度:90%以上(有待专家的权威评测)处理速度: 600KBytes/s 版本: V1.0 BataCopyright(c) 2007 http://www.kaitoo.com 作者:肖波授权: 开源GPL公司网站: http://www.kaitoo.com
  3. 所属分类:C

    • 发布日期:2007-05-24
    • 文件大小:1039360
    • 提供者:xiongfenghust
  1. 盘古分词 工具

  2. 盘古分词 简介: 盘古分词 是由eaglet 开发的一款基于字典的中英文分词组件 主要功能: 中英文分词,未登录词识别,多元歧义自动识别,全角字符识别能力 主要性能指标: 分词准确度:90%以上 处理速度: 300-600KBytes/s Core Duo 1.8GHz 用于测试的句子: 长春市长春节致词 长春市长春药店 IBM的技术和服务都不错 张三在一月份工作会议上说的确实在理 于北京时间5月10日举行运动会 我的和服务必在明天做好
  3. 所属分类:算法与数据结构

    • 发布日期:2018-06-22
    • 文件大小:193536
    • 提供者:lingxuan413
  1. 中英文分词组件--CSharp分词

  2. 中英文分词组件。完全C#托管代码编写,独立开发。 技术特点 ========= 1. 识别率接近90%。 虽然和专业分词系统相比有一定的差距,但对于搜索引擎等小型分词需求而言足够了。 2. 多元歧义自动识别。 对于前后歧义有较好的识别效果。 如: 长春市长春节致词 -- 长春/市长/春节/致词/ 长春市长春药店 -- 长春市/长春/药店 3. 常用及敏感词过滤功能。 通过一个简单的属性设置就可以完成针对常用词、标点和敏感词汇的过滤。系统内置了常用无意字词和标点的过滤。当然针对
  3. 所属分类:制造

    • 发布日期:2010-08-19
    • 文件大小:13631488
    • 提供者:mini_bird
« 12 3 4 5 »