您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 中科院中文分词

  2. 中科院中文分词C# 代码 和 案例
  3. 所属分类:C#

    • 发布日期:2012-09-18
    • 文件大小:472064
    • 提供者:liuhf19830104
  1. 中文分词处理源代码C++

  2. 中文分词处理源代码,C++写的,用的树形构造
  3. 所属分类:C++

    • 发布日期:2012-10-01
    • 文件大小:6144
    • 提供者:duanrencai
  1. 中文分词器

  2. 中文分词器PDF文档
  3. 所属分类:专业指导

    • 发布日期:2012-10-15
    • 文件大小:847872
    • 提供者:cz467502008
  1. 中文分词 java代码

  2. 中文分词 java代码
  3. 所属分类:Java

    • 发布日期:2012-10-23
    • 文件大小:391168
    • 提供者:turbocasa
  1. 中文分词程序代码

  2. 中文分词程序代码
  3. 所属分类:C/C++

    • 发布日期:2012-10-23
    • 文件大小:289792
    • 提供者:turbocasa
  1. 中文分词工具

  2. 这是一个中文分词工具 里面详细描述了 使用的方法
  3. 所属分类:Perl

    • 发布日期:2012-10-28
    • 文件大小:362496
    • 提供者:ss13941126629
  1. 中文分词词典TXT版本

  2. 中文分词词典TXT版本 用于词组提取分割
  3. 所属分类:其它

    • 发布日期:2012-10-29
    • 文件大小:2097152
    • 提供者:xmour
  1. C# .Net 写的中文分词

  2. C# .Net 写的中文分词 哈工大中文信息处理
  3. 所属分类:C#

    • 发布日期:2012-10-31
    • 文件大小:184320
    • 提供者:yulingtianxia
  1. 中文分词词典-54w条词语

  2. 中文分词词典 适合最大正向匹配算法使用 共计548389条词语
  3. 所属分类:C

    • 发布日期:2012-11-01
    • 文件大小:1048576
    • 提供者:sduonline
  1. 中文分词系统

  2. 搜索引擎中中文分词系统,用c++编写,使用于windows系统,对搜索引擎有兴趣的可以下来看看
  3. 所属分类:C++

    • 发布日期:2012-11-13
    • 文件大小:1048576
    • 提供者:fang852049105
  1. 中文分词-哈工大软件学院中文信息处理刘秉权

  2. 中文分词 哈工大 软件学院 中文中文信息处理 java
  3. 所属分类:Java

    • 发布日期:2012-11-17
    • 文件大小:3145728
    • 提供者:sunchuanleihit
  1. 中科院java版本的中文分词程序

  2. ictclas4j中文分词系统是sinboy在中科院张华平和刘群老师的研制的FreeICTCLAS的基础上完成的一个java开源分词项目,简化了原分词程序的复杂度,旨在为广大的中文分词爱好者一个更好的学习机会。
  3. 所属分类:Java

    • 发布日期:2012-11-18
    • 文件大小:2097152
    • 提供者:weihuiling
  1. IKAnalyzer中文分词器V2012_U5使用手册

  2. IKAnalyzer中文分词器V2012_U5使用手册
  3. 所属分类:Java

  1. 基于K最短路径的中文分词算法

  2. 基于K最短路径的中文分词算法,解决了中文分词的简单算法
  3. 所属分类:C++

    • 发布日期:2012-11-21
    • 文件大小:2097152
    • 提供者:iweinuo
  1. ShootSearch 中文分词组件(c#开源)

  2. ShootSearch 中文分词组件(c#开源) 技术支持:support@shootsoft.net http://www.shootsoft.net 分词算法:词库+最大匹配 词库来自www.jesoft.cn,已经过一定的修改 使用说明: 先加载词库,再进行分词.分词过程重载两次:支持回车的和不支持回车的,注意选择! 可以手动添加词语到sDict.txt,不过每次手动修改后需要调用SortDic()方法,否则无法实现最大匹配! sDict.txt的编码为UTF-8! 示例: 文字内容来自
  3. 所属分类:C#

    • 发布日期:2006-08-18
    • 文件大小:1001472
    • 提供者:shootsoft
  1. JE-Analysis中文分词

  2. 最流行、使用最方便的中文分词包,此资源为文件系统而非jar包,使用时Eclipse使用文件导入方式导入,其他编辑器视情况而定,用些编辑器支持将资源复制进工程。实在不行可以将解压后的指明路径或解压至java文件同一目录下。
  3. 所属分类:Java

    • 发布日期:2008-08-02
    • 文件大小:901120
    • 提供者:danblue
  1. 自然语言处理-中文分词程序

  2. 北邮 计算机院 自然语言处理 中文分词程序
  3. 所属分类:C/C++

    • 发布日期:2012-12-01
    • 文件大小:5242880
    • 提供者:suziwanling
  1. 中文分词系统

  2. 基于vc++ 的中文分词软件。 使用正向最大匹配算法和逆向最大匹配算法,加深对自然语言学习理解
  3. 所属分类:C++

    • 发布日期:2012-12-16
    • 文件大小:6291456
    • 提供者:comefar
  1. mmseg4j 中文分词器

  2. 此分词器可配合Lucene使用实现自己的中文分词器。
  3. 所属分类:Java

    • 发布日期:2012-12-17
    • 文件大小:2097152
    • 提供者:lj3224756
  1. 基于Lucene的中文分词方法设计与实现

  2. 本文设计实现了一个中文分词模块,其主要研究目的在于寻找更为有效的中文词汇 处理方法,提高全文检索系统的中文处理能力. 整个模块基于当前最流行的搜索引擎架构 Lucene ,实现了带有歧义消除功能的正向最大匹配算法. 在系统评测方面,比较了该方法与现 有方法的区别,对于如何构建一个高效的中文检索系统,提出了一种实现
  3. 所属分类:其它

    • 发布日期:2012-12-26
    • 文件大小:328704
    • 提供者:zyddamon
« 1 2 ... 6 7 8 9 10 1112 13 14 15 16 ... 50 »