您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. python分词程序

  2. 用python写的分词程序,采用前向,后向匹配。
  3. 所属分类:Python

    • 发布日期:2009-07-06
    • 文件大小:3145728
    • 提供者:pulerain
  1. 庖丁解牛分词器 lucene全文检索使用

  2. lucene 全文检索使用的庖丁解牛分词器,很不错
  3. 所属分类:Java

  1. google分词词库

  2. 这是最新的google分词词库,你可以用来写自己的程序
  3. 所属分类:专业指导

    • 发布日期:2009-07-12
    • 文件大小:1048576
    • 提供者:pkuping
  1. google分词词库

  2. goole 分词的词库, 你可以参考它用来 进行分词, 分词词库非常好用
  3. 所属分类:专业指导

    • 发布日期:2009-07-12
    • 文件大小:1048576
    • 提供者:nicecheng
  1. Lucene分词查询

  2. 非常珍贵的Lucene入门实例,让你在最短时间内掌握Lucene快速创建索引,中文分词查询的技巧。 内赠送lucene驱动包,物超所值哦!!
  3. 所属分类:Java

    • 发布日期:2009-07-15
    • 文件大小:606208
    • 提供者:zepqxjava
  1. pymmseg -python分词模块

  2. python分词模块,基于mmseg算法编写,核心代码c++,提供python接口
  3. 所属分类:Python

    • 发布日期:2009-07-18
    • 文件大小:1048576
    • 提供者:tyanly
  1. 中文分词 庖丁解牛 2_0_0版本发布 - 企业应用

  2. 中文分词 庖丁解牛 2_0_0版本发布 - 企业应用 中文分词 庖丁解牛 2_0_0版本发布 - 企业应用
  3. 所属分类:Java

    • 发布日期:2009-07-19
    • 文件大小:110592
    • 提供者:ruanpanliang
  1. 中文分词函数库CipSegSDK

  2. 采用visual c++开放的中文分词函数库,采用visual c++开放的中文分词函数库;
  3. 所属分类:C++

    • 发布日期:2009-07-21
    • 文件大小:661504
    • 提供者:yeyanbin
  1. IKAnalyzer 3.0 中文分词器

  2. 1.IKAnalyzer3.0介绍 IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer 已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0 则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 1.2IKAnalyzer3.0特性 * 采用了特有的“正向迭代最细粒度切分
  3. 所属分类:其它

    • 发布日期:2009-07-21
    • 文件大小:1048576
    • 提供者:linliangyi2006
  1. 基于分词索引全文检索介绍

  2. 基于中文分词索引全文检索介绍,简单易懂,文档是PDF格式的
  3. 所属分类:Java

    • 发布日期:2009-07-22
    • 文件大小:1048576
    • 提供者:tangjianft
  1. 庖丁分词程序2.0.4,很好的分词程序

  2. 庖丁分词程序,很好的分词程序."庖丁解牛" 使用指南 1、准备 1)将二进制包paoding-analyis.jar放到自己的classpath下 2)将字典文件安装(也就是拷贝)到某个目录下,比如/data/paoding/dic下 3)把配置文件paoding-analysis.properties放到自己的classpath下 4)打开paoding-analysis.properties,把paoding.dic.home属性设置为字 典的安装目录,比如paoding.d ic.hom
  3. 所属分类:Java

    • 发布日期:2009-07-22
    • 文件大小:5242880
    • 提供者:jiutianzhifeng
  1. 引入局部统计识别高频词汇的Lucene中文分词程序src.rar

  2. 引入局部统计识别高频词汇的Lucene中文分词程序src.rar
  3. 所属分类:专业指导

    • 发布日期:2009-07-29
    • 文件大小:32768
    • 提供者:luanmad
  1. 引入局部统计识别高频词汇的Lucene中文分词程序STUSegmentConfig.rar

  2. 引入局部统计识别高频词汇的Lucene中文分词程序STUSegmentConfig.rar
  3. 所属分类:专业指导

    • 发布日期:2009-07-29
    • 文件大小:754
    • 提供者:luanmad
  1. 搜索 关键词 分词研究技术

  2. 国外网站上找到的关于搜索的分词研究,对于开发搜索的同事很有帮助
  3. 所属分类:专业指导

    • 发布日期:2009-07-30
    • 文件大小:109568
    • 提供者:mousejiaa
  1. 史上最全的分词词库大全

  2. 据说是整合了Google和百度的分词词库
  3. 所属分类:专业指导

    • 发布日期:2009-08-03
    • 文件大小:1048576
    • 提供者:saddamyu
  1. 百度分词处理技术方法

  2. 根据百度搜索结果,猜测百度中文分词的处理方法。 有些参考价值,值得推荐
  3. 所属分类:专业指导

    • 发布日期:2009-08-04
    • 文件大小:33792
    • 提供者:chenls
  1. [海量智能分词].hlssplit(研究版)

  2. [海量智能分词].hlssplit 研究版~最近在做中文分词相关的项目,【海量智能分词】提供很好的参考~
  3. 所属分类:专业指导

    • 发布日期:2009-08-13
    • 文件大小:6291456
    • 提供者:jatystone
  1. 中文分词开源项目 JAVA中文分词

  2. import WordSegment.*; import java.awt.event.ActionEvent; import java.awt.event.ActionListener; import java.awt.*; import java.io.File; import java.util.Vector; import javax.swing.*; /** * */ /** * @author Truman * */ public class WordSegDemoFrame ex
  3. 所属分类:Java

    • 发布日期:2009-08-15
    • 文件大小:391168
    • 提供者:caolijunmingyan
  1. 中文分词(linux)

  2. linux下中文分词程序,主要是为了想学习automake的用法,希望能和大家共享
  3. 所属分类:Linux

    • 发布日期:2009-08-16
    • 文件大小:115712
    • 提供者:christ_f_
  1. lucene中文分词公用组件V2.0

  2. 修正1.1版在Linux下不能正常分词功能。 以下是使用代码: ---------------------------------------------------- import java.io.IOException; import java.io.StringReader; import java.util.ArrayList; import java.util.List; import org.apache.commons.logging.Log; import org.apache
  3. 所属分类:Java

    • 发布日期:2007-09-27
    • 文件大小:872448
    • 提供者:hahaxu
« 1 2 34 5 6 7 8 9 10 ... 50 »