您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. lucene-core-2.3.1.jar

  2. 全文所搜时使用,比查询数据库要快,可以支持分词查询,数据库like查询等,对大数据系统性能提高明显.
  3. 所属分类:Java

    • 发布日期:2009-06-13
    • 文件大小:664576
    • 提供者:SanCava
  1. Lucene分词查询

  2. 非常珍贵的Lucene入门实例,让你在最短时间内掌握Lucene快速创建索引,中文分词查询的技巧。 内赠送lucene驱动包,物超所值哦!!
  3. 所属分类:Java

    • 发布日期:2009-07-15
    • 文件大小:606208
    • 提供者:zepqxjava
  1. IKAnalyzer 3.0 中文分词器

  2. 1.IKAnalyzer3.0介绍 IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer 已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IKAnalyzer3.0 则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。 1.2IKAnalyzer3.0特性 * 采用了特有的“正向迭代最细粒度切分
  3. 所属分类:其它

    • 发布日期:2009-07-21
    • 文件大小:1048576
    • 提供者:linliangyi2006
  1. 基于Lucene的搜索系统 同时使用Paoding进行中文分词

  2. 最近由于在做的电子商务网站,前台要频繁的进行搜索商品,列出符合条件的商品,由于商品数量之大,考虑到要用lucene来显示搜索功能,本文将通过一个简单的例子来告诉你lucene的实现和使用Paoding进行中文分词,当然这是个简单的例子不会包括商品的分类和规格相关属性的查询,主要帮助大家理解和怎么使用lucene进行搜索的实现。
  3. 所属分类:Web开发

    • 发布日期:2011-08-01
    • 文件大小:12582912
    • 提供者:ajun_studio
  1. IKAnalyzer中文分词器V3.2.X使用手册

  2. 采用了特有的“正向迭代最细粒度切分算法“,具有60万字/秒的高速处理能力。 采用了多子处理器分析模式,支持:英文字母(IP地址、Email、URL)、数字(日期,常用中文数量词,罗马数字,科学计数法),中文词汇(姓名、地名处理)等分词处理。 优化的词典存储,更小的内存占用。支持用户词典扩展定义 针对Lucene全文检索优化的查询分析器IKQueryParser(作者吐血推荐);采用歧义分析算法优化查询关键字的搜索排列组合,能极大的提高Lucene检索的命中率。
  3. 所属分类:Java

    • 发布日期:2011-08-03
    • 文件大小:500736
    • 提供者:feiyu84
  1. Lucene分词与查询详解

  2. Lucene分词与查询详解。这是一个完整的实例,希望对大家的开发学习有帮助!!!
  3. 所属分类:Java

    • 发布日期:2011-11-25
    • 文件大小:55296
    • 提供者:sbvfhp
  1. IKAnalyzer中文分词器V2012使用手册

  2. 采用了特有的“正向迭代最细粒度切分算法“,具有60万字/秒的高速处理能力。 采用了多子处理器分析模式,支持:英文字母(IP地址、Email、URL)、数字(日期,常用中文数量词,罗马数字,科学计数法),中文词汇(姓名、地名处理)等分词处理。 优化的词典存储,更小的内存占用。支持用户词典扩展定义 针对Lucene全文检索优化的查询分析器IKQueryParser(作者吐血推荐);采用歧义分析算法优化查询关键字的搜索排列组合,能极大的提高Lucene检索的命中率。
  3. 所属分类:Java

    • 发布日期:2012-03-13
    • 文件大小:847872
    • 提供者:mailjava
  1. lucene资料

  2. lucene3.0的原理和使用介绍。对于lucene的分词查询等有着相应的介绍。适合初学者入门学习。
  3. 所属分类:Java

    • 发布日期:2012-05-01
    • 文件大小:362496
    • 提供者:yishuiweizhi
  1. lucene实例(中文分词)

  2. lucene实例是一个比较详细的例子,包括lucene的入门到高级实例,代码里有比较详细的实例,所有的实例都是通过junit来测试的。实例包括各种搜索:如通配符查询、模糊查询、查询结果的分页、中文分词器、自定义分词器等
  3. 所属分类:Java

    • 发布日期:2013-01-04
    • 文件大小:1048576
    • 提供者:guoyiqi
  1. Lucene(搜索)Demo

  2. 本Demo实现了lucene分词和查询,Dao中实现了lucene的几个基本方法.
  3. 所属分类:Java

    • 发布日期:2013-02-24
    • 文件大小:1048576
    • 提供者:jiayen
  1. Lucene 3.6.1完整案例

  2. Lucene 3.6.1: 中文分词、创建索引库、排序、多字段分页查询以及高亮显示源 希望对大家有帮助, 我自己建立的mysql数据库 使用了IKAnalyzer分词器源代码,大家可以自己设置停词,也可以自己改写算法
  3. 所属分类:Java

    • 发布日期:2013-04-04
    • 文件大小:6291456
    • 提供者:wangmingshan
  1. lucene+中文IK分词器 例子

  2. lucene3.5 + ik中文分词器例子,可从网页抓取输出流,并通过关键字查询相关文件
  3. 所属分类:Java

    • 发布日期:2014-06-26
    • 文件大小:3145728
    • 提供者:mxd_001
  1. Lucene.net增删改查示例,使用多索引和盘古分词等方法,并实现分页查询

  2. 这是一个Lucene.net的多索引示例,以数据库的动态数据为数据源,每个表对应一个索引,使用了盘古分词方法,适用于中文的分词,并且实现了增删改查的所有功能。 同时,在查询索引时,适用了分页方法,可直接引用到项目中使用。 无需修改即可运行,代码有明确的注释,一看就懂。
  3. 所属分类:C#

    • 发布日期:2014-10-21
    • 文件大小:3145728
    • 提供者:atm_rmb
  1. 中文分词工具word-1.0,Java实现的中文分词组件多种基于词典的分词算法

  2. word分词是一个Java实现的中文分词组件,提供了多种基于词典的分词算法,并利用ngram模型来消除歧义。 能准确识别英文、数字,以及日期、时间等数量词,能识别人名、地名、组织机构名等未登录词。 同时提供了Lucene、Solr、ElasticSearch插件。 分词使用方法: 1、快速体验 运行项目根目录下的脚本demo-word.bat可以快速体验分词效果 用法: command [text] [input] [output] 命令command的可选值为:demo、text、file
  3. 所属分类:Java

    • 发布日期:2014-11-05
    • 文件大小:10485760
    • 提供者:love_hachi
  1. lucene-core-4.10.2

  2. Lucene 是apache软件基金会4 jakarta项目组的一个子项目,是一个开放源代码的全文检索引擎工具包,即它不是一个完整的全文检索引擎,而是一个全文检索引擎的架构,提供了完整的查询引擎和索引引擎,部分文本分析引擎(英文与德文两种西方语言)。
  3. 所属分类:Java

    • 发布日期:2014-12-19
    • 文件大小:2097152
    • 提供者:lxiaoy605
  1. lucene引擎和sqlite数据库分词查询

  2. lucene引擎和sqlite数据库分词查询,统计单词频率,统计重点单词,重点句子
  3. 所属分类:C++

    • 发布日期:2016-04-10
    • 文件大小:6291456
    • 提供者:codeloverr
  1. solr5.5版本可用中文分词器

  2. 在managed-schema中加入即可 ...展开收缩
  3. 所属分类:Java

    • 发布日期:2016-09-24
    • 文件大小:1048576
    • 提供者:l727248517
  1. lucene.net +盘古分词器 实例

  2. Lucene.Net只是一个全文检索开发包,不是一个成型的搜索引擎 它提供了类似SQLServer数据库正式版中的全文检索功能的索引库 你把数据扔给Lucene.Net,【Lucene.Net只针对文本信息建立索引,所以他只接收文本信息,如果不是文本信息,则要转换为文本信息】它会将文本内容分词后保存在索引库中,当用户输入关键字提交查询时,Lucene.Net从索引库中检索关键字数据,所以搜索速度非常快,适合于用户开发自己站内的搜索引擎 Q:分词 A:即将"不是所有痞子都叫一毛"文本内容通过分词
  3. 所属分类:C#

    • 发布日期:2017-02-27
    • 文件大小:2097152
    • 提供者:zhfpoet
  1. IKAnalyzer分词器 下载IKAnalyzer2012FF_u1.jar

  2. IKAnalyzer分词器版本 2012 兼容Lucene3.3以上版本 对solr1.4提供接口实现 使用IK分词器,应为该集群使用到的solr版本为4.10.3-cdh5.7.5,所以使用的 IK 包为IKAnalyzer2012FF_u1.jar,如果是3x的solr,使用IKAnalyzer2012_u6.jar 具体操作如下: 引用 1.在/opt/cloudera/parcels/CDH/lib/solr/webapps/solr/WEB-INF创建classes目录 2.把IKA
  3. 所属分类:Hbase

    • 发布日期:2018-01-12
    • 文件大小:2097152
    • 提供者:qq_38336023
  1. lucene的使用

  2. lucene的下载安装和相关的索引创建,分词查询等等,查询语法和IK中文分词解析器的使用
  3. 所属分类:Java

    • 发布日期:2018-10-22
    • 文件大小:430080
    • 提供者:bellychip
« 12 3 4 5 »