您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. lucene分词测试代码

  2. 用java写的图形分词测试的小东西,用的分词器是:来自“猎图网 www.richmap.cn”基于IKAnalyzer分词算法的准商业化Lucene中文分词器,其使用“正向全切分算法”,42万汉字字符/每秒的处理能力(IBM ThinkPad 酷睿I 1.6G 1G内存 WinXP),对数量词、地名、路名的优化处理,对未知词汇采用自识别结合二元切分算法,确保搜索召回率。但是没有源代码下载,只能联系作者索要。
  3. 所属分类:其它

    • 发布日期:2007-11-21
    • 文件大小:2mb
    • 提供者:robinfoxnan
  1. Lucene 3.0 原理与代码分析

  2. 本系列文章将详细描述几乎最新版本的Lucene的基本原理和代码分析。 其中总体架构和索引文件格式是Lucene 2.9的,索引过程分析是Lucene 3.0的。 鉴于索引文件格式没有太大变化,因而原文没有更新,原理和架构的文章中引用了前辈的一些图,可能属于早期的Lucene,但不影响对原理和架构的理解。 本系列文章尚在撰写之中,将会有分词器,段合并,QueryParser,查询语句与查询对象,搜索过程,打分公式的推导等章节。 提前给大家分享,希望大家批评指正。 Lucene学习总结之一:全文检
  3. 所属分类:专业指导

    • 发布日期:2010-02-22
    • 文件大小:4mb
    • 提供者:forfuture1978
  1. 最新Lucene 3.0 原理与代码分析

  2. 本文将详细描述几乎最新版本的Lucene的基本原理和代码分析。 其中总体架构和索引文件格式是Lucene 2.9的,索引过程分析是Lucene 3.0的。 鉴于索引文件格式没有太大变化,因而原文没有更新,原理和架构的文章中引用了前辈的一些图,可能属于早期的Lucene,但不影响对原理和架构的理解。 本系列文章尚在撰写之中,将会有分词器,段合并,QueryParser,查询语句与查询对象,搜索过程,打分公式的推导等章节。
  3. 所属分类:专业指导

    • 发布日期:2010-05-08
    • 文件大小:4mb
    • 提供者:wine471039801
  1. 分词的相关编程以及代码段

  2. 分词器的相关代码 编译课程的大作业 分词的相关编程以及代码段
  3. 所属分类:专业指导

    • 发布日期:2010-06-08
    • 文件大小:1kb
    • 提供者:ljwlj
  1. Lucene3.0原理与代码分析

  2. 本系列文章将详细描述几乎最新版本的Lucene的基本原理 和代码分析。 其中总体架构和索引文件格式是Lucene 2.9的,索引过程分 析是Lucene 3.0的。 鉴于索引文件格式没有太大变化,因而原文没有更新,原理 和架构的文章中引用了前辈的一些图,可能属于早期的 Lucene,但不影响对原理和架构的理解。 本系列文章尚在撰写之中,将会有分词器,段合并, QueryParser,查询语句与查询对象,搜索过程,打分公式 的推导等章节。
  3. 所属分类:专业指导

  1. IKAnalyzer中文分词器V3.2.8使用手册

  2. 力荐,中文分词技术,在google code中有开源代码。
  3. 所属分类:Java

    • 发布日期:2011-08-26
    • 文件大小:739kb
    • 提供者:ya_yu
  1. 中文 英文分词器

  2. 目前最流行的中文 英文分词器 jar、代码、api都包含了,非常齐全。
  3. 所属分类:Java

  1. 中科院分词器

  2. 中科院的分词软件以及代码,代码使用c++写的。写搜做引擎的朋友们可以下来参考参考
  3. 所属分类:Web开发

    • 发布日期:2012-07-31
    • 文件大小:5mb
    • 提供者:veesonsan
  1. lucene实例(中文分词)

  2. lucene实例是一个比较详细的例子,包括lucene的入门到高级实例,代码里有比较详细的实例,所有的实例都是通过junit来测试的。实例包括各种搜索:如通配符查询、模糊查询、查询结果的分页、中文分词器、自定义分词器等
  3. 所属分类:Java

    • 发布日期:2013-01-04
    • 文件大小:1mb
    • 提供者:guoyiqi
  1. mmseg4j-all-1.9.0.v20120712-SNAPSHOT.jar (非Bug版)

  2. mmseg4j是一个很出色的中文分词器,当前最新版本为1.9,官方的版本和solr4.0组合使用时因为solr4.0接口的变化导致无法正常运行,所以需要对mmseg4j中的部分代码进行修改,该版本是本人修改后的版本,测试后可以正常工作!
  3. 所属分类:Java

    • 发布日期:2013-01-14
    • 文件大小:99kb
    • 提供者:keepthinking_
  1. 基于Lucene的中文分词器代码paoding,IK,imdict,mmseg4j

  2. 基于Lucene的中文分词器代码paoding,IK,imdict,mmseg4j。测试可运行,输入一个段落,每个分词器的分词结果不同,可得到结果和所需时间。
  3. 所属分类:Java

    • 发布日期:2013-09-23
    • 文件大小:23mb
    • 提供者:lilongbao123
  1. 中科院分词器ICTCLAS,编译版(64bit)

  2. 中科院分词器ICTCLAS,已经实现了二进制程序,有相关的代码,运行比较简单,执行wordseg infile outfile就可以,可以用于对word2vec需要的语料进行分词
  3. 所属分类:C++

    • 发布日期:2013-11-22
    • 文件大小:5mb
    • 提供者:wdxin1322
  1. 使用IK Analyzer实现中文分词之Java实现

  2. 1、lucene-core-3.6.0.jar 2、IKAnalyzer2012.jar(主jar包) 3、IKAnalyzer.cfg.xml(分词器扩展配置文件) 4、stopword.dic(停止词典) 5.IkSegmentation.java(示例代码)
  3. 所属分类:Java

    • 发布日期:2015-03-30
    • 文件大小:3mb
    • 提供者:luozhipeng2011
  1. 支持Spring-data-solr1.5的ik分词器,同义词

  2. 支持Spring-data-solr1.5的ik分词器,并且修改了代码,添加一个新的类,用于支持同义词,目前可以同时支持分词和同义词的功能。 修改 managed-schema,添加 ...展开收缩
  3. 所属分类:Java

    • 发布日期:2016-04-28
    • 文件大小:1mb
    • 提供者:wlf820
  1. 高版本Lucene的IK分词器

  2. maven库中现有的ik分词器只支持低版本的Lucene,想要支持高版本的Lucene,需要重写老版本ik分词器里的部分代码. 下载代码片段后导入项目,在创建分词器的时候把new IKAnalyzer替换为 new IKAnalyzer5x即可。
  3. 所属分类:Java

    • 发布日期:2017-08-30
    • 文件大小:2kb
    • 提供者:w26245
  1. HMM中文分词

  2. 基于HMM的中文分词代码,虽然基于字标注的中文分词借鉴了词性标注的思想,但是在实践中,多数paper中的方法似乎局限于最大熵模型和条件随机场的应用,所以我常常疑惑字标注中文分词方法为什么不采用别的模型和方法呢?莫非是由于其诞生之初就采用了最大熵模型的缘故。但是,在词性标注中,Citar实现的是TnT中所采用的HMM trigram方法,其所宣称的性能是不亚于最大熵模型等词性标注器的。基于这样的前提,本文就验证一下基于Citar实现的HMM trigram字标注中文分词器的性能虽然基于字标注的中
  3. 所属分类:机器学习

    • 发布日期:2018-06-19
    • 文件大小:4mb
    • 提供者:qq_39635806
  1. lucene检索实例代码,自己总结的非常详细

  2. 文档中包含Lucene4.0.0版本jar包,中文分词器jar包,Lucene实例代码 1:建立索引 2:各种搜索方式方法 3:删除索引 4:检查索引文件 5:恢复删除的索引 6:强制删除 7:更新索引 8:合并索引 9:高亮回显 供大家参考学习 public static void main(String[] args) { LuceneUtil luceneUtil = new LuceneUtil(); // 创建索引 // luceneUtil.index(); // 搜索 lucen
  3. 所属分类:Java

    • 发布日期:2018-07-13
    • 文件大小:60mb
    • 提供者:run65536
  1. 中文分词器jcseg支持人名识别mmseg四种过滤算法分词准确率达到了97%以上。支持自定义词库。在lexicon文件夹下可以随便添加删除更改词库和词库内容并且对词库进行了分类.zip

  2. 中文分词器jcseg支持人名识别mmseg四种过滤算法分词准确率达到了97%以上。支持自定义词库。在lexicon文件夹下可以随便添加删除更改词库和词库内容并且对词库进行了分类.zip,太多无法一一验证是否可用,程序如果跑不起来需要自调,部分代码功能进行参考学习。
  3. 所属分类:其它

  1. IKAnalyzer中文分词.rar

  2. IK Analyzer是什么呢,就是我们需要的这个工具,是基于java开发的轻量级的中文分词工具包。它是以开源项目Luence为主体的,结合词典分词和文法分析算法的中文分词组件。 IKAnalyzer继承Lucene的Analyzer抽象类,使用IKAnalyzer和Lucene自带的分析器方法一样,将Analyzer测试代码改为IKAnalyzer测试中文分词效果。 如果使用中文分词器ik-analyzer,就需要在索引和搜索程序中使用一致的分词器:IK-analyzer。
  3. 所属分类:互联网

    • 发布日期:2020-06-06
    • 文件大小:1mb
    • 提供者:zhouth94
  1. 如何在docker容器内部安装kibana分词器

  2. 步骤: 1.在虚拟机目录下新建docker-compose.yml文件,然后进入yml文件编辑 vi docker-compose.yml 2.在yml文件中添加如下代码: version: 3.1 services: elasticsearch: image: daocloud.io/library/elasticsearch:6.5.4 restart: always container_name: elasticsearch ports: - 9200:920
  3. 所属分类:其它

    • 发布日期:2021-01-08
    • 文件大小:40kb
    • 提供者:weixin_38620267
« 12 3 4 5 6 7 8 »